Kennt Ihr einen Prozessor der sage und schreibe 64 Threads gleichzeitig bedienen kann? Nun der SUN SPARC T2 Prozessor ist ein solcher Prozessor. Er hat 8 Kerne und jeder dieser Kerne kann nochmal 8 Threads verwalten. Es gibt da allerdings auch ein paar Nachteile. Der Prozessor ist nicht x86 Kompatibel, die Firma SUN wurde von einem ORACEL gefressen und der Prozessor ist in der Zwischenzeit Geschichte. Hat Intel etwas vergleichbares? Da wäre der SCC Chip zu nennen. Ein Experimentaöprozessor der sage und schreibe 48 Kerne hat. Nun wurde dieser Experimentalprozessor von Universitäten ausgiebig gestet und was passiert nun? Es passiert NICHTS!
INTEL baut jetzt Prozesoren in 22nm Technologie. Dies Prozessoren sind so klein, das sie den ATOM-Prozessoren eine ernstzunehmende Konkurenz machen aber mehr als 6 Kerne mit jeweils Hyperthreading ist nicht drin? Also gerade mal 12 Threads. Warum denn mehr anbieten, wenn man mit so wenig, so viel Geld machen kann? Und was bedeutet das nun? Wir sind Technologisch ins Hintertreffen geraden. Statt einen Prozessor mit 32 Kernen mit Hyperthreading anzubieten, dübelt INTEL mit seinen immer kleiner werdenen Prozessoren vor sich hin. Dabei werden Rechenzentren mit ihren Prozessoren ausgestatten und die dort arbeitenden Administratoren erleben einen technologischen Rückschritt.
Archiv Prozessoren 8.660 Themen, 54.742 Beiträge
Hallo
Alles kein Problem, es gibt schon etwas neues :-)
Tilera
-groggyman-
Damit läuft Freecell endlich flüssig. Danke für den Tipp. Andy
Schön für die Administratoren der Rechenzentren aber dieser Prozessor von Tilera ist sicher nicht x86 kompatibel. Ich finde es ist doch eigentlich mal an der Zeit das Intel einen Prozessor mit 32 Kernen und Hyperthraeding herausbringt. Wie lange soll man den noch warten bis sich da etwas tut?
Hallo noch mal
Das einzige mir bekannte, ich muss gestehen das ich mich damit nicht oft beschäftige, ist das Projekt "Terascale" , also ein Versuch eines 100 Kerne Prozessors. Wofür aber benötigen wir im Moment mehr als 8 Kerne, es gibt so gut wie keine bezahlbare Software in dem Bereich, von daher wäre ein solches Modell sicher für uns nicht rentabel. Unis und Forschungslabors im Wissenschaftsbereich haben da sicher ihre eigenen Methoden.
-groggyman-
Wofür aber benötigen wir im Moment mehr als 8 KerneAlleine bei Worldcommunitygrid sind über 500.000 Benutzer damit beschäftigt, den Wissenschaftlern bei Ihren Projekten zu helfen. Alleine der Boincmanager kann viele verschiedene Projekte verwalten. Bei SETI@Home angefangen und bei Einstein@home hört es noch lange nicht auf. Aber noch interesanter wird es bei Grafikkarten. Die dortigen Prozessoren sind auf Vektorenberechnungen spezialisiert und für die meisten wissenschaftlichen Berechnungen, geradezu ideal dafür geeignet. Z.B. hat das Poem@home Projekt bei mir erst letztes Jahr im Februar angefangen. Im Juli kam dann die Möglichkeit mit der Grafikkarte zu rechnen. Das Projekt hob daraufhin ab wie eine Rakete und ist heute auf dem zweiten Platz aller Porjekte, die ich z.Z unterstütze.
Hallo noch mal
Bei solchen Projekten muss ich passen, das geht an meinem Hobby vorbei.
-groggyman-
Tja, ich benutze dem Computer nicht um mir die Zeit zu vertreiben, sondern lieber wofür er mal erfunden wurde, nämlich zum rechnen von Berechnungen. Und dafür gebe ich jetzt schon 141€ pro Monat an Stromkosten aus aber auch ich muß sparen. Meine Energiekosten dürfen nicht ins Uferlose wachsen.
Schlichte Frage:
WOFÜR?
Wo siehst du im Bereich der x86-Prozessorarchitektur Einsatzgebiete, die die Entwicklung solcher Prozessoren rechtfertigen würden?
Abgesehen davon kann ich dein Geschimpfe über die Verkleinerung der Prozessoren nicht nachvollziehen. Damit bekämpft Intel nämlich recht effektiv 2 der grössten Probleme - Stromverbrauch und Wärmeentwicklung...
Ich schimpfe doch nicht über die Verkleinerung, sondern über die mangelnde Zahl an Threads. Und was die Notwendigkeit solcher Prozessoren angeht, bei mir laufen 13 System mit insgesamt 44 Threads. Nur damit andere Wissenschaftler ihre Modellberechnungen für Proteinfaltung oder Medikamentenentwicklung machen können. Wenn das alles 1 Prozessor tun kann, wäre ich Intel sehr dankbar, wenn man Ihn dann auch kaufen könnte und er nicht in Universitäten nur für Versuchszwecke genutzt wird.
Während andere ihre Grafikkarten zum Spielen benutzen, werden bei mir damit Proteine gefaltet oder eine bessere Rögtenlithograhie berechnet.
Gerade im medizinischen Bereich mit sehr vielen identischen, parallelen Berechnungen hängen Grafikkarten mittlerweile normale Prozessoren eindeutig ab. Was schlicht daran liegt, das die Dinger aufgrund ihres internen Aufbaus genau darauf optimiert sind, im Gegensatz zu CPUs, die auch andere Aufgaben zu erledigen haben.
Von der erreichbaren Rechenleistung kann es so ein Rechner mit mehreren GPUs bei bestimmten Anwendungen mit kleinen Rechenzentren konventioneller Art aufnehmen...von der Einsparungen allein an Stromkosten gar nicht zu reden...
Ein Prozessor auf x86-Basis würde auch mit 50 Threads nicht an die Leistungsfähigkeit der heute bereits erhältlichen Grafikkarten auf diesem Gebiet herankommen.
Es wundert mich alleine schon das nicht alle auf die Grafikkarten gewechselt sind. Rosetta@home wird immer noch mit CPU gemacht. Während Poem@home bis auf das GPUGRID Projekt alle anderen überholt hat, weil dort die GPU eingestzt wird.
Es wundert mich alleine schon das nicht alle auf die Grafikkarten gewechselt sindWeil es keine ganz triviale Sache ist, gerade bei diesen @home-Projekten...
Wir haben 2 Hersteller von Grafikkarten, die ernsthaft für sowas in Betracht kommen. Beide verwenden unterschiedliche Standards und Verfahren für die Programmierung. Also recht hoher Entwicklungsaufwand.
Der Stromverbrauch geht bei einer Grafikkarte unter Volllast ordentlich nach oben, ebenso die Lautstärke des Lüfters. Nicht jeder private Unterstützer solcher Projekte ist dazu bereit.
Und natürlich müssen bei den jeweiligen Unterstützern überhaupt entsprechende Grafikkarten verbaut sein. Wenn ein Projekt zu dem Schluss kommt, das zu wenige der angemeldeten Systeme derartige Hardware haben werden die den Aufwand sicher nicht betreiben.
Es wundert mich alleine schon das nicht alle auf die Grafikkarten gewechselt sind.Wie die Programmierung und Optimierung auf GPUs sehr aufwändig ist. Vollkommen anderes Programmieren als man es von CPUs gewohnt ist. Und nicht jedes Problem lässt sich so umformulieren, dass es effizient auf GPUs gerechnet werden kann…
sondern über die mangelnde Zahl an Threads.
Wobei man da ergänzend auch noch erwähnen sollte, dass Du mit HT nur einen sehr überschaubaren Leistungsgewinn bekommst. Das bewegt sich bei anspruchsvollen Rechenoperationen (ganz besonders sicher auch wenn die komplett im CPU-Cache laufen können) oft im Bereich von unter 10% Leistungsgewinn. Beim SPARC T2 mag das durch zusätzliche Recheneinheiten in jedem Kern vielleich etwas besser ausfallen, aber wenn es auf reine Berechnungsleistung ankommt dann müssen halt auch 6 von 8 Threads warten wenn nur 2 Recheneinheiten vorhanden sind…
13 System mit insgesamt 44 Threads
Das sind nicht mal 4 Threads/System und man könnte hier auch darauf hinweisen, dass Du auch mit 2 Dual Xeon Systemen schon auf 48 Threads kommen würdest. Ein entsprechendes Quad-Opteron-System mit 64 Kernen könnte sich hier aber wohl schon lohnen. Bei den Quad-Boards dürfte es allerdings schwierig werden mehrere Grakas unterzubringen. Mehrere Dual-CPU-Systeme wären da ggf. besser…
Das sind nicht mal 4 Threads/System und man könnte hier auch darauf hinweisen, dass Du auch mit 2 Dual Xeon Systemen schon auf 48 Threads kommen würdest. Ein entsprechendes Quad-Opteron-System mit 64 Kernen könnte sich hier aber wohl schon lohnen
Das wären dann aber auch nicht mehr eine CPU sondern 2 odeer 16 CPU's und den Stromverbrauch, von solchen Systemen will ich gar nicht erst lesen. Ich bin immer noch ein kleiner Privathaushalt und kein staatliches Rechenzentrum!
Aktuell hast Du doch auch mindestens 13 CPUs (und diverse andere Komponenten die mehrfach vorhanden sind) am braten? Und da machst Du Dir ernsthaft sorgen? Nach den von Dir angegebenen Stromkosten müsstest Du aktuell auch schon das ganze Jahr über im Durchschnitt knapp 1kW haben…
645 W/h im letzten Jahr.Ich lasse meine Computer 24 Stunden lang an.
W/hBitte einfach nur W(att)…
Naja, ich habe den gesamten Jahresverbrauch aus der letzten Stromrechnung durch die Gesamtstundenzahl des Jahres gerechnet und habe da dann 645 Watt/h herausbekommen.
ich habe den gesamten Jahresverbrauch aus der letzten Stromrechnung durch die Gesamtstundenzahl des Jahres gerechnet und habe da dann 645 Watt/h herausbekommen.Auch auf Deiner Stromrechnung stehen mit Sicherheit kWh drauf ;-)
Wenn ich die kWh auf meiner Stromrechnung durch die Zahl der Stunden eines Jahres (8760) dividiere, komme ich auf einen Wert, der ebenfalls weit unter 1kWh liegt.
Papi dürfte also rund 5600kWh auf seiner Jahresabrechnung stehen haben.
Jürgen
5646 um es genau zu sagen. Hört sich nicht nach viel an aber ich muß schon 141€ an Abschlagszahlung im Monat leisten und mein jetztiger Stromverbrauch ist noch höher aber immer noch kein KW/h, sondern "nur" W/h
sondern "nur" [5646] W/h
Ganz bestimmt nicht! Warum kommen bei Strom-Diskussionen immer nur wieder die wildesten Einheiten zu Tage? :-( Vielleicht glaubst Ihr wenigstens der Beschriftung des Zählers? Auf dem steht auch kWh…
Die einzige sinnvolle Verwendung die mir für die Einheit W/h in den Sinn kommt wäre die Angabe von Anfahrtsrampen von Kraftwerken…
Jetzt sind wir neben die Spur gekommen . Natürlich sind es 5646 KW/h im Jahr und nun nehmen wir 365 mal 24 sind gleich 8760 Stunden im Jahr. Nun nehmen wir 5646 KW/h / 8760 h = 0,6445205479452055W/h
Tatsache, ich brauch nicht mal einen KW pro Stunde aber muss schon 141€ Abschlagzahlung im Monat leisten.
5646 KW/h im Jahr
kW*h !
5646 KW/h / 8760 h = 0,6445205479452055W/h
Das passt doch schon von den Einheiten her offensichtlicher Unsinn:
(kWh)/h = kW != W/h
(5646kWh/a=) 5646 kWh / 8760 h = 0,6445205479452055 kW = 644W mittlerer Last
Oder auch 15,5kW/d bzw. etwa 4,50EUR/d
Und in der Stunde sind es 0,644KW und damit weniger als 1KW
In der Stunde sind es 0,644kWh. Oder einfach (ohne Stunde!) 0,644kW (=0,644kWh/h).
Das 0,644kW < 1kW gilt wird wohl niemand bestreiten, aber was willst Du uns damit nun genau sagen?
Das 0,644kW < 1kW gilt wird wohl niemand bestreiten, aber was willst Du uns damit nun genau sagen?
Jetzt hast Du den Faden verloren. Warst nicht Du es der staunte das es nicht mal ein KW/h ist? Ich verbrauche trotz meiner 13 Systeme nicht mal 1 KW/h
Warst nicht Du es der staunte das es nicht mal ein KW/h ist?Wo denn? Zunächst war allerdings auch nicht von (und auch eher nicht zu erwarten wenn es darum geht umfangreich rechnen zu lassen) Notebooks die Rede…
am
Zunächst war allerdings auch nicht von (und auch eher nicht zu erwarten wenn es darum geht umfangreich rechnen zu lassen) Notebooks die Rede…
Du mußt daran denken, dass ich immer noch ein privater Haushalt bin und kein staatliches Rechenzentrum.
13 Computer im 24/7 Betrieb sind aber auch schon nicht mehr so ganz normale private Haushaltsnutzung ;-)
XD Stimmt!
Nö, ist es nicht. Und x86 ist in dem Bereich, wo mehr als die aktuelle auf einer CPU erhältlichen 16 Kerne benötigt werden, auch kein Vorteil. In der aktuellen Top10 der Supercomputer sind alleine 5 Systeme Power basierend, eines nutzt Fujitsus Sparc64 VIIIfx, 3 Intels Xeon CPU und eines AMD Prozessoren mit unterstützung von nVidias Tesla.
Wo hast Du denn diese CPU ausgegraben? Ist doch schon vor einigen Jahren vorgestellt worden. Preislich liegen solche CPUs übrigens auch in einer ganz anderen Region als x86-CPUs. Das geht erst im mittleren 4-stelligen Bereich los…
Ganz so einfach ist das übrigens nicht mit der Erhöhung der Kern-Anzahl. Mit einer zunehmender Anzahl von Kernen wird die Kommunikation zwischen diesen immer komplexer und irgendwann kommt man auch in eine Größenordung bei der ein globaler gemeinsamer Speicherzugriff nicht mehr möglich ist. Und da entfernt man sich dann doch deutlich von der x86/AMD64-Architektur.
die dort arbeitenden Administratoren erleben einen technologischen Rückschritt.
Wo siehst Du da den Rückschritt?
Wenn ein echter Bedarf für CPUs mit entsprechend vielen Kernen existieren würde dann hätten wir die schon. AMD-Opterons bekommst Du mit bis zu 16 Kernen. Auf einem Quad-Board hast Du dann 64 Threads verfügbar…
Wenn ein echter Bedarf für CPUs mit entsprechend vielen Kernen existieren würde dann hätten wir die schon. AMD-Opterons bekommst Du mit bis zu 16 Kernen. Auf einem Quad-Board hast Du dann 64 Threads verfügbar
Kann Du mir sagen wie das System heißt? Auch wenn es ein 4stelliger Betrag ist, ein solches System wäre es wert.
Bei Supermicro wirst Du fündig. Die haben sowohl entspechende AMD G34 Mainboards (die dann allerdings auch nicht nicht mal mehr E-ATX sind) als auch komplette Systeme. Für ein entsprechendes Gesamtsystem musst Du in der Größenordnung um 10K€ einplanen. Deutlich drunter wirst Du eher nicht kommen. Zumindest als ich das letzte mal entsprechenden Systemkonfigurationen als Compute-Server überschlagen hatte. Und Du solltest im Hinterkopf behalten, dass ein entsprechendes System unter Last schnell in Richtung 1kW Leistungsaufnahme kommt. Da muss man dann schon sicherstellen, dass eine hinrechende Wärmeabfuhr gewährleistet ist…
Für ein entsprechendes Gesamtsystem musst Du in der Größenordnung um 10K€ einplanen.Aua das tut weh! Mh, 1KW und das alleine in einer Stunde. Ob das meine 13 Computer auch schaffen? Ich will doch eigentlich nur Energie sparen und letztendlich auch Geld aber so geht das doch nicht!
...und bei Intel verstaubt der SCC in deren Laboren. Na dann auch vielen Dank INTEL.
Hi!
Naja, ich will es als Autofahrer mal so sagen: schon 1970 wurde die 1000km/h Grenze von einem Auto geknackt. VW hat zudem mit dem Bugatti EB 16.4 bereits 2001 ein Modell hergestellt, dass serienmäßig einen Motor mit mehr als 1000PS hatte.
Warum zum Teufel bekommt man heute keinen Golf, der 1000PS hat und über 1000km/h schafft? Na dann vielen Dank VW. Ich will eigentlich nur schnell zur Arbeit kommen (und Abend schnell nach Hause).
Bis dann
Andreas
http://www.spiegel.de/auto/fahrberichte/bugatti-eb-16-4-veyron-jenseits-der-1000-ps-a-120119.html
http://sinsheim.technik-museum.de/de/de/blue-flame
Warum zum Teufel bekommt man heute keinen Golf, der 1000PS hat und über 1000km/h schafft?
Was so kleinlich denkt ihr Autofahrer? Wenn das Fahrzeug nicht wenigstens MACH 2 erreicht und nur 2 Liter auf 1000 Km verbraucht, gehe ich gar nicht erst zum Autoverkäufer. XD
Hi!
Ich hab nochmal etwas ernsthafter über das Thema nachgedacht. Ich denke, dass es im Moment einfach die CPU-Produktionstechnik noch nicht hergibt x86-kompatible CPUs herzustellen, die preiswert und stromsparend wie aktuelle Zweikerner sind. (CPUs mit 16, 32 oder gar 64 Kernen wären bei heutiger Produktiosntechnik flächenmäßig zu groß, um preiswert und stromsparend zu sein.)
Auf der anderen Seite, wenn man die x86-Kompatibilität und sogar die Beschränkung auf die klassische CPU wegfallen lässt, haben wir IMHO schon in ziemlich vielen Rechnern Multicore-Chips sitzen.
Ich denke an die Grafikkarte.
Deren Chips sind ja oft heute sogenannte GPGPUs. In diesen GPGPUs werden heute angeblich bis zu 1000 parallel Recheneinheiten eingesetzt, die man etwas weiter gefasst als Recheneinheit im Grafikchip bezeichnen könnte.
Aktuelle Spitzenkrafikkarten besitzen ja nicht umsonst eine Rechenleistung, von der x86-Quadcore-CPUs nur träumen können. Für entsprechende Anwendungen kann man die Grafikkarte auch als Spezial-Prozessor für schnelle parallele Berechnungen nutzen, was im wissenschaftlichen Umfeld wohl recht häufig genutzt wird.
Intel baut in der CPU internen 4000er Grafiik 16 "Execution Units" ein. Ich interpretiere das als solche parallelen Recheneinheiten im Grafikprozessor.
Die Grafik der AMD-CPU A10-5800K soll 384 Shadereinheiten besitzen. Schader sind im Prinzip auch Recheneinheiten.
Ich weiß aber ehrlich gesagt nicht, wie und ob man die Execution Units von Intel mit den Shadereinheiten von AMD vergleichen kann.
Fakt bleibt IMHO aber, dass man die Verwendung von möglichst vielen parallelen "Recheneinheiten" schon jetzt in aktuellen x86-CPUs findet, allerdings nur in deren Grafikeinheit.
Bis dann
Andreas
"Ich hab nochmal etwas ernsthafter über das Thema nachgedacht. Ich denke, dass es im Moment einfach die CPU-Produktionstechnik noch nicht hergibt x86-kompatible CPUs herzustellen"
Ich glaube nicht, das dies der hauptgrund ist.
Und ich glaube weiterhin, das man sich darüber gar keine Gedanken macht.
Die 32Bit- Technik ist, genau die die vorhergehenden 8 und 16Bit-Techniken überholt, diese Techniken waren nur wichtige Schritte auf einem stets nach oben führenden Weg.
Mit 32Bit- Systemen kann man eben nur eine wesentlich begrenztere Anzahl von Strukturen, Abbildern usw schaffen -bei komplexeren Strukturen (drücke ich möglicherweise nicht wissenschaftlich korrekt aus) sind eben 64 oder, wie schon im Gespräch, 128Bit- Systeme erforderlich.
Weshalb also für veraltete Systeme noch weitere, teure Forschung betreiben?
Jürgen
Weshalb also für veraltete Systeme noch weitere, teure Forschung betreiben?
Ist doch schon mit dem SCC Chip mit 48 Kernen die X86 kompatibel sind längst geschehen. Was auch immer bei den wissenschaftlichen Projekten herausgekommen ist, weiß ich nicht aber ich warte immer noch auch einen Chip der mit 32 Kernen und Hyperthreading meine günsten Träume erfüllen würde.
Was veranlaßt Dich zu glauben, das die Industrie hohe Summen in die Weiterentwicklung der 32bit- Technologie investiert? Es muß da ja handfeste Gründe geben, wenn "man" nicht auf die 64Bit- Technik umsteigen will.
Damit wir uns verstehen: man wird in diesem Sektor der Forschung (und auch anderswo) kaum nach meiner Meinung fragen.
Aber es interessiert mich, welche Gründe es gibt, zwingend auf 32Bit zu bestehen?
Jürgen
Aber es interessiert mich, welche Gründe es gibt, zwingend auf 32Bit zu bestehen?
Natürlich besteht da kein Zwang aber wie ich schon in einem anderen Posting schrieb. In den meisten Fällen braucht man keine 64.Bit Technologie. Denke doch nur einmal an die erste Teraflop Rechenanlage von Intel. Dort hatte man 9600 Pentium Pro Prozessoren zu einem 1 Terafloprechenanlage zusammengeschaltet. Auch in der Vergangenheit hat man z.B. bei der Thinkingmachine 65000 1 Bit Prozessoren zusammengeschaltet. Du siehst man kann auch mit nur 1 Bit noch arbeiten. Man braucht nicht unbedingt 64-Bit. In den selteren fällen benötigt man mehr als 32 Bit und so lange man sich nicht ständig jeseits von 2GB aufhält, braucht man keine 64-bit Technologie. Nur weil etwas nicht mehr modern ist, heißt es nicht, das es plötzlich schlecht wird. Alt werden wird alle mal und dieser Tatsache muss man mit Respekt begegnen.
1 Bit Prozessoren
Das würde mich sehr wundern! 1Bit Registerbreite, 1Bit Befehlsbreite (d.h.: Das Ding würde nur zwei verschiedene Befehle kennen) und 1Bit Adressbusbreite würden maximal für eine minimalistische Turingmaschine reichen. Und selbst dann hätte man gerade mal in für die theoretische Informatik interessantes Konstrukt und weniger ein Gerät das man zufriedenstellend praktisch nutzen kann…
Ansonsten ist Dir aber schon bewusst, dass Du mit 64Bit Registern doppelt so viele Daten in einem Arbeitsschritt bearbeiten kannst. Auch wenn sich dadurch nicht zwingend und ohne entsprechende Optimierung bei jedem Problem die doppelte Leistung erzielen lässt. Allerdings hat die AMD64-Architektur auch darüber hinaus deutlich Vorteile, z.B. durch die deutlich erhöhte Registeranzahl…
sind eben 64 oder, wie schon im Gespräch, 128Bit- Systeme erforderlich.
Also diesen Wahnsinn mit den 64Bit oder sogar noch höher verstehe ich nicht. Mit 64 Bit kann ich bis 16Etabyte adressieren. Das ist Jenseits von Gut und Böse. Ich habe mal versucht eine 1 Terabyte Festplatte voll zu bekommen. Was soll ich sagen, ich habe es NICHT GESCHAFFT!!! Überhaupt scheint alle Welt zu glauben mehr Bit gleich doppelt so schnell. Aber das ist nicht so. Ein normalsterblicher kommt selten mit Zahlen jenseits der 2GB Grenze, da muß man schon Video einsetzten um in diese Gefielde zu kommen.
Naja. Für das gebotene ist es eigentlich sogar erstaunlich günstig ;-)
1KW und das alleine in einer Stunde
Das tut mir jetzt allerdings weh: Die Leistungsaufnahme ist zeitunabhängig. Nach einer Stunde hast Du dann einen Energiebedarf von 1kWh…
Ob das meine 13 Computer auch schaffen?
Unter Last kommt ein einzelner Computer mit normalem Mehrkern-Desktop-Prozessor leicht auf über 100W…
...und bei Intel verstaubt der SCC in deren Laboren. Na dann auch vielen Dank INTEL.
Dir ist aber schon bewusst, das das Ding mehr oder weniger aus Pentium1-Kernen zusammengesetzt ist? Da ging es um solche Dinge wie eine flexible Kommuniation der Kerne untereinander. Von der Rechenleistung kommt das Ding vermutlich nicht an einen der großen Intel Cores ran…
Dir ist aber schon bewusst, das das Ding mehr oder weniger aus Pentium1-Kernen zusammengesetzt ist?
Natürlich ist mir das klar und Du wirst lachen, bei mir steht sogar noch ein Pentium MMX mit 200Mhz und hilft SETI@Home Außerirdische Signale ausfindig zu machen, der ist 16 Jahre alt aber ich bin gezwungen Ihn auszuschalten, sonst sprengt die nächste Stromrechnung meine Haushaltsabrechnung.
Viele meine Computer sind Notebooks mit Mehrkernsystemen aber 4 Einzelkerncomputer habe ich noch und alle 4 werden durch ein Mehrkerncomputer ersetzt. Genaugenommen durch einen i3
4 Einzelkerncomputer habe ich noch und alle 4 werden durch ein Mehrkerncomputer ersetzt. Genaugenommen durch einen i3Das ist aber nun wirklich vollkommen absurd: Einerseits beschwerst Du Dich über die geringe Kern-Anzahl von aktuellen CPUs, greifst dann aber zu einem i3 mit gerade einmal 2 Kernen. Warum greifst Du dann nicht zu einer der i7S/T-Varianten?
Ich kann leider nur in kleinen Schritten mir meinen Wunschtraum von 48 Threads erfüllen. Ein i7 wäre mit meinenm jetzigem Buget nicht bezahlbar.
Ein i7 wäre mit meinenm jetzigem Buget nicht bezahlbar.Erst willst Du viele Kerne, viel Rechenleistung und mit geringer Leistungsaufnahme. Jetzt meinst Du aber, dass das ganze nicht mal so viel Aufpreis kosten darf wie Du monatlich an Strom verbrätst. Irgendwie erscheint mir das ein bisschen Obskur.
Jetzt meinst Du aber, dass das ganze nicht mal so viel Aufpreis kosten darf wie Du monatlich an Strom verbrätst.
Hab ioch ein Schnäppchen verpasst? Ein I7 für 141€? WO? WO? WO? Her damit, sorfiort!!!
Aufpreis = Preisdifferenz zum i3 ;-)
Aufpreis = Preisdifferenz zum i3 ;-)
Jetzt nochmal für Dummies! Welcher Aufpreis? Welche Preisdifferenz zum i3?
Ich versuche es mal:
i3 ~ 100 Euro
i7 ~ 250 Euro
=> Preisdifferenz (i7-i3) ~ 150 Euro
Und diese Preisdifferenz hast Du auch bei zwei ansonsten identisch konfigurierten Gesamtsystemen. Bei Notebooks würde (wenn es denn welche gäbe mit ansonsten identischer Konfiguration) der Unterschied tendenziell größer sein.
Also was ist daran jetzt so schwierig?
(wenn es denn welche gäbe mit ansonsten identischer Konfiguration)
Tat dürfte dann wohl die Schwierigkeit sein!
Hallo papa frank,
Genaugenommen durch einen i3
Das unlogisch! Von einem Bock träumen aber eine 125ger kaufen. Ein i 5- 3570K bekommt man unter 200€.
Gruß
Ein i 5- 3570K bekommt man unter 200€.
Du redest hier doch nur von dem Preis der CPU. Da fehlt ja wohl noch mhr als die Hälfte?
Hallo,
Du hast nur vom zu teuren I 7 gesprochen! Wenn Du dir jetzt den I 3 kaufst ist das Geld weg und Du bist wieder nicht zufrieden.
Nachvollziehen kann ich deine Argumentation und Strategie nicht!
Gruß
Nachvollziehen kann ich deine Argumentation und Strategie nicht!Ich werde daraus auch nicht schlau :-|
Wenn Du dir jetzt den I 3 kaufst ist das Geld weg und Du bist wieder nicht zufrieden.
Alter, was lavast Du? Ich kann doch nicht einen Prozessor mit 32 Kernen und Hyperthreading aus dem Nichts zaubern.
Natürlich muß ich mit kleinen Prozessoren zun meinem Ziel kommen. Hast Du mal geguckt, was ein i7 kostet?. Die bekommt Du nicht unter 600-700€ Für diesen Preis kann ich mir auch zwei i3 Systeme holen. Denn ich habe mir noch nie ein System jeseits der 450€ holen können. Das ist bei mir das absolute Limit. Zu Zeit holen ich mir gerade ein i3 Notebook für 199€. Das ist selbst im Gebrauchtmarkt am unteren Limit.
Hast Du mal geguckt, was ein i7 kostet?
Die CPU kostet etwa 150 Euro mehr als ein i3. Für diese Preisdifferenz bekommst du doppelt so viele Kerne (worum es Dir ja ging)!, aber definitiv keinen kompletten zweiten Computer mit i3. Wobei ein zweiter Computer auch doppelt so viel Strom verbrät wie einer. Eine i7 CPU liefert dagegen mit deutlich geringerem zusätzlichem Energieeinsatz die doppelte Rechenleistung…
Wobei ein zweiter Computer auch doppelt so viel Strom verbrät wie einer.
Ein i7 wirst Du wohl kaum als Notebook bekommen und Towersystem verbrauchen auf jeden Fall mehr als Notebooks.
Die Sache hat noch einen Aspeckt. Wenn Du 2 Notebooks statt einem i7 System hast, vergrößert sich auch gleichzeitig die Sytemsicherheit, weil Du zwei unabhägige Notebooks hast und kein eines System. Wen das System ausfällt sind gleich 8 Threads weg. Bei den Notebooks wäre noch ein Notebook in Betrieb und Du hast immerhin noch 4 Threads am laufen.
Ein i7 wirst Du wohl kaum als Notebook bekommen
Natürlich und das nicht erst seit gestern. Aber halt nicht für 199 Euro…
Towersystem verbrauchen auf jeden Fall mehr als Notebooks.
Ja. Aber die Notebook-CPUs sind auch deutlich weniger leistungsfähig und wenn Du einen echten Quadcore haben willst wird es teuer und Du bist Leistungsmäßig nicht auf Desktop-Niveau. Und unter Volllast haben auch Notebooks eine beachtliche Leistungsaufnahme. Was meinst Du wohl warum Mobile-Workstations heute mit 130W NTs geliefert werden?
Notebooks die für Dauerbetrieb geeignet sind bekommst Du auch nicht für 199 Euro. Dafür bekommst Du eher Geräte bei denen dann das Gehäuse anfängt zu schmelzen. Generell sind Notebooks aber eine verdammt schlechte Systemauswahl für 24/7 Betrieb. Wenn Du Ausfallsicherheit haben willst dann musst Du auf Server-Hardware setzen, incl. redundantem NT, zwei USVs und zwei Stromkreisen…
Je mehr ich lese desto wackeliger hört sich das ganze an was Du machst.
Wenn Du Ausfallsicherheit haben willst dann musst Du auf Server-Hardware setzen, incl. redundantem NT, zwei USVs und zwei Stromkreisen…
Nun muss ich leider gestehen, das ich mich mit dieser Servertechnologie so gut wie gar nicht auskenne. Ich weiß allerdings, das die Server über das Netzwerk angesprochen werden und sonst keine Eingabe oder Ausgabemöglichkeiten brauchen. Es gibt eine Steuerkonsole mit der der jeweilige Server angesprochen wird. Aber diese ganze Server Technik geht ja erst bei einer 4stelligen Eurozahl überhaupt los. So, das ich hier eigentlich schon passen muss, daher die Notlösung mit Teil Tower und Teil Notebook Lösung. Es ist sicherlich nicht so sicher wie in einem Rechenzentrum aber immer noch mit weniger als 1 KW/h Verbrauch
Hallo,
Alter, was lavast Du?
Gutes Benehmen und lesen sind nicht gerade Stärken!
Ich habe einen I 5 vorgeschlagen!
Denn ich habe mir noch nie ein System jeseits der 450€ holen könne
Rechne mal den Gesamtpreis deiner Rechenknechte zusammen und überleg wie oft du dir einen 125ger PC gekauft hast.
Jetzt muss ich erstmal herausfinden was ein 125ger PC ist. Habe nmoch nie davon gehört.
Gutes Benehmen und lesen sind nicht gerade Stärken!Entschuldigung, wollte witzig sein. Kann ja nicht wissen, das ich hier mit einem Griesgram kommuniziere.
das ich hier mit einem Griesgram kommuniziere.
schließt Du von dich auf andere?
https://www.google.de/search?q=notebook+i7&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a
Google defekt?
Mindestpreis 699€ Mindestpreis aber erstaunlich das es überhaupt i7 Notebooks für 699€ gibt.
Wie kommt die Bezeichnung 125ger PC zustande?
Natürlich könnte ich, wenn ich länger gespart hätte schon ein solches System haben aber bis jetzt hatte ich noch nicht mal 48 Threads zusammen und desto schneller man die haben will, desto kleiner werden die Notebooks aber in späterer Zukunft werde ich mir mal ein i7 Notebook holen.
Naja man braucht aber auch 6 von diesen Notebooks um 48 Threads zu haben. Wer weiß ob dann nicht Intel doch endlich einen iX herausbringt mit sage und schreibe 32 Kernen und Hyperthreading.
schließt Du von dich auf andere?
Wie kommst Du darauf? Habe ich im Thread den launischen Herausgelassen?
Hallo,
Von einem Bock träumen aber eine 125ger kaufen
habe ich PCs mit 2 räderige Fortbewegungsmittel verglichen!
Hallo,
i7, Notebook und Dauerbetrieb passen zusammen wie Feuer und Wasser.
Den Rechner arbeiten lassen und keine 64 Bit, ist eine interessante Variante.
Ein i7 Notebook ist erst mal noch Zukunftsmusik aber natürlich sind Notebooks nicht für den Dauerbetrieb ausgelegt, dennoch arbeiten jetzt zwei i3 Notebook mit jeweils 4GB und Win7 64-BIt. Also nicht unbedingt nur 32 bit aber wenn man nicht über 4GB hinausgehen will, geht natürlich auch 32Bit, wäre aber eigentlich nicht so günstig, weil das Win 7 64-Bit auch mal so für eine Anwendung 3 GB bereitstellen könnte. Ist also nicht an die 2GB für Anwendungsprogramme begrenzt und daher flexibler. Und da man sowieso nicht weiß wie die Zukunft aussehen wird, ist es ratsamer auf Win7 64-Bit Technologie zu setzen. Hat man sich erstmal für 32-Bit entschieden und sieht dann doch das man mehr Speicher braucht, muss man sich erstmal die win 7 64-Bit Variante kaufen und ärgert sich dann natürlich über die Mehrausgaben.
Hallo,
hast Du dich schon mal mit dem kleinen 1 X 1 der PC Technik auseinandergesatzt?
Auslagerungsdatei!
PCs die nicht Schreibmaschine eingesetzt werden brauchen viel RAM und 64 Bit!
win 7 64-Bit Variante kaufen und ärgert sich dann natürlich über die Mehrausgaben.
Im Preis sind beide Varianten enthalten
Die Auslagerungsdatei ist sehr langsam! Du vergeudest dein Geld durch den Kauf und Betrieb der 125 ger Schreibmaschinen und deren Stromkonsum!
Gruß
Man kann einen Computer mit 2GB schon ordenlich betreiben. Erst bei Videobearbeitung muss man mit mehr als 4GB arbeiten oder wenn man unbedingt die neusten 3D Spiele zocken muss. Bei 1GB wird der Einsatz von Windows durch die Auslagerungsdatei fast bis zur Unerträglichkeit langsam. Da habe ich schon meine eigenen Erfahrungen gemacht. Selbst Win7 Basic ist mit 1GB nicht mehr zu ertragen.
Im Preis sind beide Varianten enthalten
Nicht wenn Du beim Kauf eines Computers, das Betriebssystem einfach auf Festplatte bekommst aber keine dazugehörigen DVD's des Betriebssystem. Ein Geschäftsverhalten, bei dem sogar Microsoft gegen seine eigenen Lizenzbedingungen verstößt. Den laut diesem muss man ein Handbuch, eine DVD und die Productkey nachweisen können aber bei dieser Art von Verkauf ist das nicht gegeben. Dieser Bundle mit dem Betriebssystem ist so wieso ein absolutes Undingt und verzerrt den Wettbewerb total aber jetzt wo das Kind schon längst ins Wasser gefallen ist, kann man nur hoffen, das MS mit Win8 mal richtig auf die Schnauze fällt.
Hallo,
Man kann einen Computer mit 2GB schon ordenlich betreiben
Dann habe ich alles was ich in PC Magazinen und Foren gelesen habe, falsch verstanden.
Nicht wenn Du beim Kauf eines Computers, das Betriebssystem einfach auf Festplatte bekommst aber keine dazugehörigen DVD's des Betriebssystem.
Interessant!
Moin,
ohne mich jetzt hier in die technische Diskussion über Prozessorarchitekturen einzuschalten:
Hast Du mal über das Thema Virtualisierung nachgedacht? Nicht umsonst wird das inzwischen im Enterprise-Bereich und auch bei den großen Server-Hostern gemacht.
Evtl. kommst Du so mit weniger leistungsfähigen System besser und günstiger ans Ziel, als mit vielen kleinen Systemen.
Gruß
Maybe
Virtualisierung würde hier nichts bringen weil auf allen Systemen dauerhaft maximale Rechenleistung gefordert wird…
Virtualisierung würde hier nichts bringen weil auf allen Systemen dauerhaft maximale Rechenleistung gefordert wird…Sicher, aber die momentane Rechenleistung ist ja nicht gleich der zukünftigen. Ist die Frage, ob man die evtl. Mehrleistung den Kunden zur Verfügung stellt, oder sie eben aufteilt.
Gruß
Maybe
zur Ergänzung:
Ich weiß nicht, welche Hardware da momentan werkelt. Privat nutze ich oft mehrere VM parallel, auf einem Quadcore 3,6 GHz mit 16 GB RAM. Dabei ist jede einzelne VM immer noch ungleich leistungfähiger, selbst mit nur einem zugewiesenen Core, als der daneben stehende P4 3.0 GHz.
Die Aufsplittung der Netzwerkleistung sollte auch nicht wirklich das Problem darstellen, den selbst bei 10 Rechnern in einem Gigabit-Netzwerk ist immer noch die externe Verbindung den Engpass da.
Ein Flaschenhals könnten natürlich die Datenspeicher sein, wenn darauf gleichzeitig zugegriffen wird. Ist aber auch zu regeln, wenn z.B. jede VM auf einer andere physikalischen Platte liegt.
Aber es ist nur eine Idee, ob diese hier Anwendung findet, kann ich schlecht beurteilen.
Gruß
Maybe
Ich weiß nicht, welche Hardware da momentan werkelt.Irgendwo steht das hier im Thread mit drin. Der Threadstarter hat scheinbar fast ein Dutzend verschiedener (meiner Einschätzung nach tendenziell eher leistungsschwacher) Computer 24/7 exklusiv dafür laufen um an einem verteilten Rechenprojekt teilzunehmen. Also gerade ein Szenario in dem Virtualisierung keinen Vorteil schaffen würde…
rgendwo steht das hier im Thread mit drin. Der Threadstarter hat scheinbar fast ein Dutzend verschiedener (meiner Einschätzung nach tendenziell eher leistungsschwacher) Computer 24/7 exklusiv dafür laufen um an einem verteilten Rechenprojekt teilzunehmen. Also gerade ein Szenario in dem Virtualisierung keinen Vorteil schaffen würde…Ich glaube, da habe ich grade eine Gedankenblockade! :-(
Wenn bisher Single-Core-Prozessoren genug Rechenleistung bereitstellen, warum dann nicht der einzelne Core eines Multi-Core-Systems?
Ich könnte das nachvollziehen, wenn die Berechnungen bereits für Multicore-Systeme ausgelegt sind, dann würde es natürlich eher Nachteile bringen.
Aber was unterscheidet die verteilten Resourcen eines High-End-Systems (z.B. i7 Multicore, 16GB RAM, 4 HDDs) von dem eines leistungsschwachen Single-Core-Systems? Evtl. GPU-Berechnungen lassen wir mal außen vor, da diese wohl bisher bei der Virtualisierung nicht zum tragen kommen, oder?
Gruß
Maybe
Bei den mir bekannten Projekten rechnet jeder Kern in der Regel eine Work Unit. Je nach Projekt wird auch mit der GPU gerechnet. Bei einem Quadcore System mit Dual-Grafik sind das eben 6 WUs gleichzeitig, mit HyperThreading wären es dann 10 WUs.
Virtualisierung würde außer mehr Last für den Prozessor und verlangsamte Berechnung nichts bringen.
Allerdings ist das Ausgangsposting meines Erachtens auch nicht allzu ernst zu nehmen.
mfg
chris
Virtualisierung würde außer mehr Last für den Prozessor und verlangsamte Berechnung nichts bringen.
Gilt diese Aussage nur für Typ2-Hypervisors wie VMWare Workstation/Player/Server, Virtual Box etc, die ein installiertes OS als Basis brauchen, oder auch bei Hyper-V/ESX, die direkt auf der Hardware laufen?
Ich weiß, ist ziemlich OT, aber ich bin halt neugierig! ;-)
Gruß
Maybe
Einen gewissen Overhead hast Du immer. Tendenziell wird durch Virtualisierung die Häufigkeit von erforderlichen teuren Kontext-Wechseln und Verlusten des CPU-Caches steigen. Selbst mit fester Bindung der VMs an einen CPU-Kern bleiben da noch Aufgaben die der Hypervisor erledigen müsse, wie das Interrupt-Handlung und auch Verteilung gemeinsam genutzter Ressourcen…
Gruß
Borlander
thx, erscheint mir logisch!
Gruß
Maybe
Ergänzend dazu mal ein Blick auf die aktuelle Entwicklung mit dem SPARC T5:
http://www.heise.de/ix/meldung/Oracle-stellt-erste-Server-mit-SPARC-T5-und-M5-vor-1831757.html
http://www.golem.de/news/sparc-t5-oracle-verspricht-schnellsten-prozessor-der-welt-1303-98409.html
http://www.golem.de/news/ibm-oracles-server-sind-nicht-schneller-und-billiger-1303-98443.html
mit wieviele bits sinds zum mond gefahren? *g*
und reichen 16 stellen nach dem 3er vom pi wirklich für die berechnung des universums aus?
ich frag mich wirklich, sorry als laie, was das bringen soll...
Hi!
mit wieviele bits sinds zum mond gefahren?
AGC
"The AGC had a 16-bit word length, with 15 data bits and one parity bit."
Also heute nicht mehr ganz auf der Höhe der Zeit, aber für Mitte der 60er schön ganz schön weit vorne...
Da die anderen Eckdaten bestimmt auch gewünscht werden: 2kByte RAM und 36kByte ROM war die Ausstattung (32kByte echtes ROM und 4kByte löschbaren Speicher).
Wenn ich den Abschnitt "Timing" richtig verstehe/interpretiere, war die Taktfrequent 1MHz. Das läge in der Gegend, die ein VC20 und ein Commodore 64 etwa 15-20 Jahre später nutzen.
Interessant ist, dass der AGC bereits einen echten Stromsparmodus besessen hat (der über einen Schalter aktiviert wurde; er wurde aber angeblich nicht verwendet).
Bis dann
Andreas