Archiv Prozessoren 8.660 Themen, 54.742 Beiträge

SirHenrythe3rd Olaf19 „AMD-Triple-Core für 2008 geplant...“
Optionen

Ich weiß ich bewege mich immer im Kreuzfeuer wenn ich über
MultiCores in PCs lamentiere, aber ich kann mal wieder meinen
Mund nicht halten.

Was soll das ? Wer braucht denn jetzt gerade *drei* Kerne ?
Sind das wirklich kaputte Quads, bei denen der defekte Core
abgeschaltet wird, oder warum bringt man sowas auf den Markt ?
Wie gehabt möchte ich betonen das ich nicht gegen technischen
Fortschritt bin, aber bis jetzt sehe ich keinen wirklichen Vorteil
für den Endverbraucher, abgesehen von der theoretischen
Mehrleistung, die man sich in Tabellen oder Benchmarks vors
Auge führen kann.

Ohne Frage mag es die ein oder andere Applikation geben,
die von der Multi-Core-Technik einen Nutzen ziehen, aber
kumuliert auf die Gesamtheit der Software ist das jawohl
verschwindend gering.
Zudem ist es ja nun bei weitem nicht so, dass die Unterschiede
*soooo* gravierend sind, dass ein Programm / Spiel auf einmal
hyperdimensional anders wirkt oder in Lichtgeschwindigkeit
daherrauscht.
Also ich bin auf jeden Fall noch nie vor einem AMDX2 oder einem
Core2Duo vor Euphorie zusammengebrochen - auf dem Bildschirm
sah das alles genauso aus wie bei mir.
Da war der Wechsel von den 6502-CPUs auf die Motorola68000er-
Generation Ende der 80er aber wesentlich imposanter !

Mir ist zwar bewußt, dass ich bei einem hypotethischem Kauf
eines neuen Computers nicht mehr um Multi-Coring herumkomme,
da ja nichts anderes mehr angeboten wird.
Aber dann auf keinen Fall aus Überzeugung sondern notgedrungen.
Prinzipiell mag das ja eine sinnvolle Geschichte sein, denn bei
den Next-Gen-Spielkonsolen funktioniert das ganze Verteilen
der Threads auf diverse Cores ja schon ganz gut - aber nennt
mir mal nur *eine* Applikation für den PC, für die auch nur ein
Dual-Core-Chip absolute Bürgerpflicht ist. Fällt mir absolut nichts
ein. Und bevor es jetzt wieder losgeht mit Videobearbeitung
etc. - das sind a) Spartenprogramme die nicht jeder nutzt und b)
laufen sie auch auf SCs, halt nur etwas langsamer.

Quintesenz : DUAL-Core wird rudimentär unterstützt, auf Quad
läuft noch gar nichts explitzit zugeschnitten...wer braucht da 3-Kern-
Prozessoren ?








REPI SirHenrythe3rd „Monokultur im SW-Bereich“
Optionen

Du solltest mal hier lesen : http://www.computeruniverse.net/tips/prozessoren.asp

Des Weiteren kann ich zwar Deine Argumente bezüglich vorhandener Software, ausgelegt für Mehrkernbetrieb verstehen, aber warum zu etwas greifen, wenn ich für fast gleiches Geld mehr bekommen. Will sagen, würde mir heute niemals mehr einen Einkernprozessor kaufen, da die preislichen Unterschiede dafür zu gering sind. Die Zukunft wird sehr wohl vermehrt Software bieten, die die Multicorefunktionalität unterstützen.
Wo viel verarbeitet werden kann, kann halt auch wenig verarbeitet werden.
Die Energieeffizienz sollte auch beim privaten Home-PC zukünftig von Interesse sein, und da sind dir Multicore's nun mal besser, wenn man von einigen Mobile-CPU's absieht.

Richtig ist jedoch, dass man immer betrachten sollte, welche Aufgaben ich mit dem Rechner bewältigen will.
Aus meinem beruflichen Leben kann ich jedoch sagen, dass wir dort immer eine bessere Generation Prozessor gebrauchen könnten, als die, die gerade als Schnellste am Markt sind.
Denn auch dort wird vorallem im Datenbankbereich "schlampig" oder aus Unkenntnis schlecht programmiert, gepaart mit immer größer werdenden Datenbeständen, mit dem Hinweis, die Hardware wird es schon richten.

SirHenrythe3rd REPI „Monokultur im SW-Bereich, naja nicht überall !“
Optionen
"Des Weiteren kann ich zwar Deine Argumente bezüglich vorhandener Software, ausgelegt für Mehrkernbetrieb verstehen, aber warum zu etwas greifen, wenn ich für fast gleiches Geld mehr bekommen. Will sagen, würde mir heute niemals mehr einen Einkernprozessor kaufen, da die preislichen Unterschiede dafür zu gering sind."

Stimme ich vorbehaltlos zu. Um den Kauf einer Multi-Core-CPU kommt man ja streng genommen
auch nicht mehr herum, aber wie ich oben schon anführte würde ich das dann nicht aus
Überzeugung tun, sondern einfach aufgrund der Tatsache, dass es nichts anderes mehr gibt.
In Wirklichkeit muß man sich wohl über die scheinbar mangelnde Kommunikation
zwischen Hardwareproduzent und Softwaredeveloper aufregen.

Es sieht für mich einfach so aus, als ob die Hardwarehersteller stumpf immer weiter
und immer schneller irgendwelche Konzepte marktfähig prügeln und dem Kunden
dann als ´revolutionäre Neuentwicklung´ verkaufen wollen/müssen/wieauchimmer.
Und die SW-Industrie schert sich einen Dreck darum, was ich auch verstehen kann,
denn mir wäre es auch zuviel jedes neue Gimmick von jedem x-beliebigen
Hardwareproduzenten einbauen zu müssen.
Zusammengefaßt muß man sich einfach mal vor Augen halten, was man auch schon
aus einem PIII-System an Performance herauskitzeln könnte, wenn die Hardware
wirklich optimal bis an ihre Grenzen ausgenutzt werden würde; inkl. all seiner
Gimmicks.
Aber bis heute wird doch als Hauptkriterium bei der Konzeptionierung von Software
primär an zwei Dinge gedacht : Kosten und Marktfähigkeit.
Und da haben wir es doch schon : speziell auf MultiCore zu entwicklen kostet
ein Heidengeld und läßt sich dann auch nur an eine elitäre Zielgruppe verkaufen,
denn es besitzen ja nicht alle PC-User eine Multi-Core-CPU.
Kann ich von daher gut verstehen, dass z.B. so ziemlich alle Developer
von Game-Sofware mit Ausnahme von Crytek sich sehr, sehr geschlossen
halten bezüglich reiner PC-Multi-Core-Entwicklungen.

"Die Zukunft wird sehr wohl vermehrt Software bieten, die die Multicorefunktionalität unterstützen."

Auch hier : vollkommen richtig - sehe ich auch so. Aber doch jetzt noch nicht !
Und bis es soweit ist, dass die Multicorefunktionalität nun wirklich alle
Genres ergriffen hat, die für einen Home-Anwender interessant sein könnten -
bis dahin haben wir wohl schon Deca-Cores oder noch höher.
Von daher befinden wir uns wohl in einer Art Zwischenstufe.

Vielen Dank für den Link - fand ich sehr interessant !
THX&best regards, SirHenry
ChrE REPI „Monokultur im SW-Bereich, naja nicht überall !“
Optionen

Hallo!

So ein Käse: "die Energieffizienz ist bei Multicores besser".
Fast doppelt so viele Transistoren gammeln vor sich hin. Na prima. Dolle Energie gespart.
Und wenn mal was rechnet, zeigt der Taskmanager 50 % CPU-Usage. Super.
Du hast keine Ahnung vom Thema (Da schlage ich Dich glatt mit Erfahrung ;-) ).

Heute kann eine Singlecore CPU so ziemlich alle Aufgabe auf einem PC bewältigen.
Was geht denn nicht? Nenne mir Beispiele. Ausser Spiele und Server.

Gruss

ChrE


REPI ChrE „Hallo! So ein Käse: die Energieffizienz ist bei Multicores besser . Fast...“
Optionen
So ein Käse: "die Energieffizienz ist bei Multicores besser".

Also Käse sehe ich da nicht ! Multicors sind nun mal im Energieverbrauch besser als Einkerner. Nicht weil sie zwei Kerne haben, sondern weil sie in der Entwicklung ganz einfach neuer sind und eben Funktionalitäten besitzen, die die "veralteten" Singlecore Prozessoren eben noch nicht hatten. 65 Watt und 45 Watt sind schon fast der Standard bei C2D und X2 der neusten Generation. Gehe mal in ein Rechezentrum und schau mal, wieviel Strom die Server ziehen und wieviel ebenso in die Kühlungen fließen, um die Temperaturen im Raum zu halten.

Heute kann eine Singlecore CPU so ziemlich alle Aufgabe auf einem PC bewältigen.
Was geht denn nicht? Nenne mir Beispiele. Ausser Spiele und Server.

Na z.B. keine hardwarenahe Virtualisierung (Pacifica von AMD, Vanderpool von Intel) mittels XEN , welche ich demnächst auf meinem privaten Heimrechner einsetzen will, um mehrere BS gleichzeitig (auch Windows) auf virtuelle Maschinen betreiben zu können.

Du hast keine Ahnung vom Thema (Da schlage ich Dich glatt mit Erfahrung ;-) ).
Danke auch für die charmante Art mir mitzuteilen, dass Du es besser weisst. Bitte auch mit Quellen untermauern !
ChrE REPI „ Also Käse sehe ich da nicht ! Multicors sind nun mal im Energieverbrauch...“
Optionen

Hallo!

Warum sind die Zweikernier effizienter? Weil sie zwei Kerne haben? Die selbe Architektur lässt sich doch
auch mit einem Kern realisieren. Und braucht weniger Strom.

Gegen Server wollte ich doch gar nichts sagen... Wie ist eigentlich das Zahlenverhältnis Server zu Desktop PCs?

Tja, schade das Du niemals sehen wirst, wie schön mehrere virtuelle Maschinen (VMWare)
auf einem Athlon 4000 single core laufen, das schafft der nämlich lässig.
Jedenfalls bei mir.

Meine Erfahrung resultiert aus 26 Jahren Beschäftigung mit Geräten der elektronischen
Datenverarbeitung. Gilt das auch? Daher weiss ich, das 250 Mio. Transistoren weniger Strom brauchen als
500 Mio.


Gruss

ChrE

REPI ChrE „Hallo! Warum sind die Zweikernier effizienter? Weil sie zwei Kerne haben? Die...“
Optionen

Tja, schade das Du niemals sehen wirst, wie schön mehrere virtuelle Maschinen (VMWare)
auf einem Athlon 4000 single core laufen, das schafft der nämlich lässig.
Jedenfalls bei mir.


Du wirst es nicht glauben, auf meinem jetzigen AMD Duron 1300@1400 mit nur 512 MB RAM läuft Windows XP und einige Linux Distris sowie DOS als Gast unter einem SuSE 9.2 Linux als Host auf Basis VMWare Server. Auf Grund des geringen RAM ist es aber nur sinnvoll, einen Gast laufen zu lassen. Mir geht es aber nicht um eine Hardware-Emu wie VMWare Server, sondern um echte virtuelle Maschinen, die direkten Zugriff auf die Hardware haben. Sicher ginge das auch mit einer Einkern CPU, aber diese besitzen eben nicht die dafür notwendige Prozessorfunktionalität.

Bitte lies hier , speziell auch den Abschnitt "Sinn und Zweck" : http://de.wikipedia.org/wiki/Mehrkernprozessor
ChrE REPI „ Du wirst es nicht glauben, auf meinem jetzigen AMD Duron 1300@1400 mit nur 512...“
Optionen

Hallo!

Ja, was haben denn Mehrkernprozessoren jetzt mit Vanderpool oder Pacifica zu schaffen?
Mehrere Kerne sind da doch keine zwingende Notwenigkeit.
Eine Singecore CPU könnte auch virtualisieren.

Gruss

ChrE

REPI ChrE „Hallo! Ja, was haben denn Mehrkernprozessoren jetzt mit Vanderpool oder Pacifica...“
Optionen

Das zeigt mir aber jetzt, dass Du ein paar Wissenslücken hast.

Vanderpool bzw. Pacifica sind Prozessorfunktionalitäten, welche nur und ausschließlich in C2D und X2 (Opterons und Xeon natürlich auch und einige Einkernexoten) besitzen und eine Virtualisierung auf Hardwarebasis z.B: via XEN ermöglichen. Also keine Softwareemulierte Lösung a la VMWare.

siehe auch hier :

http://de.wikipedia.org/wiki/Xen
http://de.wikipedia.org/wiki/Vanderpool
http://de.wikipedia.org/wiki/Pacifica_%28Computer%29

Neo9998 SirHenrythe3rd „Monokultur im SW-Bereich“
Optionen

Warum sollten programme auch für 2 Kerne entwickelt werden wenn es sie noch nicht gibt? Erst wenn diese sich auf dem markt etabliert haben lohnt es sich für den Hersteller. Dasd gleiche gilt auch für die zukunft, erst Hardware dann Software, andersrum wär auch irgednwie blöd, oder? ;)

SirHenrythe3rd Neo9998 „Warum sollten programme auch für 2 Kerne entwickelt werden wenn es sie noch...“
Optionen

Oder. Wenn ich mir alleine vors Gemüt führe, wie lange ich
schon auf einen vollen Support für die 64-Bit der CPU warte...*pfff*
Da trifft aber das Mooresche Gesetz auf einen langen Atem....
kann doch nicht sein, dass ich über fünf Jahre bis zur ´Etablierung´
warten muß - und auf der Gegenseite die CPU-Manufakturen ihre
Neuentwicklungen im 5-Minuten-Takt rausschmeissen.
Da paßt doch irgendwas nicht, da muß man doch kein Diplom-
Mathematiker für sein.






ChrE SirHenrythe3rd „Monokultur im SW-Bereich“
Optionen

Hallo!

Hallo Bruder im Geiste!
Das Gleiche schreibe ich hier schon seit ziemlich langer Zeit.
Ob nun ein oder zwei CPUs vor sich hin dösen, wie 99% aller PCs, ist wirklich ziemlich egal.
Bei Servern ist das natürlich ganz anders. Auch bei Gamern sehe ich das noch ein.
Aber sonst? Pure Energieverschwendung. Sinnlos vergeudete Die-Fläche.
Und die Konsumenten werden so verblödet: "Dual-core - do more", so ein Schwachsinn.

Viele Anwendungen lassen sich auf einer universellen Plattform wie dem PC nur schlecht
parallelisieren. Ich gehe auch jede Wette ein, Windows benutzt für die Betriebsystem-Grundfuktionen
NICHT die Möglichkeiten der Dual-Core CPUs. Ist zu Fehleranfällig.

Und das Moorsche Gesetz ist mit den Aufkommen der ersten Dual-Core CPUs nicht mehr
gültig. Alles Betrug. Bei 3 GHz ist erst mal Schluss. Erst mit 45 nm gehts wieder weiter.


Gruss

ChrE

Borlander ChrE „100 % ACK“
Optionen
Viele Anwendungen lassen sich auf einer universellen Plattform wie dem PC nur schlecht
parallelisieren.

Wie kommst Du zu dieser Aussage?
Wie gut oder schlecht eine Anwendung parallelisierbar ist liegt einzig und allein an deren zugrunde liegenden Problemen. Mache Probleme lassen sich sehr gut parallelisieren, anderer nur schlecht...

Ich gehe auch jede Wette ein, Windows benutzt für die Betriebsystem-Grundfuktionen
NICHT die Möglichkeiten der Dual-Core CPUs. Ist zu Fehleranfällig.

Man sollte nur auf Wetten eingehen die man sicher gewinnt. Das Benutzen mehrere CPUs ist in keiner Weise irgendwie besonders fehleranfällig. Es muß lediglich sichergestellt werden, daß nicht mehrere Prozesse gleichzeitig an den selben Daten herummanipulieren.


Gruß
Borlander
ChrE Borlander „ Wie kommst Du zu dieser Aussage? Wie gut oder schlecht eine Anwendung...“
Optionen

Hallo!

Wie kommst Du zu dieser Aussage?
Naja, Vektorregister hat eine PC CPU nun mal nicht. Oder einen Hypercube oder Crossbar oder eben 500 CPUs.
Ohne sowas parallelisiert es sich eben schlecht. Egal welches parallelisierbares Problem vorliegt.
Ein Problem kann mit zwei CPUs 50 % der Zeit benötigen, aber nicht 0,1 %.

Das Benutzen mehrere CPUs ist in keiner Weise irgendwie besonders fehleranfällig.
Es muß lediglich sichergestellt werden, daß nicht mehrere Prozesse gleichzeitig an den selben Daten herummanipulieren.


Ha, ha, ha. Na das ist ja noch nie ein Problem gewesen. bzw. Das ist gerade das Problem.
Man kann eben nicht in beliebiger Reihenfolge an den Daten rumspielen. Und darum liegt die zweite
CPU meist brach. Schau mal in Deinen Taskmanager. Wann ist die CPU-Last > 50 % ?

Gruss

ChrE

Borlander ChrE „Hallo! Naja, Vektorregister hat eine PC CPU nun mal nicht. Oder einen Hypercube...“
Optionen
Man kann eben nicht in beliebiger Reihenfolge an den Daten rumspielen.
Das kommt ganz aufs Problem an. Wenn man z.B. eine Million Zahlen mit irgendwas multiplizieren möchte/muß ist egal in welcher Reihenfolge man das macht. Bei Parallelprogrammierung muß man sich häufig deutlich mehr Hirnschmalz in die Entwicklung der Algorithmen investieren, wenn man wirklich von der Architektur profitieren möchte. Dann kann man aber in vielen Fällen bei denen es nicht so ganz offensichtlich ist einen enormen SpeedUp erzielen :-)

Und darum liegt die zweite CPU meist brach. Schau mal in Deinen Taskmanager. Wann ist die CPU-Last > 50 % ?
Im Taskmanager sehe ich das beide CPUs sich brüderlich die anfallende Arbeit teilen. Im laufdenden System sind genügend Prozesse vorhanden um mehrere CPUs zu versorgen. Die Reaktionsfähigkeit des Systems steigert sich dadurch deutlich - einzelne Anwendungen (ohne SMP-Support) können das System nicht mehr durch vollauslastung zur unbedienbarkeit bringen.

Naja, Vektorregister hat eine PC CPU nun mal nicht.
Mit SSE/SIMD zogen teilweise ähnliche funktionen auch in Desktop-PCs ein...

Parallelisierung macht sich nicht an der Anzahl der CPUs fest. Der Speedup steigt sowieso nie ganz linear mit der CPU-Anzahl. Wie ein Hypercube zur vernetzung von 2 CPUs/Kernen ausschaut kannst weißt Du ja sicherlich...

Ohne sowas parallelisiert es sich eben schlecht. Egal welches parallelisierbares Problem vorliegt.
Zur Parallelisierung braucht es vor allem Programmierer die was im Kopf haben, sonst zahlst Du nur sinnlos Geld für viele CPUs

Ein Problem kann mit zwei CPUs 50 % der Zeit benötigen, aber nicht 0,1 %.
Mehr hat doch auch nie jemand versprochen. Für einen inzwischen nicht mehr vorhandenen Aufpreis ist es definitiv gut bis zu 100% mehr Leistung zu bekommen. Außerdem profitiert man auch ohne speziell angepasste Anwendungen schon von der besseren Reaktionszeit des Systems und den selteneren Systemblockierungen.


Gruß
Borlander