Hallo zusammen!
Zehn Bit pro Farbkanal = jeweils 1024 Rot-, Grün- und Blautöne = über eine Milliarde Farben insgesamt - das ist für Röhrenmonitore nichts besonderes, für LCDs hingegen schon:
http://www.tecchannel.de/news/20030927/thema20030927-11976.html
Ehrlich gesagt: Ich verspreche mir davon gar nichts. Wenn ich an meinem SONY-Röhrenmonitor zwischen 16 und 24 bzw. 16 und 32 Bit Farbauflösung wechsele, sehe ich einen deutlichen Qualitätssprung, z.B. bei Farbverläufen auf den Titelleisten von Dialogfenstern. Stelle ich dagegen einen Vergleich zwischen 24 und 32 Bit an, so bemerke ich keine Verbesserungen mehr, auch bei Fotos nicht.
Wie beurteilt Ihr das - liegt das an meinen Augen, oder reichen 24 Bit ("High Colour") tatsächlich aus? Technischer Fortschritt gut und schön - aber irgendwann ist eben der Punkt erreicht, wo der Mensch nicht mehr mitspielt.
CU
Olaf
Grafikkarten und Monitore 26.155 Themen, 115.717 Beiträge
Also liege ich da falsch oder sind bei 24-Bit sowie 32-Bit 16,7 Mio. Farben darstellbar?
Also ich erkenne ab 16,7 Mio keine Unterschiede mehr.
24 bit soll die höchste Farbtiefe sein, die der Mensch noch unterscheiden kann. Wichtig ist eigentlich nur, dass mindestens 24 bit an den Monitor ankommen und nicht durch interne Berechnungen in der Grafikkarte verfälscht werden.
Trotzdem bin ich mal gespannt, ob die neue Technik doch noch sichtbare Vorteile bringt. Völlig umsonst wird NEC das nicht entwickeln.
John Carmack (id Software) hat sich auch schon für 64 Bit Farbtiefe ausgesprochen und sogar schon an software-technischen Lösungen für Röhrenbildschirme programmiert - bisher ohne Erfolg.
Da bin ich beruhigt - ich dachte schon, meine Rot-Grün-Schwäche habe mir einen Strich durch die Rechnung gemacht :-) Wenn aber schon 24 Bit die Grenze sein soll, wozu in aller Welt braucht der Mensch dann noch 64 Bit?
Außerdem empfinde ich Bitraten, die nicht durch drei teilbar sind, als nicht sehr sinnig; wenn schon, dann 48 Bit oder meinetwegen 63, wenn's denn so viele sein müssen. Dann hätte wenigstens jeder Farbkanal seine feste Anzahl Bits, so aber - mit 32 oder 64 Bits - gibt's Chaos.
Beispiel 8-Bit-Farbauflösung (die sog. "web-sicheren" Farben): 2 hoch 8 gibt 256, daraus die dritte Wurzel macht 6,35 - also nur jeweils 6 Stufen für Rot, Grün und Blau (HEX 00, 33, 66, 99, CC, FF). Damit erreicht man 6 hoch 3 = 216 Farben, dazu kommen noch die 40 sog. "Systemfarben". Keine sehr glückliche Aufteilung - nur ein einziges Bit mehr, und man käme auf 8 Stufen pro Grundfarbe!
@Helicobacter
24 Bit = 16,777 Mio. Farben
32 Bit = fast 4,3 Mrd. Farben
Und die vom Tiger in Aussicht gestellten 64 Bit wären dann 4,3 Mrd. ins Quadart *schauder*...!
CU
Olaf
Die Aufteilung in 32 Bit oder 64 Bit hat ihren Sinn, deine auf den ersten Blick logischen Befürchtungen sind unberechtigt. Denn man geht von 4 Farbkanälen aus, Rot, Grün, Blau und ein Alpha-Kanal für Transparenzeffekte. D.h. bei 64 Bit Farbtiefe würde jedem Farbkanal 16 Bit an Abstufungen zur Verfügung stehen. Wenn man bedenkt, dass auch 16 Bit schon ein ordentliches Bild liefern kann (in 3D hat 3dfx hier Pionierarbeit geleistet), dann fragt man sich tatsächlich nach dem Sinn einer solchen Farbtiefe.
Andererseits rechnen Grafikkarten intern bereits mit bis zu 128 Bit Genauigkeit, wobei das Endergebnis durch Rundungsfehler in der Praxis aber viel schlechter ausfallen kann.
Beispiel: Die Genauigkeit beträgt 2 Stellen nach dem Komma.
Rechnung 1: 2,11 / 2,97 = 0,7104... = 0,71
Rechnung 2: 2,11 / 2,98 = 0,7080... = 0,71
Obwohl die Eingangszahlen unterschiedlich sind, bleibt das Endergebnis gleich.
Im Endeffekt ist es also viel wichtiger, die interne Farbtiefe bzw. Rechengenauigkeit zu erhöhen!
Dass 64 Bit Farbtiefe auch nach außen hin etwas bringen soll, muss erst mal unter Beweis gestellt werden.
Zur Anzahl der unterscheidbaren Farben hab ich noch was im Netz gefunden: http://www.keilany.de/doc/farblhre.html
Dort werden 350.000 Farben angegeben, was zwischen 18 und 19 bit bedeutet.
Jetzt erzähl mal keien Mist, denn den Alphakanal brauchst du nicht zur Farbdarstellung. Die 32 Bit sind einzig und allein wegen des Alignments gut. Ein 32 Bit-Prozessor kann halt besser mit 32-Bit-Bröckchen als mit 24 Bit umgehen, und die 33% Mehr an Speicher sind den Performance-Gewinn mehr als wert.
Was regst du dich so auf? Ich hab nur erklärt, warum man 32 bit verwendet bzw. 64 bit! Also genau das gleiche wie du, nur etwas freundlicher.
Was ist eigentlich der Alphakanal?
(ein nebst den additiven RGB-Farben bestehender Kanal für Helligkeit????)
Die Grafikkarten von Matrox gibt es schon dafür. Da meine "Alte" explodiert ist (!), habe ich mir schon so ein Teil angeschafft. Nur, mein TFT spielt leider nicht mit. Na gut, geht auch so :)
luttyy
...wann endlich wirst Du uns mit Nichtstun beglücken??
Dein Deutsch lässt immer noch zu Wünschen übrig!
luttyy
Wieder schaffst Du es nicht, einen Satz Fehlerfrei zu schreiben. Und Du willst bei Axel gearbeitet haben?
o.T.
Was hast Du gegen diesen Account? Welchen Grund könnte es geben, diesen zu sperren?
...was hast Du gegen Luttyys Beiträge in diesem Thread?
Wenn es in der Sache etwas daran auszusetzen gibt, kannst Du ja mit einer fachlichen Korrektur darauf antworten. Dieses primitive Geflame unter einem Zweit-Account - und streite das jetzt nicht auch noch ab! - ist einfach nur unterirdisch, und feige ist es obendrein.
Wie alle regelmäßigen Nickles-User wissen, bin auch ich schon ein paar mal mit Luttyy aneinandergeraten. Eins muss ich ihm aber lassen: Er kämpft mit offenem Visier - hat die eine oder andere Attacke gegen mich geritten, aber dafür nie einen Zweitaccount benutzt.
CU
Olaf
Hi Olaf, erst mal Danke für die "Offenheit" und das wir uns mit offenem Visier manchmal "fachlich" ins Auge blicken, gehört dazu und ist natürlich niemals privat, auch nur im entferntesten, gemeint!
Dieser Typ ist einfach "Abschaum", ein Crètin hat meine Französin treffend gesagt! Dass soll aber nicht unsere "Gemeinsamkeiten" schmälern.
Langsam gefallen mir deine Beitäge :) Darf ich doch sagen, oder? ;)
luttyy
Na so weit kommt's noch, dass man keine Zustimmung mehr äußern darf ;-)
Übrigens ist der Vorwurf "Prahlhans" aus rein fachlicher Sicht nicht haltbar: Die Produktpalette der Firma Matrox ist ein schönes Beispiel für der Satz "Gutes muss nicht teuer sein". Deine G-650 kostet gerade mal um die 170 €; für so manchen ATI- oder NVidia-Boliden zahlt man locker das Doppelte bis Dreifache!
Alles, was ich jetzt sage, bezieht sich auf das Vorgängermodell, auf *meine* G-550 - ich gehe aber davon aus, dass das neue Produkt mit doppelt so viel RAM (64 MB gegenüber bislang 32) nicht schlechter ist.
Vor einiger Zeit hatte 'rill' hier einen Link zu einem Vergleichstest gepostet, aus dem hervorgeht, dass die G-550 die mit Abstand beste Bildqualität aufweist. Für eine Karte, die gerade mal rund 100 € kostet eine ganz beachtliche Leistung.
Diesen Spagat aus Qualität und günstigem Preis erkauft man sich zwar mit einer gewissen Trägheit; die G-550 ist nicht gerade berühmt für flotte 3D-Darstellungen. Das stört mich aber nicht weiter - bin kein Gamer. Im Gegenteil, ich sehe das sogar als Vorteil, denn dadurch kommt diese Karte mit passiver Kühlung aus - gut für die Ohren.
Letzteres ist der Grund dafür, dass ich die G-550 immer dann besonders gern empfehle, wenn jemand nach einer Hardware-Konfiguration für einen "Musik-Rechner" fragt. Für Musiker bietet die Karte noch einen weiteren Clou: Die Dual-Head-Funktion.
Wenn man mit Programmen wie z.B. Logic Audio arbeitet, ist es äußerst angenehm, wenn man die zahlreichen Programmfenster - Arrangement, virtuelles Mischpult, div. Editoren (Matrix-/Event-/Hyperdraw-, evtl. noch einer für Notenschrift) - auf zwei Monitore verteilen kann. Bei den derzeitigen Hardwarepreisen eine sinnvolle Anschaffung!
So, nun haben wir den Bogen zum Brettmotto "Grafik, 3D, Video" wieder hergestellt :-)
CU
Olaf