Hallo zusammen!
Zehn Bit pro Farbkanal = jeweils 1024 Rot-, Grün- und Blautöne = über eine Milliarde Farben insgesamt - das ist für Röhrenmonitore nichts besonderes, für LCDs hingegen schon:
http://www.tecchannel.de/news/20030927/thema20030927-11976.html
Ehrlich gesagt: Ich verspreche mir davon gar nichts. Wenn ich an meinem SONY-Röhrenmonitor zwischen 16 und 24 bzw. 16 und 32 Bit Farbauflösung wechsele, sehe ich einen deutlichen Qualitätssprung, z.B. bei Farbverläufen auf den Titelleisten von Dialogfenstern. Stelle ich dagegen einen Vergleich zwischen 24 und 32 Bit an, so bemerke ich keine Verbesserungen mehr, auch bei Fotos nicht.
Wie beurteilt Ihr das - liegt das an meinen Augen, oder reichen 24 Bit ("High Colour") tatsächlich aus? Technischer Fortschritt gut und schön - aber irgendwann ist eben der Punkt erreicht, wo der Mensch nicht mehr mitspielt.
CU
Olaf
Grafikkarten und Monitore 26.150 Themen, 115.656 Beiträge
24 bit soll die höchste Farbtiefe sein, die der Mensch noch unterscheiden kann. Wichtig ist eigentlich nur, dass mindestens 24 bit an den Monitor ankommen und nicht durch interne Berechnungen in der Grafikkarte verfälscht werden.
Trotzdem bin ich mal gespannt, ob die neue Technik doch noch sichtbare Vorteile bringt. Völlig umsonst wird NEC das nicht entwickeln.
John Carmack (id Software) hat sich auch schon für 64 Bit Farbtiefe ausgesprochen und sogar schon an software-technischen Lösungen für Röhrenbildschirme programmiert - bisher ohne Erfolg.