hallo, ich möchte mir einen 19" tft holen, daten und so weiter weis ich so einiges, nur die werden irgendwie alle angegeben mit 24 bit farbtiefe, die röhren haben doch 32 bit, ich kenne das nur von den früheren grafikkarten matrox usw. das die nur 24 bit truecolor farben wieder geben konnten, die frage ist, 24 bit ist ja truecolor, 32 bit ist aber auch truecolor, und bei den früheren spielen, die in 24 bit liefen da fehlte mir einfach die farbstärke, weis nicht wie ich es sonst erklären soll, ist das jetzt bei den tft monitoren auch so, das dann die feinheit zwar besser ist wie bei röhren, aber die farbstärke nicht so ist, sollte man da noch warten bis es 32 bit tft monitore gibt, oder gibts die schon 19" bis ca. 250.-euro, danke schon mal für eure antorten, und vielleicht kann mir auch jemand marken von 19" zöllern nennen mit 32 bit.
gruß thorsten
Archiv Monitore und Displays 1.459 Themen, 9.652 Beiträge
Das Problem ist, dass der Elektronenstrahl eines CRT quasi jede beliebige Kombination aus RGB erzeugen kann. Lediglich die Qualität der Ansteuerung (durch die Grafikkarte) ist ausschlaggebend. Beim TFT wird jeder Pixel der Aktivmatrix einzeln angesteuert. Das Limit scheinen auch bei hochwertigen TFT 16,7 Mio Farben zu sein.
Allerdings denke ich, das der Unterschied zwischen 24bit und 32bit möglicherweise technisch messbar ist, aber keineswegs mit einem normalen Auge sichtbar.
hallo, danke für deine antwort, also das heist das es kein tft mit 32 bit farbtiefe gibt? und auch in zukunft nicht? sorry aber bin technisch nicht ganz so bewannt.
gruß thorsten
Nein, damit würde ich nicht rechnen. Zum Ursprung der 32Bit-Farbtiefe hat mr.escape ja schon alles wichtige geschrieben...
Teure LCD-Monitore (für Graphikanwendungen) haben inzwischen oft Panels mit 30Bit, davon bekommst Du als Anwender aber erstmal nichts mit - die DVI-Schnittstelle sieht nämlich nicht mehr als 8Bit/Farbkanal (Rot, Grün, Blau) vor. Wenn man im Monitor dann z.B. die Helligkeitsverlauf ändert profitiert man allerdings von den zusätzlich anzeigbaren Farben (bei einem 8Bit Panel wäre man auf einen Linearen Helligkeitsverlauf beschränkt, sofern die Farben eindeutig dargestellt werden sollen). Sehen wirst Du davon aber vermutlich nur wenig ;-)
Gruß
Borlander
24bit farbtiefe bedeutet, dass jede grundfarbe (rot, grün und blau) jeweils 8bit bekommt und damit eben 256 abstufungen erreichen kann.
32bit farbtiefe bedeutet, dass jede grundfarbe (rot, grün und blau) jeweils 8bit bekommt und damit eben 256 abstufungen erreichen kann. Die verbleibenden 8bit sind verloren oder werden für eine andere information verwendet (transparenz, etc.).
Der grund, um nicht 24bit zu verwenden sondern 32bit, selbst wenn die restlichen 8bit nicht benötigt werden, ist die leichtere rechnerei für den grafikchip/-treiber, da die speicheradresse eines bildpunktes eine multiplikation mit vier (32bit=4*8bit) erfordert und das ist wesentlich einfacher als eine multiplikation mit drei. Zusätzlich ist das verschieben von bildteilen (z.b. fensterinhalt) einfacher, wenn nicht drei, sondern vier als faktor eine rolle spielt, da die bildspeicher nicht für zugriffe auf ungerade adressen ausgelegt sind und kein pixel mehr als einen speicherzugriff erfordert (überlappung).
Kurz gesagt ist die geringe verschwendung von 1/4 des speicherplatzes mit einem großen vorteil in der handhabung verbunden. Intern wird u.u. mit einer noch viel höheren auflösung gearbeitet, aber das spielt für die ausgabe keine rolle.
Die anzeige selbst braucht aber immer nur RGB und dort wird i.a. mit 3*8bit gearbeitet (digital übertragen), bzw. in analoge spannungen verwandelt (u.u. für eine bessere gammakorrektur mit z.b. 3*10bit) und direkt weiterverarbeitet (CRT) oder wieder in 24bit digitalisiert (LCD). Damit ist eine 24bit anzeige das, was man haben sollte. Früher gab es LCDs, die nur 3*6bit verarbeitet haben, diese zeiten sind aber praktisch vorbei.
mr.escape
noch eine kurze frage, vielleicht doof, aber die heutigen grafikkarten "zumindestens meine geforce 6800" haben doch nur einstellungen 16bit und 32bit, heist das ich kann nur auf 16bit stellen? oder geht auch 32bit? und wenn die 32bit einstellung funktioniert stimmt dann noch das verhältnis zwichen grafikkarte und tft monitor?
gruß thorsten
Keine Sorge, das funktioniert. Bei meinem 19" TFT z.B. wird als Farbtiefe 24Bit oder MEHR empfohlen. Eingestellt hab ich 32 Bit (weil es bei mir auch nur die Wahl zwischen 16 und 32 Bit gibt). Das ist kein Problem.
Genau so ist es. Bei 32bit wird eben ein byte pro pixel "verschwendet" und bei der ausgabe zum bildschirm (egal ob digital per DVI oder analog) ignoriert.
Bei 16bit werden in der regel je 5bit für rot und blau verwendet und (wegen der höheren empfindlichkeit des menschlichen auges) die restlichen 6bit für grün. Bei der ausgabe werden die fehlenden bits einfach durch kopien der obersten drei (rot/blau) bzw. der obersten zwei (grün) bits ergänzt um wieder auf 3x8bit zu kommen.
mr.escape