Hallo zusammen.
Wieder einmal hat mich das Thema Farben gepackt. Folgendes: Wenn man in HTML eine Farbe, etwa für den Hintergrund definiert, gibt man sie in der Form "FFCC33" an, wobei die ersten beiden Stellen den Rot-Anteil definieren, die mittleren beiden das Grün und die letzten das Blau. Da jeder Farbkanal einen Wert von 00 bis FF = 0 - 255 annehmen kann, stehen demnach 8 bit pro Farbe zur Verfügung - also geht HTML von einer 24-Bit-Farbauflösung aus. Kaum jemand benutzt aber diese Auflösung - die sitzt genau zwischen den Stühlen. Üblich sind entweder 16 oder 32 bit. Die auf 24-Bit-Basis definierte Farbe muß also umgerechnet werden. Wie aber läuft das ab? Bei 16 Bit z.B. hätte ich "knapp fünfeinhalb Bit" pro Farbe zur Verfügung, bei 32 Bit wären es nicht ganz elf - beides nicht der wahre Jakob... weiß jemand etwas darüber?
Danke im voraus für Eure Antworten.
CU
Olaf19
Homepage selbermachen 7.851 Themen, 35.616 Beiträge
Leute lasst euch nicht aufs Glatteis führen!!!
KEINE Gafikkarte stellt wirklich 2hoch32=4.294.967.296 Farben dar!
Das Maximum liegt bei 2hoch30=1.073.741.824 Farben(10bpp).
2Bit bleiben ungenutzt.
Meist aber nur 2hoch24=16.777.216 Farben(8bpp).
Dabei bleibt einfach ein ganzes Byte des Grafikspeichers ungenutzt!
Das heisst pro Farbkanal 8Bit=1Byte.
Für ein Pixel sind das 3*8Bit = 24Bit verpackt in 32Bit=4Byte=2Word=1DWord.
Das hat einfach den Vorteil das die CPU oder der Grafikprocessor solche "geraden" Anzahlen von 1Byte oder 1DWord besser handeln können als "krumme" 10Bit oder 24 bit.
Manche Grafikprogramme/Spiele nutzen das 4. Byte intern als Alpha-Channel.
Den Unterschied zwischen 24Bit und 30(32)Bit kann mann sowieso nur unter ganz bestimmten Bedingungen (1024 statt 256 Abstufungen in einem Graukeil/Farbkeil) sehen.
Und LCD/TFT-Monitore können sowieso nur 24Bit darstellen