Hallo zusammen.
Wieder einmal hat mich das Thema Farben gepackt. Folgendes: Wenn man in HTML eine Farbe, etwa für den Hintergrund definiert, gibt man sie in der Form "FFCC33" an, wobei die ersten beiden Stellen den Rot-Anteil definieren, die mittleren beiden das Grün und die letzten das Blau. Da jeder Farbkanal einen Wert von 00 bis FF = 0 - 255 annehmen kann, stehen demnach 8 bit pro Farbe zur Verfügung - also geht HTML von einer 24-Bit-Farbauflösung aus. Kaum jemand benutzt aber diese Auflösung - die sitzt genau zwischen den Stühlen. Üblich sind entweder 16 oder 32 bit. Die auf 24-Bit-Basis definierte Farbe muß also umgerechnet werden. Wie aber läuft das ab? Bei 16 Bit z.B. hätte ich "knapp fünfeinhalb Bit" pro Farbe zur Verfügung, bei 32 Bit wären es nicht ganz elf - beides nicht der wahre Jakob... weiß jemand etwas darüber?
Danke im voraus für Eure Antworten.
CU
Olaf19
Homepage selbermachen 7.851 Themen, 35.616 Beiträge
Hallo Holger,
das denke ich auf jeden Fall auch. Mir ging es nur darum, wie der Monitor - oder ist es die Grafikkarte? - das umsetzt, wenn er/sie auf 16- oder 32-Bit-Modus gestellt ist.
Danke und CU
Olaf