Hallo zusammen.
Wieder einmal hat mich das Thema Farben gepackt. Folgendes: Wenn man in HTML eine Farbe, etwa für den Hintergrund definiert, gibt man sie in der Form "FFCC33" an, wobei die ersten beiden Stellen den Rot-Anteil definieren, die mittleren beiden das Grün und die letzten das Blau. Da jeder Farbkanal einen Wert von 00 bis FF = 0 - 255 annehmen kann, stehen demnach 8 bit pro Farbe zur Verfügung - also geht HTML von einer 24-Bit-Farbauflösung aus. Kaum jemand benutzt aber diese Auflösung - die sitzt genau zwischen den Stühlen. Üblich sind entweder 16 oder 32 bit. Die auf 24-Bit-Basis definierte Farbe muß also umgerechnet werden. Wie aber läuft das ab? Bei 16 Bit z.B. hätte ich "knapp fünfeinhalb Bit" pro Farbe zur Verfügung, bei 32 Bit wären es nicht ganz elf - beides nicht der wahre Jakob... weiß jemand etwas darüber?
Danke im voraus für Eure Antworten.
CU
Olaf19
Homepage selbermachen 7.851 Themen, 35.616 Beiträge
wieso soll kaum jemand 32bit benutzen ? auf winzige farbabweichungen achtet doch eh keiner und spätesten wenn du änfangst mit jpgs zu arbeiten, kannste eh alle vorher schön kalkulierten und getesten farb-kombis, rahmen, BGs ... über board werfen - ausser du nimmst ne 100%ige Quali - aber das würde ja den sinn von jpg verfehlen