Hallo zusammen.
Wieder einmal hat mich das Thema Farben gepackt. Folgendes: Wenn man in HTML eine Farbe, etwa für den Hintergrund definiert, gibt man sie in der Form "FFCC33" an, wobei die ersten beiden Stellen den Rot-Anteil definieren, die mittleren beiden das Grün und die letzten das Blau. Da jeder Farbkanal einen Wert von 00 bis FF = 0 - 255 annehmen kann, stehen demnach 8 bit pro Farbe zur Verfügung - also geht HTML von einer 24-Bit-Farbauflösung aus. Kaum jemand benutzt aber diese Auflösung - die sitzt genau zwischen den Stühlen. Üblich sind entweder 16 oder 32 bit. Die auf 24-Bit-Basis definierte Farbe muß also umgerechnet werden. Wie aber läuft das ab? Bei 16 Bit z.B. hätte ich "knapp fünfeinhalb Bit" pro Farbe zur Verfügung, bei 32 Bit wären es nicht ganz elf - beides nicht der wahre Jakob... weiß jemand etwas darüber?
Danke im voraus für Eure Antworten.
CU
Olaf19
Homepage selbermachen 7.851 Themen, 35.616 Beiträge
Wie xaffort schon gepostet hat...
Um bei der Verarbeitung Rundungsfehler zu vermeiden!
Wenn in einem modernen Bildbearbeitungsprogramm das mit Layern, Objekten Effekten und Tranzparenzen arbeitet, Bilder berechnet werden, dann können schon Rundungsfehler von mehreren Bit entstehen.
Wenn man dann nur mit 24 Bit rechnet bleiben pötzlich nur noch z.B. 15 "sichere" Bit übrig. der Rest währe ein Rauschen in den LSBs, und das würde man sehen.
Ausserdem werden nicht alle Bilder nur berechnet um auf dem Monitor dargestellt zu werden.
Bildverarbeitungsprogramme werden auch in der Druckvorlagenerstellung eingesetzt. Und da gelten andere Qualitätsansprüche als beim Surfen oder Zocken.