ZMBP

Wissenschaftlich Arbeiten mit Computer und Internet
- Bildbearbeitung

Uni Tuebingen

Kursübersicht

Suchen

Grafikbearbeitung

Rastergrafik

Vektorgrafik


Grafik- und Bildbearbeitung

Übungsaufgaben

Wikipedia Grafikbearbeitung

Bei der digitalen Grafik- und Bildbearbeitung werden mit Hilfe eines Computers Bilder und Grafiken erstellt und verändert.
Die Bilder liegen in digitaler Form vor und sind in erster Linie eingescannte Fotos oder Fotos, die mit einer digitalen Kamera erstellt wurden.
Es lassen sich auch Bilder und Grafiken direkt am Computer neu erstellen.

Wikipedia Grafikbeabeitungsprogramme

Wie können Bilder in eine digitalisierte Form gebracht werden?
Eine Möglichkeit besteht das Bild zu rastern, das heisst in viele einzelne Bildpunkte zu zerlegen.
Eine andere Herangehensweise ist, das Bild in einzelne Kurven und Flächen zu zerlegen.

Daher gibt es grundsätzlich zwei verschiedene Arten von Grafiken.
Rastergrafiken und Vektorgrafiken.
Dafür gibt es auch spezialisierte Programme.
Siehe Wikipedia über den Begriff Grafik in der Medientechnik.



Rastergrafik

Rastergrafiken werden auch Pixelgrafiken, Bitmap-Bilder oder einfach 'Bilder' (siehe Wikipedia über Rastergrafik) genannt.
In der Medientechnik wird von 'Bild' und nicht von 'Grafik' (s. u.) geredet.


Pixelgrafik - 200 x 205 Pixel

Ein typisches Beispiel für eine Rastergrafik ist ein mit der Digitalkamera angefertigtes Foto.
Der Bildsensor der Kamera besitzt eine bestimmte Zahl an lichtempfindlichen Fotozellen, die für das Foto ausgelesen werden.

Ein mit einem Bildscanner oder größeren Kopierer digitalisiertes Bild ist auch eine Rastergrafik.
Es gibt auch Programme mit deren Hilfe am Computer Bilder neu erstellt werden.
Es wird am Computer "gemalt" (Malprogramme).

Kommentierte Übersicht Bildbearbeitungsprogramme

Kommentierte Übersicht Malprogramme


Pixel
Rastergrafiken bestehen aus Pixel.
Pixel ist ein Farbwert an einer bestimmten Position in einer Rastergrafik.
Die Position kann als x- und y-Werte verstanden werden. Der Farbwert ist eine bestimmte Zahlenreihe (Bild speichern)
Pixel ist ein Kunstwort aus der Abkürzung der englischen Worte Picture (verkürzt auf „Pix“) und Element.
Es wird als "px" abgekürzt.

Bei starker Vergrösserung werden in Bildbearbeitungsprogrammen die Pixel als kleine Rechtecke deutlich. Siehe Abbildung oben.
Die Größe dieser Rechtecke ergibt sich einfach aus der Bildgröße und der Anzahl der Pixel (Auflösung)
Das Pixel hat folgende Breite: Breite des Bildes geteilt durch die Anzahl der Pixel in der Breite. Höhe entsprechend.
Wer in der Bildanalyse arbeitet, sollte sich allerdings von der Vorstellung verabschieden, dass das Pixel ein Rechteck oder Quadrat ist.
Genauer gesagt, ist Pixel ein Datenpunkt, mit einer bestimmten Position in der Reihe und Spalte, dem ein bestimmter Farbwert zugeordnet ist.
Erst in Bildbearbeitungsprogrammen wird der Datenpunkt als Rechteck mit einer bestimmten Farbe dargestellt und so wird das Bild sichtbar.
Alvy Ray Smith, 1995, "A PixeI Is Not A Little Square" alvyray.com/Memos/CG/Microsoft/6_pixel.pdf
Siehe auch Peter Bankhead, 2014, Seite 12




Aufgabe:
Wie groß ist ein Pixel?
Erstelle in Photoshop oder Gimp ein Bild mit 800 x 600 Pixel.
Stelle die Größe des Bildes auf 28,2 x 21,2 cm und dann auf 10 x 7,5 cm bei jeweils gleicher Pixelzahl.
Wie groß ist jeweils 1 Pixel?
Das zeigt, dass ein Pixel verschieden "groß" dargestellt wird.
Genauer gesagt muss bei Pixeln von Datenpunkten geredet werden, die verschiedene Abstände haben können ("A PixeI Is Not A Little Square", siehe oben).




Vektorgrafiken

Vektorgrafiken sind Zeichnungen aus Formen, Linien und Kurven.
In der Medientechnik werden sie als 'Grafik' bezeichnet (siehe Wikipedia über Vektorgrafik).

Grafiken werden am Computer in spezialisierten Programmen erstellt. Es wird am Computer "gezeichnet".
Dafür geeignete Eingabegeräte, wie ein Grafiktablet oder ein Stift auf einem Touchscreen, werden gerne benutzt.


Vektorgrafik Pflanzenzelle
Quelle LadyofHats, Plant cell structure-en,
verändert von Steinmetz, CC0 1.0

Am auffälligsten ist, dass Vektorgrafiken in allen Vergrößerungen ein gleich scharfes Bild zeigen.
Es werden eben keine Pixel als Rechtecke gezeigt!

Die Objekte in Vektorgrafiken lassen sich leichter bearbeiten im Vergleich zu Rastergrafiken.
Ein Kreis in einer Vektorgrafik kann zum Beispiel einfach mit der Maus ausgewählt und verändert werden,
während die Pixel des Kreises in einer Rastergrafik mühsam erst durch eine Auswahl bestimmt werden müssen.

Allgemein sind Dateien mit Vektorgrafiken kleiner als mit Rastergrafiken.
Manche Programme heben die Trennung zwischen Vektor- und Rastergrafiken auf,
indem Sie beide Funktionen in ihrem Programm integrieren.
Dann kann eine Rastergrafik in eine Vektorgrafik eingefügt werden,
so dass Vektorgrafiken auch einen erheblichen Speicherbedarf aufweisen.

Kommentierte Übersicht Vektorgrafikprogramme





"Image Fraud" - unerlaubte Bildbearbeitung in wissenschaftlichen Arbeiten


Falschspieler (Quelle Georges de La Tour artist QS:P170,Q203371
Details of artist on Google Art Project, Georges de La Tour -
The Cheat with the Ace of Clubs - Google Art Project
, Größe geändert von Steinmetz,
CC0 1.0
- George de la Tour)

An dieser Stelle eine kritische Bemerkung zu Bildbearbeitung in wissenschaftlichen Arbeiten.

In wissenschaftlichen Arbeiten kann auf verschiedenen Ebenen manipuliert werden (Wissenschaftliches Fehlverhalten "Scientific misconduct").
Ein Aspekt ist das in letzter Zeit bekannt gewordene Übernehmen von fremden Texten, ohne das anzugeben, siehe dazu Plagiate.
Die Veränderung des wissenschaftlichen Bildmaterials kann ebenso zu wissenschaftlichen Fehlverhalten ("image fraud") führen.
Dies wird schon lange in den Verhaltensregeln der Hochschulen berücksichtigt.

"Als möglicherweise schwerwiegendes Fehlverhalten kommt insbesondere in Betracht:
Falschangaben... durch Manipulation einer Darstellung oder Abbildung"
(HRK Hochschulrektorenkonverenz, Zum Umgang mit wissenschaftlichem Fehlverhalten in den Hochschulen
Empfehlung des 185. Plenums vom 6. Juli 1998)

Für die Nutzung von Bilder gelten darüber hinaus die Regeln für gutes wissenschaftliches Arbeiten.
(Kodex der DFG, Leitlinie 1: Verpflichtung auf die allgemeinen Prinzipien 12: Dokumentation und Leitlinie 17: Archivierung):

- Generell gilt, dass die Bearbeitung der Bilder für eine Publikation genau dokumentiert werden muss.
- Originale sind immer aufzubewahren (10 Jahre). Daher darf nur eine Kopie bearbeitet werden.

Für gutes wissenschaftliche Arbeiten im Team gilt, die Betreuer der Arbeit und alle Co-Autoren sollten über die Bildbearbeitungen informiert werden.

Gibt es allgemein akzeptierte Richtlinien?

Einige einfache Regeln finden sich auf der englischen Seite von Wikipedia.
en.wikipedia.org/wiki/Scientific_misconduct#Photo_manipulation
Es hängt oft davon ab, was gemacht wird und ob nur ein Bildbereich berücksichtigt wird.
Folgendes ist allgemein nicht erlaubt.

  • Für ein Experiment verschiedene Bilder in ein Bild kopieren, ohne das zu kennzeichnen.
  • Helligkeit, Kontrast, Farbe nur in einem Teil eines Bildes verändern.
  • Informationen verfälschen.
    • Helligkeit und Kontrast eines bestimmten Signals verändern.
    • Grafische Werkzeuge benutzen um unerwünschte Bestandteile zu löschen.
  • Nur einen kleinen Teil des Bildes zeigen, so dass wesentliche Informationen versteckt werden.

Das Journal of Cell Biology war eines der ersten Zeitschriften, das entsprechende Verhaltensregeln formuliert hatte.
(Rossner & Yamada. 2004. J Cell Biol;166:11-5 PubMed Artikel).
Dies wurde in den Anweisungen für Autoren aufgenommen (JCB Guidelines).

  • Images should be minimally processed and accurately reflect the original data. We understand that image processing may be necessary and is appropriate in most instances. Our screening process examines the following: whether any specific feature within an image has been enhanced, obscured, moved, removed, or introduced; whether dividing lines are added between juxtaposed images taken from different parts of the same gel or from different gels, fields, or exposures; whether adjustments of brightness, contrast, or color balance have been applied to the entire image and that adjustments do not enhance, erase, or misrepresent any information present in the original, including the background. We also look for duplicated images within the manuscript; any reuse of images, including control data, across multiple figures should be explicitly stated and justified in the legend. Nonlinear adjustments (e.g., changes to gamma settings) must be disclosed in the figure legend or Materials and methods section.

    (Stand 14.1.2022)

see JCB Guidelines

Ähnliche Verhaltensregen wurden an anderer Stelle publiziert und diskutiert.
Michael Rossner 2012, Council of Science Editot CSE, 3.4 Digital Images and Misconduct
Ben Mudrak. 2014. Avoiding Image Fraud: 7 Rules for Editing Images. American Journal Express. Artikel)
Siehe auch Science, Preparing Your Art and Figures, www.sciencemag.org/site/feature/contribinfo/prep/prep_revfigs.xhtml
Nature, Image integrity and standards (hwww.nature.com/authors/policies/image.html)
www.nature.com/nature-research/editorial-policies/image-integrity
Plus One, Image manipulation (journals.plos.org/plosone/s/figures#loc-image-manipulation)
Nature 2015 "The image detective who roots out manuscript flaws"
Online Learning Tool for Research Integrity and Image Processing

Eine sehr gute Übersicht findet sich unter Online Learning Tool for Research Integrity and Image Processing.


Grenzfälle

Tatsächlich ist die Grenze zwischen erlaubter Bildbearbeitung und unerlaubter Manipulation nicht immer einfach zu erkennen.
Es gibt die absichtliche Verfälschung der Bilder um die Untersuchungsergebnisse abzustützen.
Die ursprüngliche Aussage der Bilder wurde verändert. Details werden weg gelassen oder neue Bestandteile werden hinein kopiert.
Aber es gibt auch die Grenzfälle. Warum nicht durch Subtraktion das Hintergrundrauschens eine bessere Auswertung erreichen? Die Aussage wird nicht geändert.
Das ist als "Beautification" bekannt (Artikel von enago). Wird es nicht dokumentiert, kann das möglicherweise zu falschen Schlußfolgerung führen.
Zum Beispiel wird Hintergrundrauschen entfernt, wird die Methode besser dargestellt als sie ist.

Daneben gibt es unabsichtliche Bildverfälschungen, zum Beispiel durch Bildkompression.



Konsequenzen für entdeckte Betrugsfälle

Bei Bildfälschungen muss mit einem erheblichen Verlust des wissenschaftlichen Rufs gerechnet werden.
Karriereknick. Rauswurf.
Schadensrechtliche Konsequenzen drohen, wenn es um wissenschaftliche Forschungsgelder geht.

Der wissenschaftliche Artikel muss zurückgezogen werden.

Beispiel ( Zeit 18.2.14 PubPeer 2/2014 Stammzellenforscher ziehen Nature Artikel zurück, ST 2014)



Historische Fall: Ernst Haeckel und die Embryonenkontroverse

Täuschung durch Bildbearbeitung gibt es in der Geschichte der Biologie schon lange. "Image Fraud" hatte einen historischen Skandal in der Biologie verursacht.
Ernst Haeckel (1834- 1919) hatte zur Belegung seiner Theorie, die Ontogenese rekapituliert die Phylogenese, verschiedene Zeichnungen gefälscht.
Das führte zu einer berühmten Debatte im 19. Jahrhundert, der "Embryonenkontroverse".
Dies wird ausführlich in einem Wikipedia Beitrag dargestellt. de.wikipedia.org/wiki/Embryonenkontroverse



Aktivitäten gegen Betrug in den Wissenschaften

Artikel zu Image Manipulation - www.labtimes.org/labtimes/issues/lt2011/lt04/lt_2011_04_35_35.pdf

Eine Internetseite, die Manipulationen in der Wissenschaft verfolgt - retractionwatch.com/
Auf der Plattform PubPeer werden Artikel nach der Veröffentlichung diskutiert ,
auch dort werden Manipulationen aufgedeckt (Beispiel 1 Beispiel 2).

Ein gutes Beispiel für korrektes Zurückziehen ist ein Artikel über manipulierte Paper-Abbildung und das vorbildliches Vorgehen der Forschungsgruppe.
Beispiel PubPeer. Zurückgezogener Artikel eLife.



Literatur
- “Instructions to Authors” The Journal of Cell Biology unter dem Punkt "Image Manipulation"
Wikipedia

Image Manipulation Useful Links, Center for Ethics and Values in the Sciences, Birmingham, Alabama

- What's in a picture? The temptation of image manipulation. Rossner M, Yamada KM. J Cell Biol. 2004 Jul 5;166(1):11-5 PubMed Artikel

- Image manipulation: CSI: cell biolog. Helen Pearson. Nature 434, 952-953. 2005 Artikel

- News Science journals crack down on image manipulation. Natasha Gilbert. Nature, doi:10.1038/news.2009.991 Artikel





Bildauflösung

Es wird der wichtigste Begriff in der Pixelgrafik erläutert - die Bildauflösung ("Resolution").

Es gibt zwei Ausprägungen für den Begriff Bildauflösung.

Wikipedia


PEG-mediated transformations of protoplasts - Auflösung 50 x 37 Pixel - Foto Caterina Brancato

Mit Bildauflösung bezeichnet man die Anzahl der Pixel , aus denen eine Rastergrafik besteht.
Es wird einfach diese Anzahl angegeben, aber in der Regel wird die Auflösung durch Breite x Höhe wiedergegeben.

Daneben besteht für die Auflösung noch als die Dichte der Bildpunkte.



Auflösung - Anzahl der Bildpunkte

Je mehr ein Bild Pixel enthält, um so besser ist das Bild "aufgelöst".
Die Anzahl der Pixel wird als Bildauflösung bezeichnet - siehe Artikel in Wikipedia.
Angegeben werden die Bildpunkte insgesamt (Megapixel) oder in den Dimensionen Breite und Höhe (800 x 600).
Wobei noch keine Aussage über die Qualität eines Bildes getroffen werden kann.
Denn es muss hier noch die Wiedergabengröße beachtet werden.
1 Million Pixel ergeben in einem 3 x 4 cm grossen Bild eine gute Bildqualität,
dagegen ergeben 1 Million Pixel für ein 30 x 40 cm grosses Bild einen sehr grobkörnigigen Eindruck.

Diese Angabe wird für Geräte, wie Bildschirme, Kameras oder Smartphones verwendet.

Beispiele für Auflösungen:
Bildschirm 1920 x 1080
Digitalkamera 12 Megapixel



Der Zusammenhang ergibt sich aus der Tabelle.

Megapixel horiz. × vert. Pixelanzahl Größe des Bildes in MB
(24bit Farbe)
0,3 640 × 480 307 200 0,88
0,8 1024 × 768 786 432 2,25
1,3 1280 x 960 1 228 800 3,56 Monitor 4:3
1,0 1366 x 768 1 049 088 3.00 Notebook Standard 2013 16:9
2,1 1920 × 1080 2 073 600 5,93 Notebook Standard 2018 16:9
4,0 2560 x 1600 4 096 000 11,7 Notebook Apple MacBook Pro "Retina" Display 2017
5 - 12 34,3 Handy Kamera Standard 2020
6 - 16 45,8 Digitale Kamera Standard 2020
18 - 24 68,7 Digitale Spiegelreflexkamera
400 23200 × 17400 403 680 000 1155 Rekordkamera 2018, Bild wird aus 6 Einzelaufnahmen zusammengesetzt,
1 Bild = 1 GB

Siehe auch Wikipedia Megapixel



Auflösung - Dichte der Bildpunkte

Bei der Auflösung oben (Gesamtanzahl der Pixel oder Pixel als Breite x Höhe) fehlt noch eine Bezugsgröße, um auf die Qualität des Bildes zu schließen.
Die Dichte der Bildpunkte gibt die Anzahl der Bildpunkte im Verhältnis zu einer Längeneinheit, üblicherweise das Zoll (engl. Inch), an.
(z.B. dpi, dots per inch; ppi, pixel per inch; lpi, lines per inch).
Sie heißt auch Punkt- oder Pixeldichte. Werden Zeilen benutzt, wird von Zeilendichte (lines per inch) gesprochen.
1 Inch = 2,54 cm.
1 dpi bedeutet 1 Bildpunkt pro 2,54 cm.

Von dpi und ppi spricht man vorwiegend im Druckbereich, während ppi (pixel per inch) für Bildschirme und Bildbearbeitung richtig ist (Wikipedia)




Auflösungsvermögen des Auges

Die Dichte der Bildpunkte (siehe oben) gibt ein Maß an, um die Qualität eines Bildes zu messen.
Was ist ein gut aufgelöstes Bild? Das Auflösevermögen des Auges gibt einen guten Anhaltspunkt dafür.

Für das menschliche Auge gibt es eine natürliche Grenze, ab der eine höhere Auflösung nicht mehr sinnvoll ist.
Diese Grenze liegt bei etwa 200 bis 300 dpi bei einem Leseabstand von etwa 25 cm.

Gut sichtige Menschen unterscheiden Strukturen von 2 Bogenminuten (=1/30 Grad) (Wikipedia).
25 cm entspricht der konventionelle Sehweite, bei der ermüdungsfrei gelesen werden kann.
Umgerechnet können damit Strukturen, die etwa 0,15 mm auseinander liegen, unterschieden werden.
Das sind 170 Punkte pro inch (2,54cm).

Eine andere experimentelle Berechnung geht so: "Bei einem normalen Betrachtungsabstand von 25 Zentimetern kann das Auge maximal 6 Linienpaare pro Millimeter differenzieren.
6 Linienpaare pro Millimeter bedeuten jedoch 12 abwechselnd schwarze und weiße Linien pro Millimeter;
ein Inch besteht aus ca. 25 mm, so dass auf einem Inch 12 x 25 = 300 Linien differenziert werden können.
Eine höhere Auflösung kann das menschliche Auge bei normalem Betrachtungsabstand also nicht mehr erkennen."
(aus www.filmscanner.info/Aufloesung.html)

Daher bringt eine Auflösung von über 300 dpi keine Qualitätssteigerung.
Bei einer unnötig hohen Auflösung wird der Druckprozess deutlich langsamer und der Speicherbedarf steigt.
Bei doppelter Auflösung vervierfacht sich der Speicherbedarf!

Das 'Retina' Display von Apple (iPhone, iPad und MacBook) besitzt in etwa diese Auflösung
(227 bis 326 pixel per inch) und wird eben daher als 'Retina' bezeichnet. Die meisten Smartphones weisen 300 bis 500 dpi auf, da der Betrachtungsabstand etwas geringer ist.
en.wikipedia.org/wiki/Retina_Display


Die natürliche Grenze für die Auflösung technischer Geräte, kümmert einige Gerätehersteller nicht.
2018 wurden Fernseher mit 8K Auflösung, das sind 33 Mio Pixel, angeboten (Heise online 3.1.2018).
Das sind zwar nur etwa 100 dpi bei 88 Zoll Diagonale. Aber niemand sitzt 25 cm vor dem 2 m breitem Fernseher!
Bei entsprechendem Abstand reicht eine geringere Auflösung.
www.heise.de/newsticker/meldung/Zahlen-bitte-Wer-braucht-33-Millionen-Pixel-3936094.html

Das Smartphone Sony Xperia XZ2 Premium hat die übertrieben hohe Auflösung von über 600 dpi (4K) (Chip 14.11.2018)




Beispiel - Auflösung beim Scannen

Eine höhere Auflösung als 300 dpi ist nicht sinnvoll? Anders verhält sich das bei Filmscannern.
Würde man ein Kleinbild-Dia der Größe 24 x 36 mm mit exakt 300 dpi einscannen,
so könnte man einen qualitativ hochwertigen Ausdruck nur in genau diesem Miniformat erstellen.
Natürlich will niemand seine Dias als Briefmarken ausdrucken, sondern starke Vergrößerungen machen.

Soll aus einem Dia-Kleinbild ein Din A4-Ausdruck (21x29,7cm) mit der optimalen Auflösung von 300 dpi erstellt werden,
ist eine Auflösung von ca. 2.500 dpi notwendig.

Rechnung für dieses Beispiel:

DIN A4-Ausdruck (29,7 cm Höhe) mit 300 dpi ergibt 29,7 x 300 /2,54 = 3507 Pixel
Ein Dia ist 3,6 cm hoch. Daher entspricht 3507 Pixel auf 3,6 cm etwa 2475 dpi (3507/3,6*2,54 = 2475)

Für eilige, hier zwei einfache Formeln:

Scan Auflösung (dpi) = Auflösung Bild (dpi) x Länge Bild (cm) / Länge Scan (cm)

Auflösung Bild (dpi) = Scan Auflösung (dpi) x Länge Scan (cm) / Länge Bild (cm)



Faustregeln für Auflösungen

Auflösung in dpi
Standard Bildschirm*, Bilder im Internet ca. 100
Drucken Fotografie 300
Drucken Zeichnung** 600
Scannen Bild 300
Filmscanner 1200 - 2500

* Beispiel: Full-HD Monitor (1920 x 1080 und 24 Zoll Bilddiagonale = 20,9 Zoll Breite).
Daher 92 dpi horizontal, das ist bei ergonomisch korrekten Betrachtungsabstand von ca. 40 - 60 cm ein guter Wert.
Daher weisen auch Bilder im Internet bei diesem Bildschirm diese Auflösung auf.

** Werden Zeichnungen gedruckt, so wird anstatt 300 dpi oft 600 dpi eingestellt.
Viele wissenschaftliche Zeitschriften geben dies vor.
Der Grund ist, dass bei Kurven in Zeichnungen auch bei 300 dpi "Treppenstufen" sichtbar sein können, die bei 600 dpi verschwinden.
Außerdem lassen sich Zeichnungen gut verlustfrei komprimieren und die Dateigröße ist auch bei 600 dpi nicht sehr groß.



Bildauflösungen bei Bildschirmen und Beamern



Everaldo Coelho (YellowIcon) - GNU Lesser General Public License Author:Everaldo Coelho

In den letzten Jahren ist die Auflösung von Monitoren stetig gestiegen.
Für die Auflösung der Bildschirme gibt es Abkürzungen.
Durch die Möglichkeit Breitwandfilme auf den Computer zu zeigen wird heute ein Seitenverhältnis
von 16:10 oder 16:9 statt dem praktischen 4:3 bevorzugt.

Abkürzung Name x y x:y x·y
QQVGA Quarter QVGA 160 × 120 4:3 19.200
GB (1989-1997) Game Boy ab 1989 160 × 144 4:3 23.040
GBC (1998) Game Boy Color ab 1998 160 × 144 4:3 23.040
Palm LoRes Palm Low Resolution 160 × 160 1:1 25.600
GBA (2001-2005) Game Boy Advance ab 2001 240 × 160 3:2 38.400
⅛VGA ⅛ VGA 240 × 180 4:3 43.200
ZXS ZX Spectrum 256 × 192 4:3 49.152
NDS (2004-2010) Nintendo DS
ab 2004 & DS Lite ab 2006
256 × 192 4:3 49.152
3DS (2011-2014) Nintendo 3DS
ab 2011 & 3DS XL ab 2012
256 × 192 4:3 49.152
CGA Color Graphics Adapter 320 × 200 8:5 64.000
QVGA Quarter VGA 320 × 240 4:3 76.800
360 × 240 3:2 86.400
384 × 240 8:5 92.160
Palm HiRes Palm High Resolution 320 × 320 1:1 102.400
QSVGA Quarter SVGA 400 × 300 4:3 120.000
WQVGA Wide QVGA 432 × 240 9:5 103.680
480 × 160 3:1 76.800
PSP (2004-2009) PlayStation Portable :
PSP-1000 ab 2004
480 × 272 16:9 130.560
HVGA Half VGA 480 × 320 3:2 153.600
PSION Serie 5 640 × 240 8:3 153.600
480 × 360 4:3 172.800
EGA Enhanced Graphics Adapter 640 × 350 64:35 224.000
QHD Quarter HD 640 × 360 16:9 230.400
HSVGA Half SVGA 600 × 400 3:2 240.000
VGA Video Graphics Array 640 × 480 4:3 307.200
HGC Hercules Graphics Card 720 × 348 60:29 250.560
MDA Monochrome Display Adapter 720 × 350 72:35 252.000
Apple Lisa 720 × 364 ≈ 2:1 262.080
WVGA, WGA Wide VGA 720 × 400 9:5 288.000
720 × 480 3:2 345.600
720 × 540 4:3 388.800
WVGA, WGA Wide VGA 800 × 480 5:3 384.000
WVGA, WGA Wide VGA 848 × 480 ≈ 16:9 407.040
WVGA, WGA Wide VGA 852 × 480 ≈ 16:9 408.960
WVGA, WGA Wide VGA 858 × 484 ≈ 16:9 415.272
WVGA, WGA Wide VGA 864 × 480 9:5 414.720
PAL-D PAL Digital 768 × 576 4:3 442.368
SVGA Super VGA 800 × 600 4:3 480.000
HXGA Half Megapixel (Apple) 832 × 624 4:3 519.168
qHD, QHD Quarter HD 960 × 540 16:9 518.400
960 × 540 16:9 518.400
PS Vita (2011) PlayStation Vita 964 × 544 16:9 524.416
964 × 544 ≈ 16:9 524.416
DVGA Double VGA 960 × 640 3:2 614.400
960 × 720 4:3 691.200
WXGA Wide XGA 1024 × 576 16:9 589.824
WSVGA Wide SVGA 1024 × 600 ≈ 17:10 614.400
WSVGA Wide SVGA 1072 × 600 ≈ 16:9 643.200
EVGA Extended VGA 1024 × 768 4:3 786.432
XGA Extended Graphics Array 1024 × 768 4:3 786.432
XGA XGA+ 1152 × 864 4:3 995.328
HD720, 720p (erste TV Geräte ab 2005) High Definition, „HD ready“ 1280 × 720 16:9 921.600
WXGA Wide XGA (Bright View) 1280 × 768 5:3 983.040
DSVGA Double SVGA 1200 × 800 3:2 960.000
WXGA Wide XGA 1280 × 800 8:5 1.024.000
OLPC One Laptop per Child 1200 × 900 4:3 1.080.000
SXVGA Super Extended VGA 1280 × 960 4:3 1.228.800
QVGA Quad VGA 1280 × 960 4:3 1.228.800
SXGA Super XGA 1280 × 1024 5:4 1.310.720
WXGA Wide XGA 1360 × 768 ≈ 16:9 1.044.480
WXGA Wide XGA 1366 × 768 ≈ 16:9 1.049.088
WXGA Wide XGA 1376 × 768 ≈ 16:9 1.056.768
WXGA+ WXGA Plus 1400 × 900 14:9 1.260.000
WXGA+ WXGA Plus 1440 × 900 8:5 1.296.000
(Apple) 1440 × 960 3:2 1.382.400
SXGA+ SXGA Plus 1400 × 1050 4:3 1.470.000
UWXGA Ultra Wide XGA 1600 × 768 25:12 1.228.800
WSXGA Wide SXGA 1600 × 900 16:9 1.440.000
WSXGA Wide SXGA 1600 × 1024 25:16 1.638.400
UXGA Ultra XGA 1600 × 1200 4:3 1.920.000
WSXGA+ Wide SXGA+ 1680 × 1050 8:5 1.764.000
HD1080, 1080p High Definition, „Full HD“, „2K 1920 × 1080 16:9 2.073.600
WUXGA Wide UXGA 1920 × 1200 8:5 2.304.000
QWXGA Quad WXGA 2048 × 1152 16:9 2.359.296
TXGA Tesselar XGA 1920 × 1400 48:35 2.688.000
1920 × 1440 4:3 2.764.800
SUXGA Super UXGA 2048 × 1536 4:3 3.145.728
QXGA Quad XGA 2048 × 1536 4:3 3.145.728
UW-UXGA Ultra Wide UXGA 2560 × 1080 21:9 2.764.800
WQHD, 1440p Wide QHD (QHD) 2560 × 1440 16:9 3.686.400
WQXGA Wide QXGA 2560 × 1600 8:5 4.096.000
QSXGA Quad SXGA 2560 × 2048 5:4 5.242.880
QHD+ Quad High Definition Plus 3200 × 1800 16:9 5.760.000
QSXGA+ Quad SXGA+ 2800 × 2100 4:3 5.880.000
WQSXGA Wide QSXGA 3200 × 2048 25:16 6.553.600
QUXGA Quad UXGA 3200 × 2400 4:3 7.680.000
HSVGA Hex SVGA 3200 × 2400 4:3 7.680.000
UWQHD, 1440p Ultra Wide QHD (QHD) 3440 × 1440 43:18 4.953.600
QHD 1440p Quad High Definition 3440 × 1440 21:9 4.953.600
QHD+ 1600p UW4k Quad High Definition Plus
(Ultra Wide 4K)
3840 × 1600 21:9 6.144.000
UHD 4K, 2160p (erste TV Geräte ab 2013) Ultra High Definition „4K 3840 × 2160 16:9 8.294.400
QWUXGA Quad WUXGA 3840 × 2400 8:5 9.216.000
WQUXGA Wide QUXGA 3840 × 2400 8:5 9.216.000
4K2K High Definition, „4K2K“ 4096 × 2160 ≈ 19:10 8.847.360
Apple iMac Retina 4K 4096 × 2304 16:9 9.437.184
HXGA Hex XGA 4096 × 3072 4:3 12.582.912
UHD+ Ultra High Definition Plus, „5K 5120 × 2880 16:9 14.745.600
WHXGA Wide HXGA 5120 × 3200 8:5 16.384.000
HSXGA Hex SXGA 5120 × 4096 5:4 20.971.520
WHSXGA Wide HSXGA 6400 × 4096 25:16 26.214.400
HUXGA Hex UXGA 6400 × 4800 4:3 30.720.000
FUHD, 4320p Full UHD, „8K 7680 × 4320 16:9 33.177.600
WHUXGA Wide HUXGA 7680 × 4800 8∶5 36.864.000
QUHD, 8640p Quad UHD, „16K 15360 × 8640 16:9 132.710.400

aus Wikipedia

Technik Flüssigkristallbildschirm (Wiki)

Full HD (1920x 1080 Pixel) ist für 21 - 24 Zoll Monitore im Moment Standard.
Bei 27 Zoll Monitore sind WQHD also 2560 x 1440 besser.

Für TV Bildschirme weicht die Berechnung der Auflösung ab, siehe HDTV.
4K oder Ultra HD ist der Nachfolger der HDTV-Bildformate 720p und 1080i/p.
Es wird als 4K bezeichnet, weil etwa 4.000 horizontale Punkte dargestellt werden.
Es gibt immer mehr Bildschirme und TV Geräte die das leisten können (Wikipedia)

8K Geräte sind erstmals 2018 aufgetaucht. Die Olympische Spiele 2020(21) in Japan wurden mit 8K ausgestrahlt.
www.heise.de/newsticker/meldung/Zahlen-bitte-Wer-braucht-33-Millionen-Pixel-3936094.html

Flachbildschirme weisen eine "native Auflösung" auf (Wikipedia).
Das bedeutet jeder Bildschirm hat eine bestimmte Auflösung, bei der das Bild optimal und scharf erscheint.
Andere Auflösungen sind zwar auch möglich, allerdings erscheint das Bild sehr "flau".




Farben


Farbenauftrennung im Prisma Diagram of a dispersion Creative Commons ShareAlike 1.0

Neben der Position im 2-dimensionalen Bild haben Pixel noch eine zusätzliche Größenordnung. Es wird noch der Farbwert angegeben.

Die Farbwerte können ganz unterschiedlich ausgedrückt werden.
Der Farbwert wird meist durch drei Werte, also 3 Dimensionen, gegeben und es wird daher von einem Farbraum gesprochen (Wikipedia).
Bei Bildbearbeitungsprogrammen wird häufig mit drei verschiedenen Farbraum gearbeitet.

RGB-Farbraum (Wikipedia)

CMYK-Farbraum (Wikipedia)

Diese beiden Farbräume präsentieren die Farbdarstellung bei Monitoren (RGB) bzw. bei Druckern (CMYK).

In Werkzeugen der Bildbearbeitungsprogrammen wird darüber hinaus sehr oft der
HSV-Farbraum (Wikipedia) eingesetzt.

Daneben gibt es noch andere Farbräume, die für die Umrechnung von einem Farbraum zum anderen wichtig sind (Lab-Farbraum, YCbCr-Farbmodell)



RGB

Wikipedia

Rot Grün Blau ist ein additives Farbmodell, bei dem sich die Grundfarben zu Weiß addieren (Lichtmischung).
Der empfundene Farbeindruck wird durch hinzufügen eines Farbreizes verändert
(additive Farbmischung in Wikipedia).
Eine Farbe wird durch drei Werte beschrieben: den Rot-, den Grün- und den Blauanteil.

RGB-Farbraum - additives Farbmodell
Abb.: RGB-Farbraum - additives Farbmodell (
Quelle:SharkD at English Wikipedia Later versions were uploaded by
Jacobolus at en.wikipedia., AdditiveColor, Verändert von Steinmetz, CC0 1.0)



RGB ist das Prinzip bei Bildschirmen.
Ein Pixel besteht aus drei Subpixeln mit den Farben Rot, Grün und Blau.
Der Farbeindruck entsteht erst durch einen entsprechenden Abstand zum Bild.

RGB-Farbraum - additives Farbmodell RGB-Farbraum - additives Farbmodell
Abb.: LCD Bildschirm - 5x Makroaufnahme Subpixel sind sichtbar
(Quelle: Richard Bartz, München aka -- Makro Freak, Lcd, Verändert von Steinmetz, CC0 1.0)
Welche Farbe hat das "X" im nicht vergrößertem Bild rechts?


Farbtiefe

Jeder Farbanteil kann zwischen 0 und volle Intensität variieren.
Dabei sind gewöhnlich 256 Abstufungen vorhanden und das wird als 24 Bit Farbtiefe bezeichnet.
Es gibt aber auch ein Vielfaches davon. Zum Beispiel 48 Bit Farbtiefe. Dann muss mit höheren Abstufungen gearbeitet werden und das hat entsprechende Vor- und Nachteile.
Wikipedia - Farbtiefe

Bei 24 Bit Farbtiefe in der Computertechnik wird häufig jeweils ein Byte (entspricht 8 Bits, Wikipedia) für einen Farbanteil verwendet.
Bei 8 Bit ist der höchste Wert als binäre Zahl dargestellt 11111111 und das ist 255 dezimal. Der geringste Wert ist 00000000 oder 0 dezimal.
Folglich reicht der Wertebereich jedes einzelnen Farbkanals von 0 bis 255, wobei 0 für die geringste und 255 für die höchste Intensität steht.
Für jeden Farbkanal können daher 256 Abstufungen angegeben werden. Die Null zählt dazu!.
Insgesamt können mit den 3 Farbkanälen 256 · 256 · 256 = 16.777.216 unterschiedliche Farben dargestellt werden.
Binär sind das 3 mal 8 Bit also insgesamt 24 Bit, es wird daher von 24 Bit Farbtiefe gesprochen.
Diese Darstellung wird auch als True Color bezeichnet. Seit Mitte der 1990er Jahre können Grafikkarten True Color darstellen.

Rot Grün Blau
11111111 11111111 11111111
8 Bit 8 Bit 8 Bit 24 Bit
256 256 256 16.777.216



Eine Erweiterung ist das "RGBA color space", neben den 24 Bit für jeden Farbkanal besteht noch ein 8 Bit Alphakanal für die Transparenz.
Daher wird dann von 32 Bit gesprochen.

Aktuelle Bildbearbeitungssoftware unterstützt sogar Farbkanäle mit jeweils 16 bit
(16 Bit = 65536 Möglichkeiten pro Farbe, das sind insgesamt 48 Bit oder 281 Billionen Farben).

Rot Grün Blau
1111111111111111 1111111111111111 1111111111111111
16 Bit 16 Bit 16 Bit 48 Bit
65536 65536 65536 281.474.976.710.656



Farbwerte werden auch in hexadezimaler Schreibweise angegeben.
Bei 8 Bit pro Farbkanal ist das von 0 bis FF hexadezimal. Zur Erinnerung das entspricht 0 bis 255 dezimal.
Diese Schreibweise trifft man in der Programmierung von Internetseiten an.

Beispiele 24 Bit Farbtiefe

RGB 255 0 0 -> rot

RGB 0 255 0 -> grün

RGB 0 0 255 -> blau

RGB 255 255 0 -> gelb

RGB 255 255 255 -> weiß

RGB 0 0 0 -> schwarz

RGB 100 100 100 -> dunkles grau

RGB 200 200 200 -> helles grau

Aufgabe: Teste das mit einer Farbfläche in dem Programm Photoshop oder Gimp



CMYK

Wikipedia

CMYK steht für
Cyan - ein grünliches Blau,
Magenta - ein zum Violett tendierendes Rot,
Yellow - ein mittleres Gelb und
Key - zusätzlicher Wert, Schwarz.

Cyan, Magenta und Yellow ergeben zusammen Schwarz.
Aber leider nur theoretisch, aber nicht praktisch. Bei Druckern wird daher zusätzlich noch Schwarz K hinzugegeben.
Das spart auch teure Farbpigmente.

CMYK ist ein subtraktives Farbmodell.
Bei der Reflexion an einem Körper oder durch einen Farbfilter wird ein Farbanteil weggenommen, daher "subtraktiv".
Die Farbpigmente schlucken einen Farbanteil, der Rest wird reflektiert und trifft auf das Auge.
(Subtraktive Farbmischung in Wikipedia und www.leifiphysik.de)

CMY-Farbraum - subtraktives Farbmodell
Abb.: CMY-Farbraum - subtraktives Farbmodell
(Quelle: SharkD at English Wikipedia / Later version uploaded by
Jacobolus, Dacium at en.wikipedia., SubtractiveColor, verändert von Steinmetz, CC0 1.0)



CMYK ist das Farbmodell der Drucker. Vereinfacht kann es als komplementär zum RGB-Farbmodell verstanden werden.
Bei einfachen Druckern im Privatbereich wird mit Hilfe von Druckertreibern eine Umsetzung in das RGB-Farbmodell gemacht.
Daher melden sich solche Drucker als RGB-Geräte am Computer an.

Farbtiefe ist bei CMYK 32 Bit, jeder Farbkanal kann 8 Bit enthalten. Da viele Farben doppelt vorkommen ist der Farbraum, Anzahl der dargestellten Farben, sogar kleiner als bei RGB.
Daher ist die Empfehlung bei Bildbearbeitung grundsätzlich mit RGB zu arbeiten und nur zum Drucken in CMYK umzuwandeln.
(Wikipedia, Abbildung)


Abb.: CMY - Tintenpatronen Schwarz, Cyan, Magenta, Gelb
(Quelle: DMahalko, HP Business Inkjet 1200n - Continuous Ink System - Printhead cover open,
verändert von Steinmetz, CC BY-SA 3.0)



Der Wertebereich jeder einzelnen Farbe geht in der Regel von 0% bis 100%,
wobei 0% einer unbedruckten und 100% einer Volltonfläche entspricht.
Durch Mischen der drei Grundfarben entsteht die Farbe.

Beispiele

CMYK 100% 0% 0% 0% -> Cyan

CMYK 0% 100% 0% 0% -> Magenta

CMYK 0% 0% 100% 0% -> Gelb

CMYK 0% 0% 0% 0% -> weiß

CMYK 100% 100% 100% 0% -> schwarz

CMYK 50% 50% 50% 0% -> grau

CMYK 0% 0% 0% 50% -> grau




Farbmanagement - Übertragung von RGB zu CMYK
Die darstellbaren Farben zwischen RGB (Monitor) und CMYK (Drucker) sind in beiden Farbräumen nicht einfach in Entsprechung zu bringen.
RGB hat einen größeren Umfang (Wikipdia).
Darüber hinaus ist der RGB-Farbraum geräteabhängig.
Daher ist es ein großes Problem von einem Medium (Bildschirm) zu einem anderen zu wechseln (Drucker).
Dazu wird für jedes Gerät ein Farbprofil verwendet. Jedes Gerät muss geeicht werden.
Die Profilerstellung sollte öfters wiederholt werden, da sich zum Beispiel die Farbeigenschaften eines Monitors im Laufe der Zeit ändern.
Außerdem spielt das Licht im Raum eine Rolle.
Der ganze Vorgang wird mit Farbmanagement gelöst (Wikipedia).
Dazu ist spezielle Software und auch Hardware - Fotometer ähnliche Messgeräte - nötig.




HSV

Wikipedia

Der Farbraum wird durch den Farbton (englisch hue), die Farbsättigung (saturation) und der Helligkeit (value) bestimmt.
Manchmal wird auch die Bezeichnung HSB geführt. Das B steht für "Brightness".

HSV-Farbraum
Abb.: HSV-Farbraum (Quelle:(3ucky(3all, HSV cone,
Verändert von Steinmetz, CC BY-SA 3.0)


Farbton H - es wird in Graden als Farbkreis angegeben, von 0° bis 360° (z. B. 0° = Rot, 120° = Grün, 240° = Blau, 360° ist wieder Rot)

Sättigung S - in Prozent (0 % = Neutralgrau, 50 % = wenig gesättigte Farbe, 100 % = reine Farbe)

Helligkeit V - in Prozent (0 % = keine Helligkeit, 100 % = volle Helligkeit)


HSV wird in Bildbearbeitungsprogrammen zum Einstellen der Farbe benutzt.
Es fällt damit leichter bei einem bestimmten Farbton die Farbe zu regulieren.


Beispiel: Eine bestimmte rote Farbe soll heller gemacht werden.
Mit HSV kann an einem Regler gezogen werden, während bei RGB und CMYK 3 Regler gleichzeitig verschoben werden müssen.


Farbwähler

In vielen Programmen wird der Farbwähler eingesetzt.

HSV-Farbraum - Farbwähler
Abb.: HSV-Farbraum - Farbwähler (Quelle: Samus_, Triangulo HSV, Verändert von Steinmetz, CC BY-SA 3.0)


Der Farbton H wird in der Wählscheibe (360°) eingestellt (H in Pfeilrichtung).
Sättigung S und Helligkeit V befinden sich an den Seiten eines Dreiecks (0 bis 240).
Soll zum Beispiel heller gestellt werden, so wird die Markierung im Dreieck von der Spritze zur Basis gezogen (V in Pfeilrichtung).
Wird ein kräftigerer Farbton gewünscht, wird an der Seite entlang zur Spitz bewegt (S in Pfeilrichtung)


HSV-Farbraum - Farbwähler
Abb.: HSV-Microsoft Programm "Paint" - Farbe wählen

Eine andere Darstellung befindet sich in vielen Bildbearbeitungsprogrammen.
In der oberen Abbildung wird Microsoft Paint gezeigt, das in Windows enthalten ist.
In der farbigen Fläche wird in der waagerechten Achse der Farbton eingestellt (Hue), Senkrecht die Sättigung (Sat)
In einer eigenen senkrechten Spalte wird dazu die Helligkeit (Lum) geregelt.



"Multichannel Images - Composite Images"

In der Mikroskopie werden mit Fluoreszenzfarbstoffen bestimmte Moleküle kenntlich gemacht (Wikipedia).
Wenn mit mehreren Fluoreszenzfarbstoffen gearbeitet wird, kann das Bild für jeden Farbstoff in einen eigenen Kanal gespeichert werden.
Jedem Kanal wird eine passende Farbe zugeordnet, dazu werden Lookup-Tabellen (LUT) eingesetzt.

Die Zuordnung der Farbe zu einem Kanal ist also willkürlich und nicht fest wie bei RGB Rot-Grün-Blau.
Meist hat der Kanal die entsprechende Farbe des Fluoreszenzfarbstoffes, also zum Beispiel blau für den DNA DAPI-Farbstoff (Wikipedia)
Jeder Kanal kann getrennt untersucht werden, die Farben können durch andere LUT verändert werden,
ohne, dass die ursprünglichen Pixel verändert werden müssen.

Daher sind in der Mikroskopie diese "Multichannel Images" oder "Composite Images" weit besser geeignet als normale RGB Bilder.

Diese Bilder lassen sich mit der Software ImageJ oder Fuji betrachten und analysieren.
imagej.net/Color_Image_Processing#Color_Composite_Images





Farbsehen bei Menschen

siehe Wikipedia Artikel wikipedia

James A. Ferwerda Elements of Early Vision for Computer Graphics



Axial organization of the retina - Santiago Ramón y Cajal (1852 - 1934); uploaded to en.wikipedia by en:User:Meduz., Fig retine,
verändert von Steinmetz, CC0 1.0.


Wieviel Farben kann ein Mensch überhaupt unterscheiden?
Macht es Sinn ein Bild in 16 Bit pro Kanal zu speichern (48 Bit Farbtiefe, das sind 281 Billionen Farben)?
Die Erhöhung der Farbtiefe bedeutet einen höheren Speicherbedarf (siehe unten).
Daher sollte die Farbtiefe nur erhöht werden, wenn das tatsächlich einen Vorteil verspricht.
Wo liegt die Grenze beim Farbsehen des Menschen?

Für das Farbsehen beim Menschen sind die Zapfen in der Netzhaut verantwortlich.
Bei Menschen gibt es drei Zapfentypen: Blau- (S-Zapfen 455 nm), Grün- (M-Zapfen 535 nm) und Rotrezeptor (L-Zapfen 565 nm).
Eine einfache Antwort auf die Frage wäre daher 3 Farben.
Interessant ist, dass die meisten Säugetiere nur zwei Zapfentypen haben (Wikipedia).
Viele Wirbeltiere (Fische, Amphibien, Reptilien und Vögel), aber auch Arthropoden wie Springspinnen und Insekten haben dagegen 4 verschiedene farbempfindlichen Fotorezeptoren (Tetrachromaten).
Säugetiere haben zwei Fotorezeptoren verloren, vermutet wird, dass die ursprünglichen Säugetiere nachtaktiv waren ("In der Nacht sind alle Katzen grau").
Menschen, Altweltaffen und Neuweltaffen weisen 3 Zapfen auf und können die Farbe rot unterscheiden (Zapfen Wikipedia). Also hat sich ein Rezeptor wieder sekundär entwickelt.
Diskutiert wird, ob das rot in den Früchten die Evolution angetrieben hat (Zapfen, Evolution bei Primaten, Wikipedia).
Der Farbeindruck entsteht im Gehirn, wenn die Signale der drei Zapfenarten miteinander kombiniert und von Neuronen in der Retina, im Thalamus und im visuellen Kortex weiterverarbeit werden.
Daher arbeiten Auge und Gehirn des Menschen sehr vereinfacht wie ein RGB-Sensor und ein Wahrnehmungsorgan.
(Dietrich Zawischa Grundlagen der Farbenlehre)
Moderne Theorien arbeiten mit dem Modell der "Gegenfarbtheorie" (Gegenfarbtheorie Wikipedia Neuronale Verarbeitung von Farbreizen)

Die Zellen sind nicht gleich verteilt. In der Mitte der Netzhaut und damit im Sehfeld sind die Zapfen konzentriert.
Es gibt etwa 7-8 Millionen Zapfen in der Netzhaut.

Für die Helligkeit sind die Stäbchen im Auge verantwortlich.
Es gibt 100-120 Millionen Stäbchen in der Netzhaut des Menschen.

Das beantwortet leider immer noch nicht die Frage.
Die bisherigen Informationen könnte eine Antwort liefern, auf die Frage nach der maximale Auflösung des menschlichen Auges.


Man kommt der Frage, wieviel Farben ein Mensch sehen kann, näher, wenn man die Frage,
wieviel Farbtöne, Sättigungsstufen und Helligkeitsunterschiede das Auge wahrnehmen kann, beantwortet.
Die Wahrnehmung von Farben im Gehirn basiert tatsächlich auf den Komponenten Farbton, Sättigung und Helligkeit.

In vielen Berichten wird angegeben, der Mensch kann 200 Farbtöne, 20 Sättigungsstufen und 500 Helligkeitsstufen unterscheiden (Eysel, Ulf. (2003). Farbensehen. In: Lehrbuch der Physiologie siehe auch Lars Pracejus 2006, S.14, Ruhr Uni Bochum).
Allerdings habe ich keine wissenschaftlichen Belege dafür gefunden. Danach könnten Menschen 2 Millionen Farben unterscheiden.
Daher ist eine Farbtiefe von 8 Bit pro Farbkanal normalerweise völlig ausreichend, es können 16.777.216 Farben unterschieden werden (256 x 256 x 256 = 16.777.216 )

Eine Kamera hat zum Beispiel einen Dynamikumfang, das ist das Verhältnis der größten und kleinsten Helligkeit, von ungefähr 10.000.
Das Auge schafft nur 500 (siehe oben).
Allerdings verfügt das Auge über eine Anpassungsfähigkeit an helle oder dunklere Lichtverhältnissen, die wenige Sekunden bis Minuten dauert.
Es tragen unterschiedliche Prozesse zu dieser Adaption bei (Pupillenreaktion, Photochemischen Adaptation: Hell - und Dunkeladption, neuronale Komponenten zur Adaptation. (Eysel, U. 2003 aaO, S. 695)
Mit dieser Anpassung kann ein Dynamikumfang sogar von insgesamt 1010 wahrgenommen werden (Ferwerda 2001, a.a.O.).

Wenn diese Anpassung an die Helligkeit berücksichtigt werden, sind weit mehr als 2 Millionen Farben möglich.
Werden andere Sehwinkel und Helligkeit berücksichtigt kommt Jrista in einer interessanten Diskussion auf 10-100 Millionen Farben.

Noch ein anderer Aspekt sind die Helligkeitsstufen. In digitalen Bildern mit 8 Bit pro Farbe sind nur 256 Helligkeitsstufen möglich.
Das ist damit weit weniger als das menschliche visuelle System wahrnehmen könnte.
Daher macht es Sinn, in einigen biologischen Anwendungen, in denen die Helligkeitsstufen entscheidend sind, 16 bit pro Kanal einzusetzen.
Das sind immerhin 65.536 Helligkeitsstufen.
Beispiel sind Bilder in der Elektronenmikroskopie, die mit 16 bit Graustufen aufgenommen werden.
In modernen Gelscannern für Protein oder DNA Elektrophorese werden jetzt 16 bit Graustufen Systeme angeboten (Beispiel).

Jeder Fotograf kennt das Problem.
In einem dunklen Raum mit Fenster ist entweder der Raum nicht hell genug belichtet oder die Umgebung,
die durch die Fenster sichtbar ist, ist überbelichtet.
(siehe Beispiel in Wikipedia).
Ein anderes Beispiel ist, wenn Biologen eine helle Pflanze auf dunklem Hintergrund fotografieren.
Sehr oft erscheinen die hellen Blüten als Flächen ohne Kontraste (Beispiel).

Die Fotografie mit High Dynamic Range Image (HDR) versucht dieses Problem zu lösen.
High Dynamic Range Image
(Wikipedia)
Es wird mit 16 Bit pro Farbkanal gearbeitet. Details in sehr hellen und in sehr dunklen Bildbereichen bleiben erhalten.
Leider gibt es noch wenige oder keine Bildausgabesysteme, die das darstellen könnten!
Die Herstellung von HDR-Bildern ist komplex und es gibt erst wenige Digitalkameras, die das bewältigen.
Es wird im Prinzip aus Belichtungsreihen ein HDR-Bild erzeugt.
Einige Bildbearbeitungsprogramme sind hier weiter und sind in der Lage HDR-Bilder darzustellen.
Die Hardware-Beanspruchung und der Speicherbedarf sind bei diesem Verfahren allerdings sehr groß.
Das kostenlose Hugin , enfuse und das komerzielle aber günstige Photomatix errechnen aus Einzelbilder ein neues Bild.

Obwohl das Auge mehr Farbunterschiede wahrnehmen kann, ist 24 Bit Farbtiefe (8 Bit pro Farbkanal) normalerweise völlig ausreichend.
Es gibt allerdings einige Bereiche (Mikroskopie, Gelscanner) und Anwendungen (HDR) die mit 48 Bit Farbtiefe arbeiten.





Wie berechnet man den Speicherbedarf eines Bildes?

Um einen besseren Druck- oder Bildeindruck zu erhalten, wird oft die Auflösung und die Farbtiefe erhöht.
Aber es ist sinnlos über eine bestimmte Größe zu gehen, wie bei der Auflösung (Auge) gezeigt wurde.
Allerdings lässt die menschliche visuelle Wahrnehmung höhere Farbtiefen zu, als von den Geräten überhaupt dargestellt werden können (Farbe sehen).
Hohe Auflösung und höhere Farbtiefe bedeutet aber, dass mehr Informationen in dem Bild gespeichert werden.
Große Dateien erschöpfen den Speicher einer Kamera, eines Computers oder Servers.
Bildbearbeitung dauert länger und erfordert leistungsfähigere Computer.
Daher ist genau abzuwägen, welche Auflösung und Farbtiefe eingesetzt werden soll.

In den meisten Bildformaten (tif, png, jpg,...) werden die Farbwerte der Pixel in dem Datenbereich der Datei einfach hintereinander geschrieben (siehe Abb. unten).
Die Dimension des Bildes, die Farbtiefe, Kompression und andere Informationen werden in einem besonderen Bereich der Datei, "header", geschrieben.

Zum Beispiel wird ein rotes Pixel bei 24 Bit Farbtiefe als binäre Zahl 11111111 00000000 00000000 geschrieben.
Und hat somit 3x8 = 24 Bit Speicherbedarf.
Zur besseren Lesbarkeit wird das übllicherweise als hexadezimale Zahl FF 00 00 (das ist als dezimal Zahl 255 0 0) geschrieben.

Beispieldatei 2x2 Pixel als tif

Ein 2x2 Pixel Bild im tif-Format
Abb.: Ein 2x2 Pixel Bild im tif-Format. Abbildung oben, rotes, grünes, blaues und weißes Pixel.
Die Farbwerte wurden in der Abbildung hier angegeben.
Die Datei wurde mit einem Hex-Editor (HxD) geöffnet, Abbildung unten.
Die Bits sind daher als Hexadezimalzahl dargestellt. Für rot wurde der Farbwert F10000,
für grün 00F200 und für blau 0000F3 verwendet. Weiß ist F4FFFF.
Statt FF wurde zur besseren Kennzeichnung F1, F2, F3 und F4 verwendet.


Wie in der Abbildung gezeigt wird, werden die Pixel in der Datei hintereinander geschrieben.
Woher weiß das Bildbearbeitungsprogramm wo das Pixel positioniert ist?
Zum Beispiel, dass das blaue Pixel als erstes in der 2. Reihe steht.
In der Datei muss noch die Dimension des Bildes abgelegt werden.
Diesen Bereich in der Datei wird "Header" genannt.
In unserem Beispiel 2x2, also 2 Pixel pro Reihe und 2 Pixel in der Spalte.
Außerdem wird im Header das Format (Tif) und weitere Angaben wie Farbmodell (RGB) festgehalten.

header:"Die Datei hat die Auflösung 2x2 und ist 10cm breit..." Pixel1 Pixel2 Pixel3 Pixel4 usw.
Schematischer Aufbau einer Bilddatei.



Der Speicherbedarf kann daher leicht berechnet werden. Dabei bleibt der Header nicht berücksichtigt.
Er macht auch nur einen kleinen Teil des gesamten Speicherbedarfs aus.

Häufig verwendete Farbtiefen

Anzahl Farben
Farbtiefe Bezeichnung
256
28
8 bit Graustufen
65.536
216
16 bit Rot: 5 Bit
Grün: 6 Bit
Blau: 5 Bit
High Color
16.777.216
224
24 bit 1 Byte (8 Bit) für jeweils R, G und B True Color, üblicher Standard
281.474.976.710.656 248 48 bit 16 Bit für jeweils R, G und B Beispiel hochwertiger Scanner

Farbtiefe Wikipedia



Beispielrechnung für 8 Bit je Farbe (3 Farben), 24 bit Farbtiefe

Breite Höhe Farbtiefe Speicher (Bit) Speicher (Byte) Speicher (MB)
1024 768 3 x 8 18.874.368 2.359.296 2,25
2048 1536 3 x 8 75.497.472 9.437.184 9,0

1024 x 768 = 786.432
786.432 x 3 x 8 =18.874.368 Bit
Da 8 Bit = 1 Byte sind:
18.874.368 / 8 = 2.359.296 Byte.
Das sind ca. 2,25 MB
Umrechnen von Bit in MB (Megabyte) siehe www.umrechnung.org.
1 MB = 1024 X 1024 Bytes.

Vereinfacht kann man Breite x Höhe x 3 / 1024 x 1024 = MB nehmen.
Noch einfacher Breite x Höhe x 2,86 .10-6 = MB

Hinweis: Bildkomprimierung wurde nicht berücksichtigt!


Aufgabe: Ein Farbbild mit 2,54 cm mal 2,54 cm und 100 dpi bei 8 Bit pro Farbkanal, insgesamt also 24 Bit Farbtiefe.
Wie hoch ist mindestens der Speicherbedarf des Bildes? (Antwort ist etwa 30 kB).
Wie hoch bei 200 dpi? (etwa 120 kB).
Also ein Bild mit doppelter relativer Auflösung hat vier Mal so hohen Speicherbedarf.

Teste das Ergebnis indem ein entsprechendes Bild in Gimp oder Photoshop gespeichert wird.
Achte auf das Dateiformat (Empfehlung ist Tif), keine Komprimierung einstellen (siehe unten)!





Grafikformate

Wikipedia

Wikipedia Grafikformat

Die wichtigsten Grafikformate für Rastergrafiken sind

Dateiendung Name Erläuterung
tif, tiff






Tagged Image File Format (TIFF)






Sehr vielseitiges universelles Format
  • Wegen der Unterstützung des CMYK-Farbraums
    wird es in Druckereien in der Druckvorstufe verwendet.
    Hochauflösende Bilder werden deshalb von einigen Firmen und Organisationen
    zum Herunterlanden (für die Presse) im Internet als TIFF angeboten.
    In der Mikroskopie angesagt, auch für Bilder mit mehreren Stacks (Ebenen)
  • Verlustfreie LZW Komprimierung möglich (max. ca. 40%)
  • 16 Bit pro Kanal möglich.
jpg Joint Photographic Experts Group Definiert verschiedene Untertypen, von denen nur wenige genutzt werden
  • Weitverbreitet für fotoähnliche Bilder
  • Meistens werden verlustbehaftete Komprimierung verwendet
    Immer noch das beste Format im Internet, um eine kleine Datei zu bekommen.
  • Diese sind ungeeignet für Text und harte Farbübergänge,
    zum Beispiel in Logos, hier besser GIF und PNG8.
png









Portable Network Graphics









Im Web weit verbreitet, inzwischen von allen Anwendungen unterstützt

Unterschiedliche Farbtiefen: PNG8 und PNG24 (Farbtiefe 8 bzw. 24 bit)

  • PNG8 leistungsfähigere Alternative für Einzelbilder im Vergleich zu GIF
  • Transparente Bereiche möglich
  • Ohne Animationsmöglichkeit (Dafür gibt es die abgeleiteten Formate MNG und APNG)
  • Das allgemein empfohlene Format für verlustfreie Komprimierung von Bildern,
    verlustfrei, daher können nicht so kleine Dateien erzeugt werden im vergl. zu jpg.
bmp Windows Bitmap Keine Verwendung im Internet.
Grund: Die schwache Komprimierung führt zu größeren Dateien
als bei Verwendung des GIF, JPG- oder des modernen PNG-Formats.
Die meisten Programme können allerdings BMP anzeigen.
gif Graphics Interchange Format Im Web weit verbreitet
  • Vorteil: GIF unterstützt auch einfache Animationen („Animiertes GIF“ giphy).
  • Nachteil: Nur 256 Farben, deshalb für Farbfotos nicht geeignet.
  • gif ist besser für Zeichnungen als das jpg-Dateiformat.
  • Verlustfreie Komprimierung (LZW-Komprimierung)
    solange die Anzahl der Farben nicht eingeschränkt werden.
  • Transparente Bereiche möglich.

Wird mehr und mehr durch PNG8 (PNG Palette oder PNG mit 256 Farben) ersetzt.
Das gif-Format war mit Lizenzstreitigkeiten belastet,
etwa 2006 sind die Lizenzen ausgelaufen und heute ist das Format frei
Heise Online 16.6.2012.

psd




Photoshop Document




Das von Adobe Photoshop verwendete Format
  • Speichert alle verwendeten Bilddaten,
    Informationen über Ebenen, Kanäle, Vektoren, etc.
  • Dementsprechend relativ große Dateien.
  • Auch viele andere Programme können psd-Dateien lesen bzw. schreiben.
xcf






GIMP-Bilddokument






Das von GIMP verwendete Dateiformat. Experimental Computing Facility.
  • Ist in der Lage, Ebenen, deren Verknüpfungen zu einem Gesamtbild und
    verschiedene Objekte wie etwa Textstellen zu speichern.
  • Ideal zum späteren Nachbearbeiten, da mit GIMP erstellte Bilder
    normalerweise in Ebenen und Objekte getrennt vorliegen.
  • Ab Version 2.10 kann auch 16 Bit je Farbkanal verwendet werden.
WebP


WebP



Dateiformat für Internetbilder und Animationen.
Komprimiert verlustbehaftet oder verlustfrei.
Wurde von Google als Konkurrent zu JPG und GIF entwickelt.
Soll bessere Bilder bei hoher Komprimierung liefern.
raw RAW Graphics Format/ Rohdatenformat Format für Digitalkameras.
Spezielle Programme notwendig,
um mit Hilfe von Kameraprofildateien andere Formate zu bekommen.



Formate für Vektorgrafiken

Dateiendung Name Erläuterung
svg Scalable Vector Graphics Für das World Wide Web entworfen.
Verbreitung nimmt zu,
weil neue Webbrowser es meistens standardmäßig unterstützen.
Textdatei, kann daher mit einfachem Editor gelesen und bearbeitet werden.
Format des Programms Inkscape
eps Encapsulated PostScript (EPS) Format für Zeichnungen in wissenschaftliche Zeitschriften
Beispiel PlusOne
Dateien für den Drucker
ai Adobe Illustrator Das Dateiformat von Adobe Illustrator,
kann mehr oder weniger von anderen Programmen auch gelesen werden.
Enthält alle Bearbeitungsinformationen.
Wird von vielen wissenschaftlichen Verlagen akzeptiert.
cdr Corel Draw Dateiformat von CorelDraw, wird auch von vielen Verlagen akzeptiert.
dwg, dwf AutoCAD CAD Format, technische Zeichnungen
emf Windows Enhanced Metafile Austauschformat, wird manchmal noch benutzt
um Dateien von einem Programm in das nächste zu transferieren
ps PostScript Dateien für den Drucker
swf Small Web Format / Shockwave Flash Veraltet!
Standard Grafik-und Animationsformat von Adobe Flash.
• Mit Kompression
• Es kann Bild oder Animationsdateien (mit Ton) enthalten.
Streambar
• Benötigt Webbrowserplugin.
• Im Web auf den Homepages großer Firmen weit verbreitet.
• Vollständiger Ersatz für das veraltete GIF Format

Flash wird seit 2021 von Adobe nicht mehr unterstützt.
Die meisten Browser unterstützen das Format nicht mehr.

wmf Windows Metafile altes Format, wird manchmal noch benutzt
um Dateien von einem Programm in das nächste zu transferieren




Bildkompression

Wikipedia

In Rastergrafiken wird um die Dateigröße klein zu halten, die sogenannte Bildkompression eingesetzt.
Dabei wird zwischen verlustfreier Kompression und verlustbehaftete Kompression unterschieden.
Es ist sehr wichtig diesen Unterschied zu kennen um Zerstörungen an
wissenschaftlichen Bilddaten durch Kompression zu vermeiden.

In der Tabelle der Dateiformate für Rastergrafiken wurde schon vermerkt,
wann eine verlustfreie Komprimierung möglich ist.

Verlustfreie Kompression

Bei der verlustfreien Kompression geht keine Information verloren.
Die Daten werden nur anders organisiert, indem Wiederholungen von Strukturen erkannt und diese "hierarchisch" dargestellt werden.
Beispiel ist die LZW Komprimierung der Tif-oder Gif-Dateiformate. Komprimierung ist im Schnitt etwa 40 %.
Für Internetbilder kann auch das png-Dateiformat für verlustfeie Komprimierung eingesetzt werden.
PNG benutzt den Deflate-Algorithmus (ähnlich ZIP oder gz-Format).

Verlustbehaftete Kompression

Hier wird das Bild verändert. Die Veränderung richtet sich nach dem "Komprimierungsgrad".
Je grösser der Komprimierungsgrad und damit je kleiner die Datei desto grösser ist die Veränderung am Bild.

Ein Beispiel ist das JPG-Dateiformat.

Das JPG2000 benutzt sowohl verlustfrei und verlustbehaftete Komprimierungen (Wavelet-Transformation - DWT).



Aufgabe:
Erstelle ein RGB-Bild 800 x 600 Pixel in Adobe Photoshop oder GIMP.
Zeichen einige Striche und Quadrate mit einem Gradienten und füge eine Schrift hinzu.
Photoshop - Menü Datei : Speichern für Web...

Betrachte das Ergebnis als jpg-Bild mit verschiedenen Komprimierungsgraden in der Vorschau.
Wie ist es als gif und png-Bild? Kann man Komprimierungsartefakte erkennen?

Es kann auch GIMP eingesetzt werden. Dazu einen Verlauf erstellen und mit Datei : Exportieren.. als JPG-Datei speichern.
Hohe Komprimierung einstellen. Mit der Einstellung Vorschau im Bildfenster kann das Resultat sofort sichtbar gemacht werden.




Beamer


InFocus IN34 DLP video projector -
Davepape, InFocus IN34, Verändert von Steinmetz, CC0 1.0

Ein Videoprojektor (Digitalprojektor) oder Beamer, ist ein Projektor, der Daten aus einem Computer,
DVD-Player, Videorekorder, USB-Stick erhält und ein Bild an eine Projektionsfläche wirft.

Übersicht (Wikipedia)

Hintergrundwissen (www.netzwelt.de)

LCD oder DLP

LCD für jede Farbe ein durchlässiger TFT-Chip, Verunreinigung leichter möglich, Konvergenzfehler

DLP Farbrad (Geräusch, Regenbogeneffekt), Spiegelchen in der Auflösung auf einem Chip. Erreicht guten Schwarzwert.

Die neuste Entwicklung sind LED Projektoren. Es wird die DLP- oder LCD Technik verwendet.
Lichtquelle ist eine LED-Lampe. Die Lebensdauer der LED - Lampe ist bedeutend länger.
Die Lichtstärke ist allerdings noch nicht so groß.
Es muss weniger gekühlt werden, daher keine Lüftergeräusche.






Dieter Steinmetz, Universität Tübingen, ZMBP - Kursübersicht - Im Skript suchen