Wie funktioniert eine Kamera?

Technische Details I.

Kurzfassung

Auf dieser und der folgenden Seite geht es um technische Besonderheiten der Digitalkameras. Für das eigentliche Fotografieren sind diese nicht so entscheidend wie Belichtungszeit und Blende. Wenn Sie gerade die Grundlagen des Fotografierens lernen wollen, sind diese Punkte für Sie wohl (noch) nicht so wichtig. Kommen sie einfach etwas später wieder zu diesem Bereich zurück.
Im Gegensatz zu den analogen Kameras weisen Digitalkameras durch den besonderen Typ "Film" einige technische Details auf, die man beachten sollte.
Auf einige dieser Punkte werde ich jetzt hier und auf der folgenden Seite eingehen.

Ausführlich:

Bei den zurzeit wohl am meisten genutzten Digitalkameras auf der Basis von Sucher -, Bridge-, System- und Spiegelreflexkameras bilden die eigentliche Kamera und der Aufnahmechip, der den Film ersetzt, fast immer eine untrennbare Einheit. Dadurch wird das Kameragehäuse wesentlich wichtiger als in der analogen Welt.

Während analog die Qualität der Bilder primär vom Film und dem verwendeten Objektiv abhing, ist die Aufgabe des Films (und damit auch seine Bedeutung für das Bild) nun in den Kamerabody gewandert.

Man kann zur Veränderung (Verbesserung) der Bildqualität nicht mehr wie früher mal eben den Film wechseln. Statt dessen lassen sich nun aber (im Rahmen der Möglichkeiten der Kamera) die besonderen Eigenschaften eines Films (Auflösung, Empfindlichkeit, Kontrast , Farbsättigung , Farbe oder S/W, Korn) direkt an der Kamera oder in der Ausarbeitung der Rawdateien einstellen.

Der digitale Film
Eine eigentlich besonders naheliegende Form digitaler Bildaufzeichnung hat es immer noch nicht geschafft, auch nur Marktreife zu erlangen.
Der "digitale Film", der anstelle der Kleinbildfilmpatrone in jeder Kamera genutzt werden könnte, wird zwar seit Jahren angekündigt, aber bis auf ein zu teures Exemplar mit schlechten Werten und zu geringer Chipgröße, das nur in einigen wenigen Profikameras eingesetzt werden konnte, ist davon noch nichts zu sehen gewesen.
Und es wird ihn wohl auch nicht mehr geben.

Die Bildaufzeichnung (-erfassung)

Der Hauptunterschied zwischen analogen und digitalen Kameras liegt natürlich in der Art der Bilderfassung. Als Ersatz für den analogen Film werden bei digitalen Kameras zur Aufzeichnung des Bildes Sensoren und zur Speicherung verschiedene Speichermedien eingesetzt.

Um zu verstehen, wie die Aufnahmesensoren arbeiten, ist es sinnvoll, sich zuerst ein digitales Bild anzusehen. Es baut sich, im Gegensatz zum analogen Silberbild, aus einem gleichmäßigen Raster unterschiedlich heller (und unterschiedlich gefärbter) Punkte auf.

Diese in Spalten und Reihen angeordneten Punkte sind die Pixel (von Picture Elements). Sie sind die kleinste Einheit des digitalen Bildes, quasi das Atom des digitalen Bilder.

Der Aufnahmesensor ist das Herzstück einer jeden Digitalkamera.
Hier ist er in sogenannter Vollformatgröße zu sehen, also in den gleichen Abmessungen wie ein Kleinbildnegativ.
Man kann Ihn an einer DSLR nur sehen, wenn (während der Belichtung oder mit der Sensorreinigungsfunktion) der Verschluss geöffnet und der Spiegel hochgeklappt wurde.
Vorsicht, der Sensor ist empfindlich (und teuer)!


Die Auflösung, also die Menge an Pixeln, die für die Aufzeichnung bzw. Wiedergabe eines Bildes zur Verfügung steht, ist ein wichtiges Qualitätskriterium. Ähnlich wie ein digitales Bild ist auch der "digitale Film" (also der das Bild aufzeichnende Sensorchip) aufgebaut. Auch er besteht aus einem gleichmäßigen Raster aus einzelnen lichtempfindlichen Zellen. Es gibt verschiedene Bauweisen dieser Bildsensoren, zum einen die CCD – und die CMOS-Chips und zum anderen den sehr selten verwendeten "Foveon"-Typ.

Der grundlegende Aufbau zur Bilderfassung ist fast gleich, die Sensoren "sehen" das Licht über Spalten und Reihen lichtempfindlicher "Fotozellen", die darauf warten, einen Lichtstrahl zu erhaschen. Durch die auftreffenden Photonen steigt dann in der jeweiligen lichtempfindlichen Zelle die elektrische Ladung. Und je mehr Licht auftrifft, desto stärker steigt die Ladung. Bis hierher ist das alles noch analog, doch beim Messen der Ladung der einzelnen Zellen werden die ermittelten Werte dann digitalisiert, ihre Intensität wird in digitale Zahlenwerte gewandelt.

Die lichtempfindliche "Schicht" eines solchen Sensors besteht also aus vielen einzelnen "Fotozellen", die Zeile für Zeile und Spalte für Spalte angeordnet sind und bei auftreffendem Licht, ganz ähnlich zu einem Solarpanel auf dem Hausdach, elektrischen Strom erzeugen.

Die Menge an Pixeln, die zur Bildaufzeichnung zur Verfügung steht, ist ein Qualitätsmerkmal der jeweiligen Kamera, die sogenannte Auflösung, meist angegeben im Megapixeln, also Millionen Pixeln.

Während zu Beginn der Entwicklung der digitalen Fotografie lediglich 100000 oder gar nur 50000 Bildpunkte aufgezeichnet wurden, steigerte sich die Zahl der "Fotozellen" im Laufe der Zeitbis) auf die heute (2016) erhältlichen 16 oder 24 oder gar 36 Megapixel (und mehr).

Auflösung beim Film
Ein guter Kleinbildfilm kann, je nach Kontrastverhältnissen und Objektiv, so viel Bildinformationen speichern, dass diese einem digitalen Bild von 10 bis 20 Millionen Pixeln entsprechen. Bei den üblichen 10/15-Vergrößerungen aus dem Drogeriemarkt wird von diesen Informationen aber nur ein kleiner Teil genutzt, so dass dafür zwei bis drei Millionen Bildpunkte durchaus reichen können.

Leider sind diese Zahlen aber nicht ganz so vertrauenswürdig, wie sie auf den ersten Blick erscheinen. Die "Fotozellen" auf der Sensoroberfläche können nämlich nur Hell und Dunkel unterscheiden, sie sind also einem analogen Schwarzweißfilm vergleichbar. Das von ihnen erfasste Bild ist monochrom. (Eine Ausnahme bilden die Foveon-Chips, die aber bisher nur in den Kameramodellen eines einzigen Herstellers (Sigma) eingebaut werden.)

Und jetzt in Farbe

Damit auch bei den üblichen Aufnahmesensoren (meist CCD und CMOS) Farbe ins Spiel kommen kann, muss man mit einem Trick arbeiten. Um das Vorgehen zu erklären, zäumen wir der Einfachheit halber das Pferd vom Schwanz her auf. Ein farbiges Bild kann man in drei Bilder zerlegen, von denen jedes nur den Bildanteil einer Farbe wiedergibt.
Meist werden zum Bildaufbau die Farben Rot, Grün und Blau genutzt (RGB). In der Kamera könnte man nun diese drei Teilbilder von je einem monochromen (also nur helligkeitsempfindlichen) Sensor, der durch einen Filter nur die jeweilige Farbe zu sehen bekommt, aufnehmen lassen. Anschließend würden die drei entstehenden schwarzweißen Bilder als Farbanteile des Farbbildes genutzt (gemischt), man hätte ein Farbbild.

Dieser Trick ist übrigens keineswegs neu, im Gegenteil, er ist "uralt" und wurde ähnlich auch schon zu den Anfangszeiten der analogen Farbfotografie angewandt.
Im Jahr 2014 und danach gab es zum Thema frühe Farbfotografie eine Ausstellung in Deutschland, unter www.tom-striewisch.de finden Sie meinen Bericht dazu.

Bei hochwertigen Fernsehkameras (und früher auch bei einigen wenigen digitalen Fotoapparaten der Spitzenklasse) wurde das Bild tatsächlich per Strahlenteiler auf drei Aufnahmesensoren gelenkt, vor denen jeweils ein Farbfilter sitzt.
Da dieser Vorgang aufwendig und drei Sensoren recht teuer sind, nutzt(e) man bei manchen Studiokameras ein spezielles Verfahren, bei dem dasselbe Bild dreimal hintereinander durch jeweils unterschiedliche Farbfilter auf den gleichen Chip belichtet wird.
Das geht aber natürlich nur bei unbewegten Motiven, da das aus den drei Teilbildern zusammengesetzte Farbbild sonst bunte Säume am Rand bewegter Motivdetails aufweisen würde.
Beide Verfahren sind also bei den üblichen Digitalkamera sowohl unsinnig (wegen bewegter Motivdetails) als auch zu teuer (das Strahlenteilerverfahren benötigt drei teure Sensoren). Deshalb geht man einen anderen Weg.

Die einzelnen Pixel eines Aufnahmesensors werden jeweils unterschiedlich gefiltert. Vor jeder Fotozelle sitzt dann ein kleiner Filter mit einer Farbe, meist entweder Rot, Grün oder Blau. Die Filter sind aber nicht gleichmäßig aufgeteilt, sondern es werden von den Bildsensoren ein Viertel rot, ein Viertel blau und die verbleibende Hälfte grün gefiltert. Das entspricht in der Verteilung in etwa der menschlichen Wahrnehmung, die deutlich grünorientiert ist. Diese Filterungsmuster nennt man Bayerpattern. Einige Hersteller verwenden aber auch andere Farben und Anordnungen.


Bayerpattern


Da nun jeder Bildpunkt nur eine Farbe "sehen" kann, müssen für das spätere farbige Bild für jeden Bildpunkt die Informationen aus jeweils drei Punkten zusammengerechnet werden. (Man nennt das Verfahren "Demosaicing "). Das klingt zwar plausibel und exakt, aber leider kann man durch Rechnen nicht alle Probleme lösen. Wenn z. B. ein von einem roten Motivpunkt ausgehender "Lichtstrahl" nur einen blauen Sensor trifft, so ist er nahezu unsichtbar. Der Sensor kann nicht nur die Farbinformation "Rot" nicht sehen, sondern auch die Helligkeit des ihn treffenden Lichtstrahls bleibt unbekannt. Obwohl der rote Motivpunkt also so hell ist, dass er "gesehen" werden müsste, kann die Kamera ihn nicht aufzeichnen. (Aus diesem Grunde sind auch Schwarzweißaufnahmen farbiger Motive, wenn sie mit solchen Digitalkameras auf genommen wurden, in ihrer Detailgenauigkeit nicht besser als die Farbbilder.) Die tatsächlich bildwirksame Auflösung ist also keinesfalls so hoch, wie die Anzahl lichtempfindlicher "Fotozellen", die in der Werbung gerne so herausgehoben dargestellt wird, vermuten lässt.

Es sind zwar so viele lichtempfindliche Zellen/Bildpixel vorhanden wie angegeben, aber nach der Interpolation (beschönigend für "Raten") des Demosaicings bleiben davon nur ca. zwei Drittel echter Bildinformationen übrig.
Das Bild einer 20-Megapixel-Kamera kann man also in der Auflösungsqualität keinesfalls mit einem entsprechend pixelreichen Scan vergleichen. Durch geschickte Filteraufteilung und clevere Interpolationen kommt man in der Praxis aber doch zu einer realistischen Bildpunktezahl, die bei etwa 60 bis 70 Prozent der lichtempfindlichen Zellen liegt.


Farbinterpolation


In Zukunft werden diese Einschränkungen bei der Farbaufzeichnung, wie viele andere auch, aber hoffentlich nach und nach verschwinden. So werden bereits seit einiger Zeit vereinzelt Chips wie der Foveon-Sensor eingesetzt, die ohne solche Filter arbeiten. Sie machen sich die Tatsache zunutze, dass unterschiedliche Lichtfarben unterschiedlich tief in die Siliziumschicht eindringen können. Die lichtempfindlichen Bereiche für unterschiedliche Farben werden dann "einfach" in unterschiedlicher Tiefe angeordnet.
In der Theorie ist das Verfahren hervorragend, in der Praxis scheint es das aber zurzeit (2016) noch nicht ganz so zu sein.

Sensorgröße

Die Größe des Sensors wirkt sich stark auf seine Eigenschaften aus. Ein kleiner Sensor (der viel preiswerter zur produzieren ist) erhält auf seiner kleineren Fläche bei sonst gleichen Bedingungen weniger Licht vom Motiv als ein größerer Sensor, der denselben Ausschnitt fotografiert. Bei gleicher Anzahl von (Mega-)Pixeln ist auch jeder einzelne Sensorpunkt auf der kleineren Fläche kleiner, er erhält so weniger Licht.
Weniger Licht bedeutet weniger elektrische Energie. Evtl. so wenig, das sie gar nicht gut gemessen werden kann. Die Informationsausbeute muss dann beim Auslesen des Sensors erst verstärkt werden, wodurch leider auch Fehler wie das Grundrauschen des Sensors verstärkt werden.
Das so in dunklen Bildbereichen und bei Bildern, die mit wenig Licht aufgenommen wurden, besonders stark sichtbare Rauschen ist eines der größten Probleme der kleineren Sensoren.

Neben dem Rauschen unterscheiden sich unterschiedlich große Sensoren auch in der Schärfentiefe. Bei gleichem Aufnahmeabstand und gleichem Bildausschnitt (dazu muss die Brennweite angepasst werden, siehe Kapitel Objektiv) und gleicher Blende erzeugen Kameras mit großen Sensoren weniger Schärfentiefe als Kameras mit kleineren Sensoren. Je nach Aufnahmesituation und Gestaltungswunsch kann das eine oder das andere von Vorteil sein.

Kontrastumfang

Im folgenden werde ich auf ein paar typische Probleme der digitalen Bildaufzeichnung ( Kontrastverhalten, Blooming , Rauschen , Hotpixel , Moiré ) eingehen, da sie zum Teil eng mit den Eigenschaften des jeweiligen Sensors zusammenhängen. Danach geht es dann weiter mit den sonstigen technischen Details der Digitalkameras, z. B. Speichermedien .

Kontrastverhalten
Der Helligkeitsumfang, den der Sensor aufzeichnen kann, ist ebenso begrenzt wie beim analogen Film. Ein üblicher Bildsensor kann beispielsweise Helligkeitsinformationen, die etwa acht oder neun Blendenstufen auseinanderliegen, wiedergegeben. Damit liegt er nur knapp über dem Kontrastverhalten normaler Diafilme. So weit, so gut!
Das Kontrastverhalten der Digitalkameras weist darüber hinaus im Gegensatz zum Film eine schöne Linearität zwischen hellster und dunkelster Bildstelle auf. So weit noch besser!

Doch an den Endpunkten ist dann endgültig und leider ganz abrupt Schluss. Während beim analogen Film der übergang zwischen Hellgrau und Weiß bzw. Dunkelgrau und Schwarz fließend ist, es also nicht zu harten Kanten zu Weiß und Schwarz kommt, haben Digitalkameras da ein viel ungünstigeres Verhalten. In den schwarzen bzw. weißen Partien ist bei Ihnen überhaupt keine Information mehr enthalten, so dass man dort auch nichts mehr "rauskitzeln" kann. Bei analogem Filmmaterial (Negativmaterial) dagegen kann man Bildbereiche, die im Schwarz oder Weiß versinken, sichtbar machen, indem man sie beim Vergrößern entsprechend berücksichtigt (Abwedeln und Nachbelichten ). Erst in den äußersten Extremen geht das dann irgendwann auch nicht mehr.


Gerettet
Die Möglichkeiten der Nachbearbeitung durch den analogen Farbnegativfilm haben die verschiedenen Entwicklungsdienste und Fotolabore früher gerne genutzt. Diese Firmen leben ja davon, dass Sie als Kunde an der Bildertheke möglichst viele Bilder mitnehmen und nur wenige als unbrauchbar ablehnen.
Also versuchte man, auch stark fehlbelichtete Bilder zu retten. Das galt nicht nur für die Fehler des Fotografen bei der Belichtungseinstellung. Auch die nicht seltenen Fehler der Belichtungsautomatiken konnten so quasi ungeschehen gemacht werden.
Das "gnädige" Verhalten des Farbnegativmaterials kam den Laboren dabei sehr entgegen.
Bei digital fotografierten Bildern ist dieser Spielraum meist enger, da lässt sich nicht so viel retten. Die Aufnahmen müssen deshalb besser (präziser) belichtet werden. Auch die Fehler der Belichtungsautomatiken wirken sich so stärker aus.

Das geht mit digitalen Bildern nicht. Stattdessen werden Bereiche, die außerhalb des Aufzeichnungsspektrums liegen, einfach abgeschnitten und als reines Weiß oder Schwarz wiedergegeben. Und während der analoge Film in diesen Bereichen einen langsamen, kontinuierlichen übergang erzeugt, "reißen" bei den digitalen Aufnahmen die übergänge ab. Das führt zu sehr hässlichen weißen oder schwarzen Stellen im Bild. Die zu hellen Bereiche haben darüber hinaus noch die unschöne Tendenz, zu "überstrahlen" (Blooming, siehe nächste Seite) und auch benachbarte Bildbereiche mit ins Weiß zu ziehen.
Da das Abreißen im hellen Bereich bei überbelichtung stärker ins Auge fällt (zum Beispiel durch klatschweiße, strukturlose Partien in Wolkenpartien) als der Verlust im Schattenbereich, sollten Sie bei digitalen Kameras (ähnlich wie bei Diafilm) das Hauptaugenmerk eher auf die Belichtung der Lichter legen.

Die Aufnahmesensoren werden aber erfreulicherweise auch in diesem Zusammenhang immer besser und das Problem ist bei weitem nicht mehr so dramatisch wie noch vor zehn Jahren. Es ist erstaunlich, was sich mittlerweile aus den aufgezeichneten Daten machen lässt.

Clippinganzeige
Sehr hilfreich bei der Beurteilung der Belichtung ist eine hervorgehobene Anzeige des "Clippings". Damit kann man die Bereiche des Motivs, die bei der verwendeten Belichtung reinweiß werden würden, besser und schneller erkennen, so dass man für ein zweites Bild des Motivs korrigierend eingreifen kann. Die Kameras lassen dazu diese Bereiche bei der Wiedergabe des eben fotografierten Bildes abwechselnd schwarz und weiß blinken.
Und auch das Histogramm gibt Auskunft über die Verteilung der Helligkeit.

"Expose to the right!"
Es handelt sich bei diesem Verfahren um eine Technik für den fortgeschrittenen Fotografen, der die Möglichkeiten der Aufnahmesensoren optimal ausnutzen will.

Um möglichst viel Information im späteren Bild zu haben, ist es oft besser, die Belichtung nicht, wie bei analoger Fotografie üblich, auf die richtige Wiedergabe mittlerer Helligkeiten zu legen.
Stattdessen sollten Sie versuchen, das Bild so hell zu belichten, dass es gerade eben noch nicht zu einem Abreißen der für das Bild wichtigen hellen Bereiche kommt. Im Histogramm wandern die angezeigten Helligkeiten so nach rechts (to the right).
Jedes stärkere Belichten würde Informationen ("Zeichnung") in den hellen Bereichen vernichten, jedes knappere Belichten dagegen würde dem späteren Bild Schattenzeichnung wegnehmen.

Wenn nun in der Folge möglichst viele Informationen im Bild sind, aber die mittleren Grautöne nicht stimmen, können Sie das mit den entsprechenden Werkzeuge im Rawkonverter Ihrer Wahl oder in der Bildbearbeitung mit der Tonwertkorrektur oder den Gradationskurven leicht selektiv anpassen, ohne die Lichter oder Schatten zu stark zu verändern.
Da eine Nachbearbeitung nötig ist, empfiehlt sich dieses Vorgehen natürlich nur, wenn Sie die Bilder auch wirklich nachbearbeiten können. Bilder, die direkt und ohne "Umweg" über den PC beispielsweise an einem Bestellterminal von der Speicherkarte ausgedruckt werden sollen, sollten Sie besser nicht auf diese Art fotografieren.

Sozusagen als Ausgleich für die Aufnahmeprobleme mit dem Kontrast kann man bei digitalen Bildern (die natürlich durchaus auch gescannte analoge Bilder sein können) sehr einfach das Kontrastverhalten im linearen Teil der Kurve ändern. Wer will, kann diese Veränderung auf bestimmte Teile der Kurve eingrenzen. Das ist etwas, das in der klassischen Dunkelkammer (erst recht in Farbe) so gut wie gar nicht möglich war.
Und wenn das Motiv es zulässt, kann man darüber hinaus auch mit mehreren unterschiedlichen Belichtungen und etwas "Zaubern" in der Bildbearbeitung nachträglich den Kontrastspielraum drastisch verbessern. Mehr dazu unter "HDR".

Rauschen

Das Rauschen des digitalen Films tritt überwiegend bei längeren Belichtungen und in dunklen Bildbereichen auf. Dieses schwache, aber doch leider gerade in dunklen Bildbereichen gut erkennbare unregelmäßige Pixelmuster ist ein negatives Qualitätsmerkmal (im Sinne von "je weniger, desto besser") der Aufzeichnungschips. Auf diesem Gebiet haben die Kamerahersteller (eigentlich die Sensorhersteller) in den letzen Jahren große Fortschritte gemacht. Kein Vergleich mehr zu meinen ersten Digitalkameras von vor und nach der Jahrtausendwende.


25600 ISO, hier inder 100% Ansicht, erzeugen auch bei großen Sensoren starkes Rauschen. So dramatisch ist es später im Bild natürlich nicht sichtbar, es handelt sich um einen sehr kleinen Ausschnitt aus dem Original, er entspricht einem 0,1 Megapixelbild.

Das Rauschen entsteht, weil einzelne Zellen des Chips auch dann eine schwache Ladung abgeben, wenn kein Licht aufgetroffen ist. Diese Ladung wird von der Kamera als Lichteinfall gewertet. In hellen Bildbereichen sieht man das kaum, weil dort die Zellen schon durch das Licht ihre Ladungen abgeben, aber da, wo es im Bild dunkel oder schwarz sein sollte, fällt das "falsche Licht" des Rauschens deutlich auf. Gerade bei langen Belichtungszeiten (Nachtaufnahmen) kann es auch einfach durch die Dauer der Belichtung viel öfter passieren, dass Chips Fehlladungen abgeben.

Hohe Temperaturen verstärken die Neigung der Kamera zu Rauschen. Es ist eine schlechte Idee, schwarze Fotoapparate längere Zeit in die Sonne zu legen. Für astro nomische Aufzeichnungen, die häufig über einen langen Zeitraum belichtet werden, und im Bereich der Studiofotografie gibt es sogar Aufnahmechips mit aktiver Kühlung.

Man kann das Rauschen unterdrücken, viele Rawkonverter und Bildbearbeitungen bieten das (mehr oder weniger gut) an. Aber man bezahlt das mit einem Verlust an Detailauflösung.

Es gibt auch eine recht zuverlässige Möglichkeit, das Rauschen noch im Nachhinein ohne allzu starke negative Auswirkungen zu bekämpfen. Dazu muss man direkt an Ort und Stelle noch eine zusätzliche Aufnahme mit den gleichen Einstellungen der Belichtungszeit, aber geschlossenem Objektiv (Deckel aufsetzen oder Hand davor halten) machen. Dieses "Bild" nennt man den "Darkframe".
Das Bild und der Darkframe werden anschließend in der Bildbearbeitung miteinander verrechnet. Dabei ist es wichtig, diese zweite Aufnahme unmittelbar nach der Belichtung des eigentlichen Bildes zu machen, da sich sonst das Muster des Rauschens verändern könnte.
Früher war das Handarbeit, heute erledigen einigermassen aktuelle Kameras diese Aufgabe, je nach Einstellung im Menu, automatisch direkt nach der eigentlichen Aufnahme. (Wegen das dazu nötigen zweiten Bildes dauern Langzeitbelichtungen dann oft doppelt so lange wie die eigentlich Belichtungszeit.)

Mit einer speziellen Kombination von Aufnahmetechnik und Nachbearbeitung lässt sich auch starkes Rauschen drastisch reduzieren. Hier bei den Tipps der Fotoschule-Ruhr finden Sie diese Technik erklärt.
Auch so etwas beherrschen einige Kamers heutzutage(2016) automatisch.

01

Moiré

Diese Muster sind kein Fehler des Aufnahmechips (oder des Objketivs). Sie entstehen, wenn sich das feine Raster der lichtempfindlichen Zellen auf dem Sensor mit einem Raster im Bild (z. B. einem Stoffgeflecht oder einem kleinen Karomuster) überlagert.

In den betroffenen Bildbereichen sieht man zum einen ein Doppelmuster, wie sie durch die überlagernde Wellenringe nach mehreren mehr oder weniger gleichzeitigen Steinwürfen in einen See entstehen. Auch die Farben verändern sich oft, wenn ein Moiré vorliegt; besonders gut wird das bei grauen Motivdetails sichtbar.


Moiré

Die Hersteller versuchen, die Bildung von Moirés durch spezielle Filter vor dem Sensor zu verhindern. Da diese Filter aber das Bild etwas unschärfer machen, ist es ein Kompromiss. Entweder man hat mit etwas Pech sichtbare Moirés oder man muss eine etwas stärkere Unschärfe in Kauf nehmen.

Wiedergabemoirés
cute;s können aber auch durch das Wechselspiel des in Punkten vorliegen digitalen Bildes und eines in Punkten darstellenden Wiedergabemediums (z. B. der Monitor und das Kameradisplay) auftreten. Solch ein Moiré ist natürlich kein Bestandteil des Bildes, sondern es taucht nur in bestimmten Vergrößerungsmaßstäben in der Bildwiedergabe auf und ist in der 100%-Ansicht verschwunden. Zum Überprüfen der Art des Moirés (im Bild ist es schlecht; nur in der Wiedergabe ist es nicht so schlimm) sollten Sie das Bild in der 100%-Ansicht betrachten.

Als Abhilfe gegen "echte" Moirés kann man beim Fotografieren versuchen, die Wirkung der Muster aufeinander zu verändern, indem man den Aufnahmeabstand und -winkel ändert.

Mit einigen Programmen, u.a. meinem Lieblings-Rawkonverter Lightroom lässt sich das Moiree mit einem spezielle Werkzeug ohne großen Aufwand sehr effektiv entfernen. Alternativ kann man im Nachhinein in der Bildbearbeitung nur versuchen, mit dem "Gauß’schen Weichzeichner" mit kleinen Werten das Moiré zu entschärfen. Die einzelnen Farbkanäle sollten dafür getrennt behandelt werden. Auf derWebsite der Fotoschule-Ruhr finden Sie unter den Tipps eine Anleitung zu einer aufwendigen, aber auch wirkungsvollen Technik zum nachträglichen Entfernen des Moirés.

Hotpixel/defekte Pixel

Im Gegensatz zum Rauschen, zu dem alle Bildsensoren mehr oder weniger stark neigen können, sind Hotpixel und defekte Pixel auf einzelne lichtempfindliche Zellen beschränkt. Sie sind auch bei kürzeren Belichtungszeiten sichtbar und immer an derselben Stelle im Bild. Hotpixel zeigen sich besonders deutlich in dunklen Bildpartien, wo sie als farbige Punkte hervortreten.

Es sind, vereinfacht gesagt, Bildpunkte, die sehr schnell zu "rauschen" anfangen, also sehr schnell "falsches" Licht zeigen. Defekte Pixel dagegen sind einfach schwarz, sie funktionieren eben nicht.

Die Produktion von Chips ist aufwendig und teuer, so dass die Hersteller, um die Kosten gering zu halten, auch "etwas defekte" Chips einsetzen. Wenn die fehlerhaften Bereiche ein bestimmtes Maß nicht überschreiten, kann man sie umgehen, indem man einfach die Bildinformationen benachbarter Zellen nutzt. Genauso wie ja schon wegen der Farbwiedergabe interpoliert wird, wird dann auch für die defekten Zellen der vermutliche Inhalt "geraten".

Wenn im Nachhinein, nach Ablauf der Gewährleistungs-/Garantiezeit, an Ihrer Kamera Fehlpixel auftauchen, können Sie versuchen, diese automatisch schon beim Import in den Rawkonverter oder mit einer standardisierten Vorgehensweise als "Batch " oder "Aktion" in der Bildbearbeitung herauszurechnen. Mehr Informationen dazu finden Sie im Kapitel Tipps.

Blooming

Ein weiteres Problem des digitalen Chips ist das Blooming. Damit bezeichnete man ursprünglich in der digitalen Fotografie einen Fehler, der durch den Aufbau der Aufnahmesensoren provoziert wurde. Sehr helle Bildbereiche erzeugen dabei in den entsprechenden "Fotozellen" durch die starke Belichtung eine so hohe Ladung, dass diese auf benachbarte, eigentlich dunkle belichtete Fotozellen "überspringt". Und so wandert dann eine solche Überbelichtung, wenn sie ausreichend groß ist, als heller Streifen bis an den Bildrand.

Der Fotolehrgang LIVE!

Ein Live-Fotokurs (Fotogrundlagen).
- mit Tom! Striewisch, dem Autor des Fotolehrgangs im Internet.

Ideal zum verschenken, schenken lassen oder auch sich selber schenken.

Mehr Informationen und Anmeldung zu den Fotokursen mit Tom! Striewisch hinter diesem Link.

Mittlerweile werden aber viele unterschiedliche Fehler zum Blooming gerechnet. Allen gemein ist, dass sie am Rand überbelichteter Stellen auftreten. So werden auch bunte Säume um diese hellen Bildbereiche herum zum Blooming gerechnet. Man kann das am besten bei Partien mit vielen Hell-dunkel-Grenzen, wie Laub vor hellem Himmel oder Spiegelungen in Chromteilen, beobachten.

Diese Farbsäume kann man leicht mit der chromatischen Aberration verwechseln, einem durch das Objektiv erzeugten Fehler. Ein Bildbeispiel finden Sie im Glossar.