Wie funktioniert eine Kamera?

Technische Details I.

Kurzfassung

Im Gegensatz zu den analogen Kameras weisen Digitalkameras durch den besonderen Typ "Film" einige (besser: viele) technische Details auf, die man bei der Bedienung (und beim Kauf) beachten muss.

Ausführlich:

Bei den zurzeit wohl am meisten genutzten Digitalkameras auf der Basis von Sucher -, Bridge- und Spiegelreflexkameras bilden die eigentliche Kamera und der Aufnahmechip, der den Film ersetzt, fast immer eine untrennbare Einheit. Dadurch wird das Kameragehäuse wesentlich wichtiger als in der analogen Welt. Während analog die Qualität der Bilder primär vom Film und dem benutzten Objektiv abhing, ist die Funktion und so auch die Bedeutung des Films für das Ergebnis nun in den Kamerabody gewandert.

Man kann zur Veränderung (Verbesserung) der Bildqualität nicht mehr mal eben den Film wechseln. Aber zum Ausgleich lassen sich (im Rahmen der Möglichkeiten der Kamera) die besonderen Eigenschaften eines Films (Auflösung, Empfindlichkeit, Kontrast , Farbsättigung , Farbe oder S/W, Korn) nun an der Kamera einstellen.

Anmerkung
Der digital Film
Eine eigentlich besonders naheliegende Form digitaler Bildaufzeichnung hat es immer noch nicht geschafft, auch nur Marktreife zu erlangen.
Der "digitale Film", der anstelle der Kleinbildfilmpatrone in jeder Kamera genutzt werden könnte, wird zwar seit Jahren angekündigt, aber bis auf ein zu teures Exemplar mit schlechten Werten und zu geringer Chipgröße, das nur in einigen wenigen Profikameras eingesetzt werden konnte, ist davon noch nichts zu sehen gewesen.

Display
Durch das bei fast allen Modellen vorhandene Display kann man an digitalen Sucherkameras einen Hauptnachteil analoger Sucherkameras, die Sucherparallaxe, umgehen. Auf dem Display ist das Bild so zu sehen, wie es fotografiert wird. Allerdings zeigen viele Kameras leider nur einen Ausschnitt des tatsächlich aufgezeichneten Bildes. Gerade bei den preiswerteren Kameras mit geringer Auflösung wäre es aber wichtig, den Bildausschnitt exakt bestimmen zu können. Doch genau dafür sind die Displays selbst manch höherwertiger Kameras noch zu ungenau, so dass man zwangsläufig überflüssiges "Fleisch" um das Bild erhält.

In letzter Zeit wächst die Zahl der Digitalkameras, die nur ein Display und keinen weiteren Sucher aufweisen, wieder an. Die Nachteile dieser Bauweise sind nicht zu übersehen. So wirkt sich das ständig aktive Display nicht gerade förderlich auf die Laufzeit des Akkus oder der Batterien aus. Und bei hellem Umgebungslicht, erst recht bei starker Sonneneinstrahlung, ist das Bild auf dem Display meist nur schlecht oder gar nicht zu erkennen.

Ein weiterer theoretischer Grund gegen solche Kameras ist die Tatsache, dass ein ständig laufendes Display Wärme produziert, die unerwünschtes Bildrauschen verstärken kann.

01

Auf der anderen Seite sind bei vielen kompakten Kamera, die zusätzlich noch einen Sucher haben, diese Sucher so schlecht, dass sie eher nur Alibicharakter haben und man de facto per Display fotografieren wird. Die Displays der verschiedenen Kameras unterscheiden sich ebenfalls. Sowohl in Hinsicht auf die reine Größe also auch in Bezug auf Bildauflösung, Kontrast , Helligkeit und Farbwiedergabe gibt es starke Unterschiede.

Das Display hat zwar keinen Einfluss auf die Qualität des aufgezeichneten Bildes, trotzdem ist es ein wichtiges Ausstattungsmerkmal der Digitalkameras.
Während bei digitalen Kompaktkameras das Display meist auch als Sucherersatz eingesetzt wird, ist das bei vielen digitalen Spiegelreflexkameras nicht möglich. Bei diesen wird das Licht vom Spiegel in den Sucher gelenkt und erreicht den Sensor erst bei der Aufnahme. Und wenn kein Licht zum Sensor kommt, bleibt das Display natürlich schwarz.
Aber mittlerweile gibt es eine wachsende Zahl von DSLRs mit "LiveView", die das Sucherbild auch vor der Belichtung auf dem Display zeigen.

Das Display ist oft das wichtigste Mittel zur Kontrolle der Kamera in Bezug auf Bildauswahl, aber auch zur nachträglichen Schärfekontrolle, so dass man ihm besondere Bedeutung beimessen sollte. Dem Prospekt lässt sich leider meist allenfalls die Displayauflösung entnehmen; um einen direkten Vergleich unterschiedlicher Modelle kommt man deshalb nicht herum.

Stromversorgung
Die meisten Digitalen können über Akkus betrieben werden, was bei dem enormen Stromhunger vieler Modelle auch unbedingt zu empfehlen ist.

Ladegeräte
Beim Einsatz von Batterien muss man damit rechnen, dass diese recht schnell "in die Knie gehen" und die Leistungsabgabe für die Kamera nicht mehr reicht. Diese Batterien können aber oft noch lange in anderen Geräten eingesetzt werden und sollten nicht gleich in der Recycling-Box beim Händler landen.

NiMh-Akkus können im Gegensatz zu Batterien recht lange hohe Leistungen abgeben, deshalb sind sie für Digitalkameras vorzuziehen. Während manche Kameras über handelsübliche Mignon-AA-Akkus versorgt werden können, benötigen andere Modelle herstellerspezifische Akkus.

Diese herstellerabhängigen Bauweisen bieten zwar einige Vorteile, z. B. kleinere Kameras aufgrund der auf das Kameragehäuse optimal angepassten Akkuform. Doch es gibt auch Nachteile. Die Akkus sind infolge mangelnder Konkurrenz meist teurer, und auch die Ladegeräte kann man nicht frei wählen. Man muss so die nicht immer optimalen Ladeweisen hinnehmen und ist auf die landesübliche Stromversorgung angewiesen. Auch der "Notfalleinsatz" mit üblichen Batterien ist unmöglich. Wenn dagegen Mignonakkus oder andere handelsübliche Akkuformen genutzt werden, kann man nicht nur die Akkus, sondern auch das Ladegerät – nach Ansprüchen und Geldbörse – frei wählen. Die heutzutage lange "Standzeit" vieler herstellerabhängiger Akkus entschädigt jedoch meist ausreichend für die Nachteile. Und mittlerweile gibt es, zumindest für die gängigsten Akkutypen, auch preiswerten Ersatz durch Fremdhersteller, die die Akkus teilweise zu einem Zehntel des Originalpreises anbieten.

Anmerkung

Ladegeäte
Das Thema Ladegeräte würde ein eigenes Buch füllen. Hier nur so viel: Die 5-Euro-Lader aus dem Supermarkt sind oft, gerade in unkundiger Hand, wahre Akkukiller.
Bei der Auswahl eines Ladegerätes sollten Sie auf folgende Punkte achten: Die Kapazität sollte für mindestens einen vollständigen Satz Akkus reichen.
- Eine Entladefunktion ist nützlich zum "Trainieren" der Akkus , gerade am Anfang der Nutzung. - Die Akkuladeschächte sollten einzeln überwacht und geschaltet werden, damit auch wirklich alle Akkus voll sind. - Die Ladezeit (Vollladung) sollte unter 8 Stunden liegen. - Wichtig ist eine Schaltung, die die Akkus auch nach Ladeschluss überwacht und gefüllt hält. - Das Ladegerät sollte auch mit ausländischen Stromnetzen (110–220 V) zurechtkommen.
"Mein" Ladegerät:

(Bei Bestellung über diesen Link erhalte ich Prozente von Amazon)

Und sein Sie bitte vorsichtig mit nicht zum Originalzubehör gehörenden Netzteilen. Sie können damit Ihre Kamera unter ungünstigen Umständen "grillen".

Bei einigen DSLRs gibt es als Zubehör Hochformatgriffe, die mit zwei Originalakkus oder mehreren Mignonzellen betrieben werden können. Im Notfall kann man für diese Kameras also sogar an der Tankstelle Batterien kaufen und verwenden. (Wenn man den entsprechenden Einsatz für den Hochformatgriff nicht zu Hause gelassen hat.)

Das Objektiv
Zum Thema Objektiv gibt es in diesem Fotolehrgang ein eigenes Ka – pitel (Seite 81). Da aber bei vielen Digitalkameras das Objektiv fester Bestandteil der Kamera ist, es also quasi dazu gehört, möchte ich auch an dieser Stelle zum Objektiv einige Anmerkungen machen. (Wenn Sie im Folgenden Verständnisprobleme haben, sollten Sie zuerst das Kapitel "Das Objektiv" in Ruhe lesen; dort werden alle Punkte ausführlich erklärt.)

Da die "Chips" vieler Digitalkameras im Verhältnis zum Kleinbildfilm recht klein sind, sind auch die üblichen Brennweiten der Objektive wesentlich kürzer. Deshalb ist die gestalterische Bedeutung der jeweiligen Brennweite unter Berücksichtigung der tatsächlichen Millimeterzahlen nicht auf Anhieb verständlich, eher sogar irreführend. So ist ein 20-mm-Objektiv bei Kleinbildkameras ein starkes Weitwinkelobjektiv, bei den meisten der kompakten Digital- und der Bridgekameras aber ein Teleobjektiv.

Um nun trotzdem die Wirkung der Objektive vergleichen zu können, werden als Anhaltspunkt oft die entsprechenden Brennweiten aus dem Kleinbildbereich angegeben. Es entspricht (als Beispiel auf Basis eines häufig vorkommenden Falls) dann ein 8–24-mm-Dreifachzoom einem 38–115-mm-Kleinbildobjektiv. In 8-mm-Stellung hat dieses Objektiv die gleiche Auswirkung auf die Bildgestaltung wie ein 38-mm-Kleinbild- Objektiv. Und bei 24 mm echter Brennweite ist die Wirkung entsprechend einem 115-mm-Objektiv an einer Kleinbildkamera . Es geht dabei also um die "gefühlte" Brennweite .

Allerdings lassen sich nicht alle Einflüsse des Objektivs auf das Bild so einfach übertragen oder umrechnen. Die Wiedergabe der Empfindung des Raumes im Bild ist zwar gleich (beim Weitwinkel wirkt der Raum sowohl analog als auch digital tief und weit, bei Teleeinstellung dagegen eher verdichtet), die Schärfentiefe verhält sich jedoch anders.

Der Bereich in der Tiefe des Motivs, der noch scharf wiedergegeben wird, ist gerade bei den Sucherdigitalkameras (und denen mit elektronischem Sucher ) wesentlich größer als bei Kleinbild, da sie meist sehr kleine Sensoren haben.

Vereinfacht kann man davon ausgehen, dass die Schärfentiefe bei einer solchen Digitalen der bei Kleinbild mit entsprechender ("gefühlter") Brennweite und wesentlich stärker geschlossener Blende entspricht. Um bei Kleinbild die gleiche Schärfentiefe zu erreichen, müsste die Blende um das Verhältnis der Brennweiten zueinander stärker geschlossen werden. Ein Beispiel: Wenn die Brennweite einer 38-mm-Kleinbildkamera der Brennweite einer 8-mm-Digitalkamera entspricht, ist das ein Verhältnis von 1 : 5 (die Genauigkeit soll reichen, exakt wäre es natürlich 1 : 4,75).

Blende 2.8 an der Digitalkamera mit 8 mm Brennweite entspricht in der Schärfentiefe dann (in diesem Beispiel) einem Kleinbildobjektiv mit 38 mm und Blende 14 (2.8 x 5).

Diese relativ größere Schärfentiefe kann zwar, gerade im Makrobereich oder bei der Landschaftsfotografie, von Vorteil sein, aber das Gestaltungsmittel der selektiven Schärfe ist so kaum zu nutzen. Die selektive Schärfe setzt man z. B. in der Porträtfotografie gern ein, um das Motiv vom unwichtigen Hintergrund zu lösen (mehr dazu im weiter hinten folgenden Kapitel Gestaltung).

Es ist bei einem kleineren Sensor nicht nur der tatsächlich scharfe Bereich größer, sondern auch der Übergang von scharf zu unscharf viel diffuser. Dadurch kann man auch bei Nahaufnahmen oft noch den Hintergrund erahnen.

Das ist der Gestaltung, um es vorsichtig auszudrücken, nicht immer dienlich. Sie sollten das Thema "Objektiv" auf jeden Fall noch vertiefe; lesen Sie dazu bitte das entsprechende Kapitel, dort werden die hier nur kurz angerissenen Punkte ausführlicher erläutert.

01

Die Bildaufzeichnung (-erfassung)
Der Hauptunterschied zwischen analogen und digitalen Kameras liegt natürlich in der Art der Bilderfassung. Als Ersatz für den analogen Film werden bei digitalen Kameras zur Aufzeichnung des Bildes Sensoren und zur Speicherung verschiedene Speichermedien eingesetzt.

Um zu verstehen, wie die Aufnahmesensoren arbeiten, ist es sinnvoll, sich zuerst ein digitales Bild anzusehen. Es baut sich, im Gegensatz zum analogen Silberbild, aus einem gleichmäßigen Raster unterschiedlich heller (und unterschiedlich gefärbter) Punkte auf.

Diese in Spalten und Reihen angeordneten Punkte sind die Pixel . Die Auflösung, also die Menge an Pixeln, die für die Aufzeichnung bzw. Wiedergabe eines Bildes zur Verfügung steht, ist ein wichtiges Qualitätskriterium. Ähnlich wie ein digitales Bild ist auch der "digitale Film" (also der das Bild aufzeichnende Sensorchip) aufgebaut. Auch er besteht aus einem gleichmäßigen Raster: einzelnen lichtempfindlichen Zellen. Es gibt verschiedene Bauweisen dieser Bildsensoren, zum einen die CCD – und die CMOS-Chips und zum anderen den "Foveon"-Typ.

Der grundlegende Aufbau zur Bilderfassung ist fast gleich, die Sensoren "sehen" das Licht über Spalten und Reihen lichtempfindlicher "Fotozellen", die darauf warten, einen Lichtstrahl zu erhaschen. Durch die auftreffenden Photonen steigt dann in der jeweiligen lichtempfindlichen Zelle die elektrische Ladung. Und je mehr Licht auftrifft, desto stärker steigt die Ladung. Bis hierher ist das alles noch analog, doch beim Messen der Ladung der einzelnen Zellen werden die ermittelten Werte dann digitalisiert, ihre Intensität wird in Zahlenwerte gewandelt.

Die lichtempfindliche "Schicht" eines solchen Sensors besteht also aus vielen einzelnen Fotozellen, die Zeile für Zeile und Spalte für Spalte angeordnet sind.

Anmerkung
Auflösung

Ein guter Kleinbildfilm kann, je nach Kontrastverhältnissen und Objektiv, so viel Bildinformationen speichern, dass diese einem digitalen Bild von 10 bis 20 Millionen Pixeln entsprechen. Bei den üblichen 10/15-Vergrößerungen aus dem Drogeriemarkt wird von diesen Informationen aber nur ein kleiner Teil genutzt, so dass dafür zwei bis drei Millionen Bildpunkte durchaus reichen können.


Die Menge an Pixeln, die zur Bildaufzeichnung zur Verfügung steht, ist ein Qualitätsmerkmal der jeweiligen Kamera, die sogenannte Auflösung. (Nicht immer werden alle Pixel gezählt oder alle gezählten Pixel des Chips genutzt, manche Randbereiche bleiben ohne Einfluss auf das Bild. Man sollte diese Zahlen also nur als ungefähre Werte betrachten).

Während zu Beginn der Entwicklung der digitalen Fotografie lediglich 100000 oder gar nur 50000 Bildpunkte aufgezeichnet wurden, steigerte sich die Zahl der "Fotozellen" im Laufe der Zeit über 800000 Pixel (1024 x 768), 3 Megapixel (1512 x 2048) auf die heute (2010) erhältlichen 15 oder 18 oder gar 25 Megapixel (also bis zu 25 Millionen Pixel).

Leider sind diese Zahlen aber nicht ganz so vertrauenswürdig, wie sie auf den ersten Blick erscheinen. Die "Fotozellen" auf der Sensoroberfläche können nämlich nur Hell und Dunkel unterscheiden, sie sind also einem analogen Schwarzweißfilm vergleichbar. Das von ihnen erfasste Bild ist monochrom.

Eine Ausnahme bilden die Foveon-Chips, die aber bisher nur in den Kameramodellen eines einzigen Herstellers (Sigma) eingebaut werden. Damit auch bei den üblichen Aufnahmesensoren (meist CCD und CMOS) Farbe ins Spiel kommen kann, muss man mit einem Trick arbeiten. Um den zu erklären, zäumen wir der Einfachheit halber das Pferd vom Schwanz her auf: Ein farbiges Bild kann man in drei Bilder zerlegen, von denen jedes nur den Bildanteil einer Farbe wiedergibt.

Der Aufnahmesensor ist das Herzstück einer jeden Digitalkamera.
Hier ist er in sogenannter Vollformatgröße zu sehen, also in den gleichen Abmessungen wie ein Kleinbildnegativ.
Man kann Ihn nur sehen, wenn (während der Belichtung oder mit der Sensorreinigungsfunktion) der Verschluss geöffnet und der Spiegel hochgeklappt wurde.
Vorsicht, der Sensor ist empfindlich (und teuer)!



Meist werden zum Bildaufbau die Farben Rot, Grün und Blau genutzt (RGB). In der Kamera könnte man nun diese drei Teilbilder von je einem monochromen (also nur helligkeitsempfindlichen) CCD , der durch einen Filter nur die jeweilige Farbe zu sehen bekommt, aufnehmen lassen. Anschließend werden die drei entstehenden schwarzweißen Bilder als Farbanteile des Farbbildes genutzt (gemischt), man hat ein Farbbild.

Dieser Trick
ist übrigens keineswegs neu – im Gegenteil, er ist "uralt" und wurde ähnlich auch schon zu den Anfangszeiten der analogen Farbfotografie angewandt.

Bei hochwertigen Fernsehkameras (und früher auch bei einigen wenigen digitalen Fotoapparaten der Spitzenklasse) wird das Bild tatsächlich per Strahlenteiler auf drei CCDs gelenkt, vor denen jeweils ein Farbfilter sitzt. Da dieser Vorgang aufwendig und drei CCDs recht teuer sind, nutzt(e) man bei manchen Studiokameras ein spezielles Verfahren, bei dem dasselbe Bild dreimal hintereinander durch jeweils unterschiedliche Farbfilter auf das gleiche CCD belichtet wird. Das geht aber natürlich nur bei unbewegten Motiven, da das aus den drei Teilbildern zusammengesetzte Farbbild sonst bunte Säume am Rand bewegter Motivdetails aufweisen würde. Beide Verfahren sind also bei den preiswerten Digitalkameras entweder unsinnig (wegen bewegter Motivdetails) oder zu teuer (das Strahlenteilerverfahren benötigt drei teure CCDs). Deshalb geht man einen anderen Weg.

Die einzelnen Pixel eines CCD – oder CMOS-Chips werden jeweils unterschiedlich gefiltert. Vor jeder Fotozelle sitzt dann ein kleiner Farbfilter, meist in den Farben Rot, Grün oder Blau. Die Filter sind aber nicht gleichmäßig aufgeteilt, sondern es werden von den Bild sensoren ein Viertel rot, ein Viertel blau und die verbleibende Hälfte grün gefiltert. Das entspricht in der Verteilung in etwa der menschlichen Wahrnehmung, die deutlich grünorientiert ist. Diese Filterungsmuster nennt man Bayerpattern. Einige Hersteller verwenden aber auch andere Farben und Anordnungen.


Bayerpattern


Da nun jeder Bildpunkt nur eine Farbe "sehen" kann, müssen für das farbige Bild für jeden Bildpunkt die Informationen aus jeweils drei Punkten zusammengerechnet werden. (Man nennt das "Demosaicing "). Das klingt zwar plausibel und exakt, leider kann man aber durch Rechnen nicht alle Probleme lösen. Wenn z. B. ein von einem roten Motivpunkt ausgehender "Lichtstrahl" nur einen blauen Sensor trifft, so ist er nahezu unsichtbar. Der Sensor kann nicht nur die Farbinformation "Rot" nicht sehen, sondern auch die Helligkeit des ihn treffenden Lichtstrahls bleibt unbekannt. Obwohl der rote Motivpunkt also so hell ist, dass er "gesehen" werden müsste, kann die Kamera ihn nicht aufzeichnen. (Aus diesem Grunde sind auch Schwarzweißaufnahmen farbiger Motive, wenn sie mit solchen Digitalkameras auf genommen wurden, in ihrer Detailgenauigkeit nicht besser als die Farbbilder.) Die tatsächlich bildwirksame Auflösung ist also keinesfalls so hoch, wie die Anzahl lichtempfindlicher "Fotozellen", die in der Werbung gerne so herausgehoben dargestellt wird, vermuten lässt.

Es sind zwar so viele lichtempfindliche Zellen/Bildpixel vorhanden wie angegeben, aber wenn man von Interpolationen (beschönigend für "Raten") absieht, bleibt davon nur etwa ein Drittel echter Bildinformationen übrig. Das Bild einer 6-Megapixel-Kamera kann man also in der Auflösungsqualität keinesfalls mit einem entsprechend pixelreichen Scan vergleichen. Durch geschickte Filteraufteilung und clevere Interpolationen kommt man in der Praxis aber doch zu einer realistischen Bildpunktezahl, die bei etwa 60 bis 70 Prozent der lichtempfindlichen Zellen liegt.


Farbinterpolation


In Zukunft werden diese Einschränkungen bei der Farbaufzeichnung, wie viele andere auch, aber wohl nach und nach verschwinden. So werden bereits seit einiger Zeit vereinzelt Chips wie der Foveon-Sensor eingesetzt, die ohne diese Filter arbeiten. Sie machen sich die Tatsache zunutze, dass unterschiedliche Lichtfarben unterschiedlich tief in die Siliziumschicht eindringen können. Die lichtempfindlichen Bereiche für unterschiedliche Farben werden dann "einfach" in unterschiedlicher Tiefe angeordnet.

In der Theorie ist das Verfahren hervorragend, in der Praxis scheint das aber zurzeit (2010) noch nicht ganz so zu sein.

Die Größe des Sensors wirkt sich stark auf seine Eigenschaften aus. Ein kleiner Sensor (der preiswerter zur produzieren ist) erhält auf seiner kleineren Fläche bei sonst gleichen Bedingungen weniger Licht vom Motiv als ein größeren Sensor, der denselben Ausschnitt fotografiert. Bei gleicher Anzahl von (Mega-)Pixeln ist auch jeder einzelne Sensorpunkt kleiner, er erhält so weniger Licht. Die Informationsausbeute muss also beim Auslesen des Sensors verstärkt werden, was leider auch Fehler wie das Grundrauschen des Sensors verstärkt. Das so in dunklen Bildbereichen und bei Bildern, die mit wenig Licht aufgenommen wurden, besonders das starke Rauschen ist eines der größten Probleme der kleineren Sensoren.

Neben dem Rauschen unterscheiden sich unterschiedlich große Sensoren auch in der Schärfentiefe . Bei gleichem Aufnahmeabstand und gleichem Bildausschnitt (dazu muss die Brennweite angepasst werden, siehe Seite 98) und gleicher Blende haben Kameras mit großen Sensoren weniger Schärfentiefe als Kameras mit kleineren Sensoren. Je nach Aufnahmesituation und Gestaltungswunsch kann das eine oder das andere von Vorteil sein.

Auf den folgenden Seiten werde ich auf ein paar typische Probleme der digitalen Bildaufzeichnung ( Kontrastverhalten, Blooming , Rauschen , Hotpixel , Moiré ) eingehen, da sie zum Teil eng mit den Eigenschaften des jeweiligen Sensors zusammenhängen. Danach geht es dann weiter mit den sonstigen technischen Details der Digitalkameras, z. B. Speichermedien .

Kontrastverhalten
Der Helligkeitsumfang, den der Sensor aufzeichnen kann, ist ebenso begrenzt wie beim analogen Film. Ein üblicher Bildsensor kann beispielsweise Helligkeitsinformationen, die etwa 8 oder 9 Blendenstufen auseinanderliegen, wiedergegeben. Damit liegt er nur knapp über dem Kontrastverhalten normaler Diafilme. So weit, so gut! Das Kontrast- verhalten der Digitalkameras weist darüber hinaus im Gegensatz zum Film eine schöne Linearität zwischen hellster und dunkelster Bildstelle auf. So weit noch besser!

Doch an den Endpunkten ist dann endgültig und leider ganz abrupt Schluss. Während bei analogem Film der Übergang zwischen Hellgrau und Weiß bzw. Dunkelgrau und Schwarz fließend ist, es also nicht zu harten Kanten zu Weiß und Schwarz kommt, haben Digitalkameras da ein viel ungünstigeres Verhalten. In den schwarzen bzw. weißen Partien ist bei Ihnen überhaupt keine Information mehr enthalten, so dass man dort auch nichts mehr "rauskitzeln" kann. Bei analogem Filmmaterial (Negativmaterial) dagegen kann man Bildbereiche, die im Schwarz oder Weiß versinken, sichtbar machen, indem man sie beim Vergrößern entsprechend berücksichtigt (Abwedeln und Nachbelichten ).


Anmerkung

Gerettet
Die besseren Möglichkeiten der Nachbearbeitung durch den analogen Farbnegativfilm haben die verschiedenen Entwicklungsdienste und Fotolabore gerne genutzt. Diese Firmen leben ja davon, dass Sie an der Bildertheke möglichst viele Bilder mitnehmen und nur wenige als unbrauchbar ablehnen. Also versuchte man, auch stark fehlbelichtete Bilder zu retten. Das galt nicht nur für die Fehler des Fotografen bei der Belichtungseinstellung. Auch die nicht seltenen Fehler der Belichtungsautomatiken konnten so quasi ungeschehen gemacht werden.

Das "gnädige" Verhalten des Farbnegativmaterials kam den Laboren dabei sehr entgegen.

Bei digital fotografierten Bildern ist dieser Spielraum meist viel enger, da lässt sich nicht so viel retten. Die Aufnahmen müssen deshalb besser belichtet werden. Auch die Fehler der Belichtungsautomatiken zeigen sich viel krasser.



Das geht mit digitalen Bildern nicht; stattdessen werden Bereiche, die außerhalb des Aufzeichnungsspektrums liegen, einfach abgeschnitten und als reines Weiß oder Schwarz wiedergegeben. Und während der analoge Film in diesen Bereichen einen langsamen, kontinuierlichen Übergang erzeugt, "reißen" bei den digitalen Aufnahmen die Übergänge ab. Das führt zu sehr hässlichen weißen oder schwarzen Stellen im Bild. Die zu hellen Bereiche haben darüber hinaus noch die unschöne Tendenz, zu "überstrahlen" (Blooming , siehe Seite 44) und auch benachbarte Bildbereiche mit ins Weiß zu ziehen. Da das Abreißen im hellen Bereich bei Überbelichtung stärker ins Auge fällt (zum Beispiel durch klatschweiße, strukturlose Partien in Wolkenpartien) als der Verlust im Schattenbereich, sollten Sie bei digitalen Kameras (ähnlich wie bei Diafilm) das Hauptaugenmerk eher auf die Belichtung der Lichter legen.

Sehr hilfreich dabei ist eine hervorgehobene Anzeige des "Clippings". Damit kann man die Bereiche des Motivs, die bei der eingestellten Belichtung reinweiß werden würden, besser erkennen. Manche Kameras lassen dazu diese Bereiche bei der Wiedergabe des eben fotografierten Bildes abwechselnd schwarz und weiß blinken. Und auch das Histogramm gibt Auskunft über die Verteilung der Helligkeit. Um möglichst viel Information im späteren Bild zu haben, ist es oft besser, die Belichtung nicht, wie bei analoger Fotografie üblich, auf die richtige Wiedergabe mittlerer Grautöne zu legen. Stattdessen sollten Sie versuchen, das Bild so hell zu belichten, dass es gerade eben noch nicht zu einem Abreißen der für das Bild wichtigen hellen Bereiche kommt. Jedes stärkere Belichten würde Informationen ("Zeichnung") in den hellen Bereichen vernichten, jedes knappere Belichten da gegen würde dem späteren Bild Schattenzeichnung wegnehmen. Wenn nun in der Folge möglichst viele Informationen im Bild sind, aber die mittleren Grautöne nicht stimmen, können Sie das in der Bildbearbeitung mit der Tonwertkorrektur oder den Gradationskurven leicht selektiv anpassen, ohne die Lichter oder Schatten zu stark zu verändern. Da eine Nachbearbeitung nötig ist, empfiehlt sich dieses Vorgehen natürlich nur, wenn Sie die Bilder auch wirklich nachbearbeiten können. Bilder, die direkt und ohne "Umweg" über den PC beispielsweise an einem Bestellterminal direkt von der Karte ausgedruckt werden sollen, sollten Sie besser nicht auf diese Art fotografieren.

Sozusagen als Ausgleich für die Aufnahmeprobleme mit dem Kontrast kann man bei digitalen Bildern (die natürlich durchaus auch gescannte analoge Bilder sein können) sehr einfach das Kontrastverhalten im linearen Teil der Kurve ändern. Und wer will, kann diese Veränderung auf bestimmte Teile der Kurve eingrenzen. Das ist etwas, das in der klassischen Dunkelkammer (erst recht in Farbe) so gut wie gar nicht möglich war. Und wenn das Motiv es zulässt, kann man darüber hinaus auch mit mehreren unterschiedlichen Belichtungen und etwas "Zaubern" in der Bildbearbeitung nachträglich den Kontrastspielraum drastisch verbessern. Mehr dazu unter "HDR".

01