Förderverein der Archenhold-Sternwarte
und des Zeiss-Großplanetariums Berlin e.V.

Andreas Heidenreich

Digitale Astrofotografie

1 Einführung in die Techniken

1.7 Digitale Bildverarbeitung

Vorbemerkungen

Die meisten Objekte sind sehr lichtschwach, sodass sich das Objekt oftmals kaum aus dem Bildrauschen hervorhebt: die Rohbilder ähneln "verschneiten" Fernsehbildern. Unter Rauschen versteht man ein zufälliges Signal. Dieses ist dem eigentlichen Signal überlagert. Ein wesentliches Ziel der Bildverarbeitung ist es, das Bildrauschen so weit wie möglich zu reduzieren und das eigentliche Signal herauszuarbeiten. Bildrauschen hat mehrere Ursachen:

  1. Die Lichtquelle selbst ist verrauscht, weil die Aussendung von Licht ein zufälliger Prozess ist, die Lichtstärke also zeitlichen statistischen Schwankungen unterliegt. Diese statistischen Schwankungen fallen besonders dann ins Gewicht, wenn die Lichtstärke gering ist. In gleicher Weise ist auch die Entstehung von Dunkelstrom ein statistischer Vorgang.
  2. Rauschen der Kameraelektronik. Dies wirkt sich nicht nur von Aufnahme zu Aufnahme, sondern auch innerhalb derselben Aufnahme von Pixel zu Pixel aus, da die Pixel nacheinander (sequentiell) von der Kameraelektronik ausgelesen werden.
  3. Der Fertigungsprozeß von CCDs bringt es mit sich, dass Pixel leicht unterschiedlich sind. Ihre Empfindlichkeit und die Dunkelstromstärke können um einige Prozent variieren. Diese Ungleichheit ist zwar von der Ursache her kein Rauschen bei der Aufnahme, doch sehen diese Pixelungleichheiten, da statistisch über den Chip verteilt, wie Bildrauschen aus.

Dunkelbildkorrektur

Die Pixelwerte p(x,y) (x und y bezeichnen den Ort des Pixels auf dem Chip, d. h., in welcher Spalte x und Zeile y sich das Pixel befindet) sind die Summe dreier Beiträge:

(6)

p(x,y) = pLicht(x,y) + pDunkelstrom(x,y) + pBias(x,y)

Darin ist pLicht(x,y) der durch das eingefallene Licht und pDunkelstrom(x,y) der durch den Dunkelstrom verursachte Beitrag. Die Abhängigkeit der Pixelwerte von x und y drückt aus, dass die Werte von Pixel zu Pixel variieren. pBias(x,y) ist ein konstanter Signalpegel (vom Rauschen der Kameraelektronik abgesehen), der von der Ausleseelektronik addiert wird und unabhängig von der Belichtungszeit ist (also denselben Wert auch bei einer Belichtungszeit von Null annehmen würde). Die unerwünschten Beiträge pDunkelstrom(x,y) und pBias(x,y) lassen sich beseitigen, indem man die Aufnahme mit derselben Belichtungszeit und Temperatur (der Dunkelstrom nimmt mit steigender Temperatur zu) aber in Dunkelheit (z.B. bei geschlossenem Teleskop) macht und dieses Dunkelbild (Dark Frame) dann von der Aufnahme des Objekts abzieht. Diese Differenzbildung, bei der nur das eigentliche durch Licht verursachte Signal übrigbleibt, nennt man Dunkelbildkorrektur (Dark Frame Subtraction):

(7)

pLicht(x,y) = p(x,y) − pDunkelbild(x,y)

Das Dunkelbild muss mit derselben Belichtungszeit (besser ist der allgemeinere Begriff Integrationszeit, da ja in diesem Fall kein Licht auf den Chip fällt) aufgenommen werden wie das Rohbild. Da auch das Dunkelbild von Bildrauschen überlagert ist (u.a. ist die Stärke des Dunkelstroms zeitlichen zufälligen Schwankungen unterworfen, siehe oben), nimmt man mehrere Dunkelbilder auf und mittelt dann über diese, um das Rauschen zu vermindern (gemitteltes Dunkelbild-, engl. Master Dark Frame).

Helixnebel vor Dunkelbildkorrektur Helixnebel nach Dunkelbildkorrektur
Abb. 11: Einzelaufnahme des Helixnebels (NGC 7293) vor (linkes Bild) und nach (rechtes Bild) der Dunkelbildkorrektur
(Aufnahme: Meade RCX400 14-Zoll f/8 Ritchie-Chretien- Teleskop, 0,33 Reducer, DSI2- pro CCD, Hα-Filter, 30s Belichtungszeit).

Das Rohbild zeigt viele weiße Punkte, die auf Pixel mit überdurchschnittlichem Dunkelstrom zurückzuführen sind. Durch die Subtraktion des Dunkelbildes verschwinden diese weißen Punkte und das resultierende Bild sieht insgesamt viel sauberer aus.

Weißbildkorrektur

Der Fertigungsprozess von CCDs bringt es mit sich, dass Pixel unterschiedlich empfindlich sind. Die Unterschiede können einige Prozent betragen. Ferner kann das einfallende Licht durch Staub auf dem optischen Fenster des Chips geschwächt sein. Oft bewirkt auch der optische Aufbau des Fernrohrs einen Abfall der Bildhelligkeit zum Bildrand hin ("Vignettierung"), insbesondere bei der Verwendung von Reducern. Alle diese Einflüsse führen zu einer effektiven Empfindlichkeit, die für jedes Pixel individuell verschieden ist. Ausdruck dieser unterschiedlichen effektiven Pixelempfindlichkeit (egal, wodurch diese auch immer verursacht wird) ist, dass der verfälschte Pixelwert um einen bestimmten Faktor f(x,y) vom korrekten Pixelwert pkorrekt(x,y) abweicht:

(8)

pverfälscht(x,y) = f(x,y) · pkorrekt(x,y)

Die Werte der Faktoren f(x,y) liegen in der Größenordnung von 1. Kennt man die Faktoren f(x,y), kann man ganz einfach die verfälschten Pixelwerte durch diese Faktoren dividieren und erhält so die korrekten Werte:

(9)

pkorrekt(x,y) = pverfälscht(x,y) / f(x,y)

Wie erhält man die Faktoren f(x,y)? Grundgedanke ist, dass eine Aufnahme einer gleichförmigen weißen Fläche zu identischen Pixelwerten pweiß über den gesamten Chip verteilt führen müsste, wenn Chip und Strahlengang perfekt wären. In der Realität werden die konstanten Pixelwerte pweiß aber durch die Faktoren f(x,y) verfälscht:

(10)

pweiß, verfälscht(x,y) = f(x,y) · pweiß

Der Wert pweiß ist nicht genau bekannt, aber das ist unerheblich, denn es kommt nur darauf an, dass die Faktoren f(x,y) das richtige relative Verhältnis zueinander haben. Man kann daher für pweiß ganz einfach den Mittelwert der Weißbildwerte, ⟨pweiß,verfälscht(x,y)⟩ einsetzen (die Klammern ⟨⟩ symbolisieren eine Mittelwertbildung, in diesem Falle über alle Pixel des Chips). Damit erhält man die Faktoren f(x,y), mit denen man alle weiteren Aufnahmen korrigieren kann. Dies ist das Prinzip der Weißbild-Korrektur (Flat Field Division). Anmerkungen zur praktischen Durchführung:

  1. Weißbilder enthalten wie alle anderen Aufnahmen einen Dunkelstrom- und Bias-Anteil, so dass das entsprechende Dunkelbild abgezogen werden muss.
  2. Die Belichtungszeit der Weißbilder braucht nicht mit der Belichtungszeit übereinzustimmen, mit der man das astronomische Objekt aufnimmt. Maßgeblich ist, genügend hohe Pixelwerte zu erzielen, die aber nirgendwo zu einer Sättigung im Weißbild führen dürfen.
  3. Um das Bildrauschen im Weißbild herabzusetzen, werden auch die Weißbilder über mehrere Aufnahmen gemittelt. Das gemittelte Weißbild wird auch Master Flat Field genannt.
  4. Um die Bestimmung der Faktoren f(x,y) braucht man sich nicht explizit zu kümmern. Man braucht die Bildverarbeitungssoftware lediglich mit dem gemittelten Weißbild zu versorgen.

Ein gemitteltes Weißbild und die Auswirkung der Weißbildkorrektur wird in Abb. 12 veranschaulicht.

Das gemittelte Weißbild Abb. 12(a) zeigt deutliche Spuren von Vignettierung und in der linken oberen Ecke einige dunkle Ringe, die durch Staub auf dem Fenster der CCD hervorgerufen werden. Bild Abb. 12(b) wurde bereits einer Dunkelbild aber noch nicht einer Weißbildkorrektur unterzogen und zeigt deshalb Vignettierung wie das Weißbild Abb. 12(a). In Bild 12(c) ist die Vignettierung durch die Weißbildkorrektur beseitigt.

Stacking: Mittelung von Einzelaufnahmen

Nach Dunkelbild- und Weißbildkorrektur ist ein Einzelbild zwar bereits schon deutlich verbessert, ist aber noch immer mehr oder weniger stark von Bildrauschen überlagert. Da Bildrauschen ein Zufallsmuster erzeugt, lässt es sich stark vermindern, indem man mehrere bzw. viele Aufnahmen mittelt, wie schon beim gemittelten Dunkelbild und Weißbild angedeutet. Diese Mittelwertbildung über verschiedene Aufnahmen wird als Stacking bezeichnet, das gemittelte Bild wird auch Komposit genannt. Mittelwertbildung über mehrere Aufnahmen kann eine einfache arithmetische Mittelwertbildung von Pixelwerten sein. Wirksamer als ein arithmetisches Mittel ist der Median, wie das folgende Beispiel zeigt.

In diesem fiktiven Beispiel seien bei 3 Einzelaufnahmen für ein bestimmtes herausgegriffenes Pixel die Werte 10000, 65535 und 8000 erhalten worden. (Der hohe Wert von 65535 mag dabei durch den Einschlag eines kosmischen Teilchens hervorgerufen worden sein.) Bei der Bildung des Medianwertes werden zunächst die Pixelwerte nach ihrer Größe sortiert. Im vorliegenden Beispiel liefert die Sortierung die Reihenfolge 8000, 10000, 65535. Im zweiten Schritt wird dann als Median derjenige Wert herausgegriffen, der in der Mitte der sortierten Werte liegt, in diesem Falle 10000. Der Ausreißer von 65535 hat keinen Einfluss auf das Endergebnis, während er sehr wohl in den arithmetischen Mittelwert eingeht. Dies ist der Vorteil der Medianbildung: Ausreißer werden besser zurückgewiesen.

Auf Grund von Nachführungenauigkeiten kann das Gesichtsfeld von Aufnahme zu Aufnahme um ein kleines Stück relativ zum Himmelshintergrund verschoben sein. Wenn keine äquatoriale Teleskopmontierung verwendet wird, rotiert das Gesichtsfeld langsam. Da beim Stacking die Objekte exakt deckungsgleich sein müssen, ist es erforderlich, die Einzelaufnahmen erst einmal entsprechend zurechtzurücken. Diese Koordinatentransformation (Verschieben und Drehen) wird Bildregistrierung (Image Registration) genannt. Zur Bildregistrierung werden in jeder Aufnahme Referenzpunkte, zumeist Sterne im Gesichtsfeld, markiert. Geht es nur darum, eine Verschiebung zu kompensieren, ist ein einzelner Referenzpunkt ausreichend. Bei einer Drehung müssen zwei Referenzpunkte angegeben werden. Die Verbindungslinie der beiden Punkte ergibt einen Vektor, aus dessen Orientierung die Software die Drehrichtung des Gesichtsfeldes bestimmen kann. Beim Markieren der Referenzpunkte sollte man auch gleich alle schlecht geratenen Einzelaufnahmen aussortieren, also insbesondere solche, bei denen die Sterne durch Nachführungenauigkeiten nicht kreisrund sondern elliptisch oder strichförmig erscheinen. Beim Stacking von Planetenaufnahmen liegt in der Regel gar kein Referenzpunkt vor. In diesem Fall bringt die Bildverarbeitungssoftware automatisch die Planeten- scheibchen der verschiedenen Einzelaufnahmen bestmöglich zur Deckung, indem sie die größte Überlappung der Planetenscheibchen berechnet. Mit dem Kriterium der größtmöglichen Überlappung lässt sich allerdings lediglich eine Verschiebung berechnen, nicht aber eine Drehung. Es muß also sichergestellt sein, dass das Bildfeld während der Serie von Einzelaufnahmen nicht merklich rotiert.

Automatisches Stacking

Die Steuerungssoftware "Envisage" der Meade DSI CCDs ermöglicht auch ein automatisches Stacking während der Aufnahmen, "Stacking on the Fly". Vor den Aufnahmen wählt man zwei Sterne als Referenzpunkte für die automatische Bildregistrierung aus. Nach dem Start der Aufnahmesequenz führt das Programm nach jeder Aufnahme eine Dunkelbildkorrektur durch und bestimmt die Bildqualität (nach einem nicht näher dokumentierten Verfahren). Besteht das Einzelbild den Qualitätstest, wird es automatisch dem Komposit hinzugefügt, andernfalls wird es verworfen. Eine Weißbildkorrektur wird nicht durchgeführt. Das automatische Stacking erreicht nicht die Qualität der "manuellen" Bildverarbeitung, ist aber wegen seiner Einfachheit für Anfänger gut geeignet.

Angleichung der Bildhelligkeit der Einzelaufnahmen beim Stacken

Die Pixelwerte der einzelnen Rohbilder unterliegen nicht nur den zufälligen Schwankungen des Bildrauschens, sondern zeigen in der Regel auch mehr oder weniger starke systematische Abweichungen, verursacht durch die sich im Laufe der Nacht verändernden atmosphärischen Bedingungen. Eine systematische Abweichung zeichnet sich durch einen anderen mittleren Helligkeitswert der gesamten Aufnahme aus, während zwei Aufnahmen, bei denen lediglich die individuellen Pixelwerte zufallsbedingt streuen, dieselbe mittlere Bildhelligkeit haben. Die Folge einer systematischen Abweichung der Pixelwerte ist, dass Pixelwerte bei der Medianbildung (Abb. 7.13) falsch geordnet und dadurch im Endeffekt die falschen Pixelwerte zurückgewiesen werden. Daher korrigiert die Software die Einzelaufnahmen vor dem Stacken automatisch.

Die Korrektur der Bildhelligkeiten geschieht auf Grund der Überlegung, dass der Dunstgehalt der Luft in Verbindung mit der Lichtverschmutzung die Ursache für die systematischen Abweichungen ist. Mit dem Dunstgehalt nimmt einerseits die Extinktion zu, d.h., die Objekthelligkeit nimmt ab, weil ein zunehmender Teil des Lichts von der Atmosphäre geschluckt wird. Andererseits nimmt gleichzeitig die Helligkeit des Himmelshintergrundes zu, weil der Dunst durch die Lichtverschmutzung aufgehellt wird.

Eine einfache Korrekturmöglichkeit besteht darin, den Himmelshintergrund c abzuziehen und die resultierenden Pixelwerte mit einem konstanten Korrekturfaktor k zu multiplizieren:

(11)

pkorr(x,y) = k · [p(x,y)-c]

Der Himmelshintergrund erhält hierdurch den Wert Null; etwaige negative Werte werden Null gesetzt. Der Himmelshintergrund kann dabei z.B. aus den Pixelwerten des oberen und unteren Bildrandes bestimmt werden, sofern das Objekt klein genug ist und diese Bildbereiche ausspart, wie in Abb. 14 verdeutlicht.

Ringnebel vor Hintergrundabzug Ringnebel nach Hintergrundabzug
Abb. 14: Einzelaufnahme des Ringnebels M57 im Sternbild Leier. (Aufnahme: Meade LX200 16Zoll f/10 Schmidt-Cassegrain-Teleskop, 0,63 Shapley-Linse, Pictor1616 CCD, 60s Belichtungszeit). (a) Rohbild nach Dunkelbild- und Weißbildkorrektur. Die Abgrenzung des oberen und unteren Bildrandes, der zur Bestimmung des Himmelshintergrundes diente, ist mit roten Linien markiert. (b) Nach Subtraktion des Himmelshintergrundes. In diesem Beispiel wurden auch die störenden vertikalen Linien subtrahiert, die von der Kameraelektronik herrühren.

Der Korrekturfaktor k ergibt sich hierbei aus der Bedingung, dass der mittlere Pixelwert des korrigierten Bildes im Überlappungsbereich mit dem des vorgegebenen Referenzbildes übereinstimmen muss.

(12)

k = ⟨pref(x,y)⟩ / ⟨p(x,y)⟩

Referenzbild ist dabei in der Regel das erste Dunkelbild- und Weißbild-korrigierte Rohbild der Bildserie, von dem ebenfalls der Himmelshintergrund abgezogen wurde. Diese Vorgehensweise muss modifiziert werden, sofern, was häufig der Fall ist, das Objekt das gesamte Bild füllt und kein Bildbereich den reinen Himmelshintergrund enthält. In einem solchen Fall wird das Bild in zwei Bereiche mit starkem Helligkeitsunterschied aufgeteilt. Die beiden Konstanten c und k werden aus den Bedingungen bestimmt, dass die mittleren Pixelwerte in beiden Bildbereichen mit den entsprechenden mittleren Bildhelligkeiten des Referenzbildes identisch sein müssen:

(13)

⟨pkorr(x,y)⟩hell = ⟨pref(x,y)⟩hell

(14)

⟨pkorr(x,y)⟩dunkel = ⟨pref(x,y)⟩dunkel

Im Unterschied zur einfachen Vorgehensweise ist der korrigierte Himmelshintergrund nicht Null sondern nimmt einen in allen Rohbildern einheitlichen endlichen Wert an. Die Aufteilung in einen hellen und einen dunklen Bildbereich geschieht anhand eines vorgegebenen Pixel-Schwellenwertes. Dies ist in Abb. 15 demonstriert.

Gasnebel M8 im Sternbild Schütze Pixel-Schwellenwert
Abb. 15: Gasnebel M8 im Sternbild Schütze. (a) 11-Zoll f/10 Schmidt-Cassegrain-Teleskop, 0,33 Shapley-Linse, Hα-Filter, aufgenommen in der Kutxa-Espacio-Sternwarte in San Sebastian. Komposit aus 153 Aufnahmen, jeweils zuvor Dunkelbild- und Weißbild-korrigiert sowie mit Angleichung der mittleren Pixelhelligkeiten. (b) Zerlegung des Komposits in zwei Teilbereiche nach einem vorgegebenen Pixel-Schwellenwert in einen hellen und einen dunklen Bereich.

Auswirkung der Lichtverschmutzung

Wie bereits im Abschnitt Vorbemerkungen erwähnt, ist auch jede Lichtquelle selbst eine Rauschquelle. Die Lichtverschmutzung bewirkt also nicht nur eine konstante Aufhellung des Himmelshintergrundes, die man von den Pixelwerten einfach abziehen kann, sondern auch eine Erhöhung des Bildrauschens. Das bedeutet, dass man unter einem aufgehellten Himmel mehr Einzelbilder stacken muss, um zum selben Signal-Rausch-Verhältnis zu gelangen. Eine gewisse Hilfe gewähren Filter speziell gegen Lichtverschmutzung, die diejenigen Spektralbereiche herausfiltern, die von der Lichtverschmutzung besonders betroffen sind. Bei Gasnebeln, die insbesondere in bestimmten engen Spektralbereichen wie der Hα-, Hβ- oder O-III-Spektrallinie stark emittieren, empfiehlt sich der Einsatz entsprechender schmalbandiger Filter, die bewirken, dass das Signal-Rausch-Verhältnis in diesen engen Spektralbereichen zugunsten des Objekts verschoben wird.

Die Arbeitsschritte der Bildverarbeitung im Überblick

Mit der Mittelung von Einzelaufnahmen zum Komposit ist der größte Teil der Arbeit getan. Was jetzt ggf. noch folgt, ist eine Nachbearbeitung. Hierzu zählen Helligkeits- und Kontrasteinstellungen, Bildschärfung und Hervorhebung lichtschwacher Bildbereiche. Bevor einige dieser Nachbearbeitungstechniken aus dem großen Methodenarsenal vorgestellt werden, sei an dieser Stelle der Ablauf der Bildverarbeitung zusammengefasst.

  1. Gemitteltes Dunkelbild (als Median) für die Belichtungszeit des Objekts erzeugen.
  2. Gemitteltes Dunkelbild (als Median) für die Belichtungszeit des Weißbildes erzeugen.
  3. Gemitteltes Weißbild erzeugen: Von jedem Einzelweißbild das gemittelte Dunkelbild (Schritt 2) abziehen und davon den Median bilden.
  4. Registrierung: Schlechte Einzelaufnahmen aussortieren und in den verbleibenden Sterne als Referenzpunkte markieren.
  5. Erzeugung des Komposits: Schleife über alle Einzelaufnahmen:
    1. Dunkelbildkorrektur
    2. Weißbildkorrektur
    3. Subtraktion des Himmelshintergrundes
    4. Bildregistrierung: Referenzpunkte markieren und schlechte Aufnahmen aussortieren
    5. Hinzufügen der Einzelaufnahme zum Median
  6. Nachbearbeitung: Kontrastverstärkung, digitale Bildschärfung, Hervorhebung lichtschwacher Bildbereiche etc.

Bildhelligkeit und Kontrast

Für die Darstellung eines Bildes mit einem Bildschirm oder Drucker stehen 256 (8Bit) Helligkeitswerte pro Farbkanal zur Verfügung; es lassen sich Pixelwerte von 0 - 255 darstellen. Der dynamische Bereich, damit bezeichnet man das Verhältnis zwischen dem größten und dem kleinsten (von Null verschiedenen) Pixelwert, beträgt damit in diesem Fall 255. Bei digitalen Spiegelreflexkameras beträgt der dynamische Bereich dagegen 4095 (12Bit), bei astronomischen CCDs 65535 (16Bit). Kombiniert man Aufnahmen mit unterschiedlichen Belichtungszeiten (High Dynamic Range Photography), lassen sich sogar noch weitaus größere Pixelwerte erreichen. Dieser viel größere dynamische Bereich muss durch den viel kleineren dynamischen Bereich des Bildschirms oder Druckers dargestellt werden. Man geht dabei so vor, dass man für das darzustellende 12, 16, oder sogar 32-Bit Helligkeitsstufenbild einen unteren und einen oberen Pixelwert festsetzt, pmin und pmax. Alle Pixelwerte ≤ pmin erhalten dann den Helligkeitswert 0 auf dem Bildschirm oder Drucker und erscheinen somit schwarz. Alle Pixelwerte ≥ pmax erhalten auf dem Bildschirm den maximalen Helligkeitswert 255 und sind folglich weiß. Die Werte zwischen pmin und pmax erscheinen als Grauwerte; im einfachsten Fall werden die Werte p(x,y) zwischen pmin und pmax linear auf den Bereich 0 - 255 umgesetzt:

(15)

pBildschirm(x,y) = p(x,y)-pmin / pmax-pmin

Natürlich wird man pmin und pmax so wählen, dass die relevante Bildinformation so wenig wie möglich verloren geht. Je kleiner der darzustellende Helligkeitsbereich pmin bis pmax ist, desto größer ist der Kontrast. Dies wird bei der nachstehenden Mondaufnahme mit 16 Bit-Helligkeitsstufen deutlich.

Mond ohne Image-Scaling Mond mit Image-Scaling
Abb. 16: pmin = 0 ; pmax = 65535 Abb. 17: pmin = 5200 ; pmax = 24000

Im Bild 16 wurden pmin = 0, pmax = 65535 gesetzt, also der gesamte Bereich der Helligkeitsstufen verwendet. Tatsächlich liegt der niedrigste Pixelwert aber bei 4400, der höchste bei 45000. Man kann daher den Kontrast ohne Verlust an Bildinformationen schon steigern, wenn man pmin = 4400 und pmax = 45000 setzt. Da jedoch die allermeisten Pixelwerte im Bereich 5200 - 24000 liegen, kann man den Kontrast mit pmin = 5200, pmax = 24000 weiter steigern, wenn man in Kauf nimmt, dass ein kleiner Teil der Pixel schwarz und ein kleiner Teil weiß wird. Dies ist im Bild 17 geschehen. Die Regelung von Bildhelligkeit und Kontrast mit pmin und pmax wird als Image Scaling bezeichnet.

Lichtschwache Partien zur Geltung bringen: Digital Development Processing

Viele astronomische Objekte, wie Kugelsternhaufen und Galaxien, haben ein helles Zentrum und lichtschwache Randpartien. Im folgenden Beispiel erreichen die Pixelwerte der Galaxie M88 im Zentrum maximal 1377, während sie in den Spiralarmen nur Werte zwischen 20 und 50 annehmen. Durch Image Scaling allein lassen sich nicht alle Details zugleich darstellen, wie die folgenden erfolglosen Versuche demonstrieren.

M88 (a) pmin = 0, pmax = 1377,
pmax wurde entsprechend dem höchsten Pixelwert im Zentrum gewählt. Das Zentrum der Galaxie ist dadurch zwar gut aufgelöst, aber der Rest wird fast unsichtbar.
M88 (b) pmin = 4, pmax = 100,
pmax wurde 100 gesetzt, um die Spiralarme gut zu zeigen. pmin wurde 4 gesetzt, um den verbleibenden Himmelshintergrund abzuschwächen. Durch den niedrigen pmax-Wert wird aber aus der zentralen Partie ein unaufgelöster großer weißer Fleck.
M88 (c) pmin = 4, pmax = 300,
als Kompromiss zwischen (a) und (b) wurde pmin = 4 und pmax = 300 gesetzt. Die Spiralarme sind an den Rändern zu dunkel.
Abb. 18: Galaxie M88. LX200 16 Zoll f/10 Schmidt-Cassegrain-Teleskop, 0,63 Reducer,
Pictor 1616 CCD, 53 Einzelaufnahmen a 60s Belichtungszeit, Dunkelbild-, Weißbildkorrektur, Subtraktion des Himmelshintergrundes, Median-Komposit.

Um die Details in hellen und dunklen Bildpartien simultan mit geeigneter Helligkeit darzustellen und eine Sättigung großer Flecken zu vermeiden, muss man von der linearen Darstellung der Helligkeitsstufen abgehen. Eine Möglichkeit ist das Digital Development Processing, DDP, übersetzt etwa digital nachempfundene Filmentwicklung. Eigenschaft der konventionellen Fotografie ist, dass die Bildschwärzung nicht linear mit der Menge des Lichts zunimmt; mit zunehmender Lichtmenge fällt die Zunahme der Bildschwärzung immer geringer aus. Diese Nichtlinearität ist in den meisten Fällen unerwünscht, in diesem Fall jedoch von Vorteil. Denn durch längere Belichtungszeiten kommen die lichtschwachen Partien besser heraus, ohne dass helle Teile gleich überbelichtet bzw. gesättigt werden. Kernstück von DDP ist der folgende Bruch

(16)

p(x,y) / (p(x,y)+a)

der immer Werte zwischen 0 und 1 annimmt. Für p(x,y) = 0 ist der Bruch Null, für p(x,y) = a 1/2 und für große Pixelwerte (p(x,y) >> a) geht der Bruch gegen 1. Das Verhalten des Bruches 16 für zwei verschiedene Werte von a wird im folgenden Diagramm deutlich.

DDP-Graph
Abb. 19: Verhalten des Bruches für zwei verschiedene Werte von a

Die Kurven steigen für kleine Werte von p (p < a) steil an; kleine Werte von p werden relativ zu großen p Werten viel stärker erhöht. Je kleiner der Parameter a gewählt wird, desto steiler steigt die Kurve p/(p + a) für kleine Werte von p an. Das bedeutet: Wenn man dunkle Bildbereiche besonders stark hervorheben will, muss man a möglichst klein wählen. Andererseits muss man bedenken, dass auch das verbliebene Bildrauschen mit verstärkt wird; man darf a also auch nicht zu niedrig wählen. Da die Werte des Bruches p/(p + a) zwischen 0 und 1 liegen, wird der Bruch noch mit einer Konstante k multipliziert, die 255 oder 65535 annimmt, je nachdem, ob eine 8Bit- oder 16Bit-Helligkeitsskala vorliegt:

(17)

p′(x,y) = k · p(x,y) / (p(x,y)+a)

Gleichung 17 ist noch nicht die endgültige DDP-Formel. Vielmehr enthält die endgültige DDP-Formel noch eine Komponente, die eine Bildschärfung bewirkt:

(18)

p′(x,y) = k · p(x,y) / (⟨p(x, y)⟩+a)

Der Unterschied zwischen Gleichung 17 und 18 ist, dass im Nenner von Gleichung 18 der Pixelwert p(x,y) durch einen Mittelwert ⟨p(x,y)⟩ ersetzt ist. Der Mittelwert ⟨p(x,y)⟩ ist ein lokaler Mittelwert; er wird nur mit den jeweiligen Pixeln aus der nächsten Nachbarschaft gebildet, oft nur mit unmittelbar benachbarten Pixeln. Der lokale Mittelwert bewirkt z.B., dass die benachbarten Pixel eines Sterns dunkler werden, sich der Stern also schärfer von seiner Umgebung abhebt. (Auf nähere Erläuterungen soll an dieser Stelle verzichtet werden.) Beispiele für DDP:

M88 - Bearbeitung ohne DDP M88 - Bearbeitung mit DDP
Abb. 20: Galaxie M88. Der maximale Pixelwert im Zentrum der Galaxie beträgt 1377, die Werte in den Aussenbereichen der Spiralarme 20-40. Für die Bearbeitung mit DDP wurde a = 100 gewählt (rechtes Bild).
M3 - Bearbeitung ohne DDP M3 - Bearbeitung mit DDP
Abb. 20: Kugelsternhaufen M3. Der maximale Pixelwert im Zentrum ist 6021, in den Außenbereichen betragen die Pixelwerte 50-300. Dem DDP-bearbeiteten Bild rechts liegt a = 100 zugrunde.

Eine Alternative zu DDP stellt die Gammakorrektur dar, auf die hier jedoch nicht eingegangen werden soll.

Bildschärfung mit digitalen Filtern

-1
-1 5 -1
-1
Abb. 22: Digitales Filter

Bei einem digitalen Filter werden ein Pixelwert und die Werte benachbarter Pixel aufsummiert, wobei jeder Pixelwert mit einem Wichtungsfaktor versehen wird, der vom Ort des Pixels abhängt. Die Werte und Anordnung der Wichtungsfaktoren werden als Filterkern bezeichnet. Ein Filterkern kann z.B. aussehen wie rechts dargestellt.

Die Pixel eines Bildes werden nun nach dem folgenden Rezept mit dem Filterkern verarbeitet: Multipliziere den Wert des zentralen Pixels mit 5, die horizontal und vertikal benachbarten Pixel mit −1 und summiere die so gewichteten Pixelwerte auf. Die gewichtete Summe ist dann der neue Pixelwert. Falls die Summe negativ sein sollte, wird der Pixelwert Null gesetzt. Dass dieses Rezept zu einer Bildschärfung führt, wird am folgenden Beispiel deutlich.

10 10 10 10 10
10 10 10 10 10
10 10 200 10 10
10 10 10 10 10
10 10 10 10 10
-1
-1 5 -1
-1
10 10 10 10 10
10 10 0 10 10
10 0 960 0 10
10 10 0 10 10
10 10 10 10 10
Abb. 23: Prinzip der Bildschärfung

Das 5 × 5 Pixelfeld enthält einen Stern mit dem Pixelwert 200 und einen ansonsten konstanten Hintergrund von 10. Wendet man den Filterkern an, erhält man das Pixelfeld rechts, in dem der Stern einen fast fünfmal höheren Pixelwert hat und die Werte der benachbarten Pixel abgesenkt sind. Die Zahlen im Filterkern sind so gewählt, dass ein Feld aus lauter gleichen Pixelwerten unverändert bleibt. Ferner bleiben alle Randpixel schon deshalb unverändert, da auf sie das Filter nicht angewendet wird.

Mondaufnahme vor Anwendung eines digitalen Schärfefilters Mondaufnahme nach Anwendung eines digitalen Schärfefilters
Abb. 24: Mondaufnahme vor (linkes Bild) und nach (rechtes Bild) Anwendung eines digitalen Schärfefilters.
Aufnahme: LX50 10 Zoll f/10 Schmidt-Cassegrain-Teleskop, 0,63 Reducer, DSI1pro CCD

Bildschärfung durch unscharfe Maskierung

Das Bild eines Planeten lässt sich als Summe eines Bildes einer konturlosen Kugel und eines Bildes der Oberflächenkonturen auffassen. Die Unterschiede in den Pixelwerten, die die Details auf der Planetenkugel ausmachen, sind dabei gering im Vergleich zu den Pixelwerten der glatten Kugel. Ziel ist es, die Oberflächendetails mehr hervorzuheben. Dies kann man dadurch erreichen, dass man die Pixelwerte der konturlosen Kugel, auch als unscharfe Maske bezeichnet, zumindest teilweise vom Bild des Planeten abzieht. An dem, was dann übrigbleibt, haben die Konturen einen stärkeren Anteil und treten besser zutage. Dies ist das Prinzip der unscharfen Maskierung.

= c · ( -(1-1/c)· )
Abb. 25: Unscharfe Maskierung

Will man den Kontrast um den Faktor c verstärken, muss man den (1-1/c)ten Teil der unscharfen Maske vom Originalbild abziehen. Das resultierende Bild enthält dann nur noch den (1/c)ten Teil der unscharfen Maske, während die Konturen ihre Intensität beibehalten (zumindest im Idealfall, wenn die unscharfe Maske wirklich konturlos ist). Die Differenz aus Original und unscharfer Maske wird mit c multipliziert, um die ursprüngliche Bildhelligkeit des Originals annähernd zu erhalten. Die unscharfe Maske wird aus dem Planetenbild gebildet, indem die Pixel durch lokale Mittelwertbildung mit benachbarten Pixeln verschmiert werden. Der Grad der Bildschärfung hängt nicht nur vom Kontrastverstärkungsfaktor c ab, sondern auch von der Glattheit der unscharfen Maske und damit vom Radius der Umgebung, in der die Pixel lokal verschmiert wurden.


« zum Anfang

Teil 2: Bildergalerie ›

‹ 1.6 Nachführung