Leitfaden für die
Amateur-Astrofotografie
1. Auswahl der Fotooptik
Beim Einstieg in die Astrofotografie muss man sich zunächst von
allen zoom-verwöhnten Vorstellungen der normalen Fotografie
lösen. Im allgemeinen taugen weder Zoom-Objektive zur
Astrofotografie, noch kommt man mit der Knipserei durch Zoom-Okulare
auf einen grünen Zweig. Bei der Deepsky-Fotografie bekommt man
vernünftige Ergebnisse nur, wenn man den Chip in den
Primärfokus der Optik legt.
Es gibt also nur zwei Faktoren, durch die der Abbildungsmaßstab
bestimmt wird: a) die Brennweite der Optik und b) die Fläche des
Chips. Geht man z.B. vom Chip einer digitalen Spiegelreflexkamera
(APS-C) aus, so ergibt sich die benötigte Brennweite durch die
Größe des abzulichtenden Objektes. Hier ein paar Beispiele:

Nach unten hin ist die sinnvolle Brennweite bei ca. 8mm limitiert - das
ergibt ein Bildfeld von ca. 180° und man muss schon achtgeben,
nicht die eigenen Füße auf's Bild zu bekommen. Nach oben
hin, ist die sinnvolle Brennweite theoretisch nicht begrenzt -
zumindest was die Objekte betrifft. Es geht garantiert immer noch
kleiner. Realistisch ist die Luftunrhuhe (Seeing) und die
Beherrschbarkeit der Nachführung irgendwann der limitierende
Faktor.
Wenn man sich nun entschieden hat, welche Brennweite benötigt
wird, folgt die Auswahl, welches Instrument es denn nun sein soll. Im
großen und ganzen muss man dabei zunächst zwischen
Refraktoren und Reflektoren unterscheiden. Neben den seit ewigen Zeiten
geführten Glaubenskriegen kann man deren Vor- und Nachteile auch
(hoffentlich) objektiv darstellen. Das will ich hier kurz versuchen:
Refraktoren
Im Gegensatz zu Reflektoren (Spiegeloptiken) wird die Fokussierung der
Lichtstrahlen nicht durch Reflektion an einem gewölbten Spiegel,
sondern durch Refraktion (=Brechung) in einer Linse erzeugt. Eine Linse
kann man sich vorstellen, als wären einzelne Abschnitte von
Prismen aufeinandergeschichtet und genau so wirkt sie. Das parallel
einfallende Licht wird zwar fokussiert – jedoch nicht in einem
Punkt. Vielmehr hat jede Wellenlänge des Lichts (=Farbe) einen
eigenen Brennpunkt.

Da die Bildebene der Kamera aber nun mal an einem Punkt auf der
optischen Achse liegt werden Sterne in den einzelnen Wellenlängen
unterschiedlich scharf. Das sieht man am besten, wenn man sich die
Farbkanäle (RGB) einzeln anschaut.

In diesem Bild sieht man deutlich, dass die Sterne im roten und im
grünen Kanal ähnlich groß sind, während sie im
Blauen Kanal deutlich aufgebläht erscheinen. Dieses Problem nennt
sich Farblängungsfehler (Chromäsie) und tritt mehr oder
weniger bei allen optischen Elementen auf, die mit Linsen und somit mit
Lichtbrechung arbeiten. Der Fehler wird von Natur aus umso
stärker, je stärker die Lichtstrahlen gebrochen werden, also
je größer die Offnung im Verhältnis zur Brennweite ist.
Je lichtstärker also ein Refraktor ist, umso problematischer wird
der Farblängungsfehler.
Am stärksten tritt der Fehler bei einlinsigen Objektiven auf, die
deshalb als Chromaten bezeichnet werden. Das Wort könnte zu Recht
mit „Farbwerfer“ übersetzt werden.
Fraunhofer-Achromaten
Der erste Ansatz, diesen Farblängungsfehler zu bekämpfen,
stammt von Herrn Fraunhofer, der zwei Linsen mit einem Luftspalt zu
einem Objektiv zusammengefügt hat. Solche Objektive werden zu
Recht als Fraunhofer-Objektive (FH) und zu unrecht als Achromaten
bezeichnet. Insofern zu unrecht, als dass diese Bezeichnung nahe legt,
der Farbfehler sei eliminiert – was nur bedingt stimmt. Die zwei
Linsen eines Achromaten schaffen es bestenfalls, das Licht in zwei
Wellenlängen in einem Punkt zu bündeln. Welche
Wellenlängen das sind, hängt vor allem vom Abstand zwischen
den Linsen, also der Breite des Luftspaltes ab. Normalerweise werden
Achromaten auf Grün und Rot „gestimmt“, liefern also
einen Strahlengang wie hier skizziert:
Misst man den Sterndurchmesser in den einzelnen Farbkanälen
entlang der optischen Achse, zeigt ein Achromat etwa diesen Verlauf.
Man sieht, dass die Linien für die einzelnen Farben annähernd
parallel verlaufen, jedoch mit einem gewissen Abstand. Dabei verlaufen
zwei Farben immer nah aneinander, während die dritte einen
gewissen Abstand hat. In diesem Fall ist der grüne Kanal recht
scharf (tiefe Linie=kleiner Sterndurchmesser=Scharf), während Rot
und Blau unscharf sind. Diese Messung kann man übrigens mit meinem
Programm „Focuser“ vornehmen, das in erster Linie dazu
gedacht ist, Refraktoren unter Berücksichtigung des
Farblängungsfehlers zu fokussieren
(http://www.watchgear.de/Focuser/Focuser.htm).
Übrigens verdienenen die heutzutage vertriebenen "schnellen"
Achromaten den Namen überhaupt nicht. Eine halbwegs passable
Korrektur des Farbfehlers funktioniert bei diesem Design nämlich
nur bei f/10-f/20 - bei größeren Durchmessern sollte es
maximal f/15 sein. Ein "FH" mit f/5 ist also kein Achromat und Herr
Fraunhofer würde lautstark protestieren - wenn er noch
könnte...
Halb-Apochromaten
Es gibt vermutlich keinen unklareren Begriff, als den Halb- oder
Semi-Apochromaten. Manche Hersteller kombinieren drei oder mehr Linsen
aus Standard-Gläsern und bezeichnen das dann als Semi-APO, obwohl
die Farbkorrektur kaum besser (teilweise sogar schlechter), als beim
Achromaten ist. Ein anerkannter Halb- oder Semi-APO ist aber z.B. das
zweilinsige ED-Objektiv. Im Prinzip ist das Objektiv wie ein Achromat
aufgebaut – nur besteht eine der beiden Linsen aus einem
fluoridhaltigen Sonderglas. Die Farbkorrektur wird besser, weil das
ED-Element besondere Brechungseigenschaften hat. Dadurch ergibt sich
ein Strahlenverlauf, der sich von dem oben skizzierten unterscheidet.
Die Lichtstrahlen unterschiedlicher Wellenlängen treten nicht an
einem Punkt des Objektives aus und divergieren danach – sie
treten an unterschiedlichen Stellen des Objektives aus und haben durch
ihren immer noch unterschiedlichen Winkel die Chance, in einem Punkt zu
konvergieren. Der Verlauf der Sterndurchmesser sieht z.B. bei einem
klassischen 80ED-Volksapo so aus:

Hier verlaufen die Linien nicht mehr parallel. Es ist ein idealer
Fokuspunkt zu erkennen, an dem zwar nicht die optimale Schärfe,
aber ein annähernd gleicher Sterndurchmesser in allen Kanälen
gegeben ist (ungefähr in der Mitte). Fokussiert man also auf
diesen Brennpunkt, erhält man eine Sternabbildung, die nur einen
geringen Farbsaum zeigt.
Apochromaten
Da ich leider immer noch keinen echten Apochromaten besitze, kann ich
keine Grafik für den Verlauf der Sterndurchmesser anbieten. Ich
werde das, sobald es der Kontostand zulässt, nachholen. Das
Prinzip bleibt aber das gleiche und bei einem echten Achromaten, der
aus einem dreilinsigen System (Triplett) von Sondergläsern
besteht, sollte der Brennpunkt für drei Wellenlängen im
Bereich des sichtbaren Lichts in einen Punkt fallen. Leider besagt die
Definition nicht, welche Wellenlängen das sein müssen. Es
wäre wünschenswert, wenn es sich um eine Wellenlänge im
mittleren Rot, mittleren Grün und mittleren Blau handeln
würde. Das ist aber nicht festgelegt.
Farblängungsfehler allgemein
Gäbe es eine Formel für die Stärke des Farbfehlers,
würde sie ungefähr so lauten: Farbfehler =
Öffnungsverhältnis * Öffnung / Glaspreis
Also - der Farbfehler nimmt (wie eigentlich jeder optische Fehler) mit
dem Öffnungsverhältnis zu. Das ist bekannt. Darüber
hinaus nimmt der Farbfehler aber nochmal mit der Öffnung zu.
Anders gesagt: Der Farbfehler eines 8" f/6 ist erheblich stärker
als der eines 4" f/6 - oder die Öffnung geht annähernd
quadratisch ein. Der einzige reduzierende Faktor ist die Verwendung
entsprechender (teurer) Gläser - nicht die Anzahl der Linsen.
Für die perfekte Korrektur mit Fluorit- oder ED-Linsen braucht man
zwar 3 Linsen (es gibt aber auch sehr gute 2 Linser) - mit BK7-Glas
bringen die 3 Linsen jedoch nichts.
Bildfeldwölbung
Der gesamte Text zu den verschiedenen Refraktoren bezog sich bisher auf
den Farblängungsfehler, bzw. dessen Korrektur. Der Refraktor hat
prinzipbedingt aber noch einen weiteren Fehler, der sich auswirkt,
sobald das Bild auf eine ebene Fläche, wie Film oder CCD-Chip
projiziert wird. Das Bild, welches von einem Linsenobjektiv erzeugt
wird, hat von Natur aus einen sphärischen Fehler – die
Bildfeldwölbung. Dieser Fehler würde keine Rolle spielen,
wäre die Filmebene um den Radius der Brennweite gekrümmt
– das möchte ich meiner Kamera aber nicht antun.
Dieser Fehler kann durch entsprechende optische Elemente korrigiert
werden - man redet dann von einem sog. "Flattener". Oft haben diese
Flattener auch einen Einfluss auf die Brennweite. Der klassische
Reducer/Flattener veringert die Brennweite auf 0,8x. Ein Nachteil
dieser brennweitenverkürzenden Flattener ist die Verringerung des
ausgeleuchteten Bildfeldes. Dieses nimmt um den gleichen Faktor ab, wie
die Brennweite.
Der sphärische Fehler tritt bei jedem Refraktor auf. Es gibt zwar
auch asphärischen Objektive - diese werden aber höchstens in
sündhaft teuren Kameraobjektiven eingesetzt.. Wenn man einem
Refraktor ein geebnetes Bildfeld bescheinigt, so ist der notwendige
Korrektor bereits eingebaut. Dies ist z.B. bei den NP-Refraktoren von
Televue, oder den Pentax-Refraktoren der Fall. Diese werden als
vierlinsige Apochromaten bezeichnet, was ein wenig irreführend
ist. Es handelt sich um zweilinsige Apochromaten (also keine Tripletts)
mit einem zweilinsigen Korrektorelement. Da in diesem Fall jedoch der
Korrektor perfekt auf das Objektiv abgestimmt ist (oder sein kann?),
stellt das keinen Nachteil dar. Bei den Pentax-Refraktoren (z.B.
75SDHF) ist die Ausleuchtung und die Korrektur bis zum Mittelformat
perfekt - die Farbkorrektur ist jedoch nur mässig.
Reflektoren
Da die Licht-Reflektion im Gegensatz zur Brechung jedes
(sichtbare) Licht - egal welcher Wellenlänge - gleich reflektiert,
bleibt man hier weitestgehend von Farbfehlern verschont. Allerdings
sind beinahe alle fotografischen Reflektoren keine reinen Reflektoren,
sondern Mischformen, die zu einem Teil doch wieder mit Lichtbrechung
arbeiten müssen. Der dadurch entstehende Farbfehler ist aber
meistens vernachlässigbar. Stattdessen ergeben sich prinzipbedingt
andere Nachteile. So haben z.B. alle Reflektoren (abgesehen vom
Schiefspiegler) einen Fangspiegel, der einen Teil des einfallenden
Lichtes abschattet. Dadurch wird das Bild dunkler und
kontrastärmer. Des weiteren reflektiert ein Spiegel im Allgemeinen
weniger Licht, als eine Linse durchlässt - und durch diese
Reflektionsverluste an Haupt- und Fangspiegel geht nochmal Licht
verloren. Zu guter Letzt muss der Fangspiegel noch irgendwie im
Strahlengang befestigt werden, was z.B. beim Newton je nach Aufbau der
Fangspiegel-Halterung zu weiteren Beugungserscheinungen (Spikes)
führt.
Leider gibt es wesentlich mehr unterschiedliche Spiegeloptiken als
Refraktoren. Deshalb versuche ich gar nicht erst, im Detail auf die
einzelnen Typen einzugehen. Ich begnüge mich lieber mit den
Faktoren, die für die Fotografie von Belang sind:
Lichtstärke bzw. Öffnungsverhältnis
Im Allgemeinen kann man sagen: Je größer das
Öffnungsverhältnis, desto höher die Lichtstärke,
desto besser. Leider stimmt auch das nur bedingt, weil (wie bei den
Refraktoren) die prinzipbedingten optischen Fehler mit dem
Öffnungsverhältnis zunehmen. Ein solcher Fehler ist z.B. beim
Newton-Reflektor das sog. Koma. Während ein Newton mit f/8 noch
gut zur Fotografie benutzt werden kann, wird bei f/5 schon zwingend ein
sog. Komakorrektor erforderlich, ab f/4 braucht man einen teuren
Komakorrektor und über f/3,5 einen richtig teuren Spezialkorrektor
;-)
Spiegeloptiken bekommt man bis zu einem Öffnungsverhältnis
von >f/2 - z.B. Astrographen oder SCs mit HyperStar. Wenn man sich
allerdings bildlich vorstellt, was f/2 bedeutet, wird einem ein
weiteres Problem schnell klar.
Bei einer f/2-Optik ist Brennweite=2 * Öffnung und somit hat der
Lichtkegel einen Winkel von 28,07° (2 * arctan.(1/4)). Die gleiche
Rechnung bei einer f/10-Optik ergibt einen Winkel von 5,72°. Wenn
man also bei einer f/2-Optik um 1/10mm vom idealen Fokus abweicht, wird
ein Stern um 0,048mm größer (bei einem DSLR-Chip sind das
ca. 10 Pixel). Bei einer f/10-Optik wird der Stern beim gleichen
Fokussierungsfehler nur um 0,009mm größer (ca. 2 Pixel).
Beim 5-fachen Öffnungsverhältnis muss man also auch 5 mal
genauer fokussieren. Damit ist es aber nicht einmal getan -
Teleskoptuben unterliegen natürlich auch einer Temperatur-Dehnung
(da es im Laufe der Nacht meistens kälter wird, einer
Schrumpfung), wodurch der Fokus bei Termperaturänderungen
entsprechend schnell verloren geht. Dieses Problem betrift vor allem
Optiken, in denen der Strahlengang zugunsten einer kurzen Bauform
mehrfach hin und her läuft (SC/MC).
Was für die Fokussierung gilt, betrifft natürlich ebenso die
Justage von Okularauszug, Fang- und Hauptspiegel zueinander
(Kollimation). Auch diese wird im gleichen Maße schwieriger, wie
das Öffnungsverhältnis steigt.
Dem sinnvollen Öffnungsverhältnis sind also ebenfalls Grenzen
gesetzt. Meiner Ansicht nach sind Spiegeloptiken mit einem
Öffnungsverhältnis von f/5 für den Amateur der ideale
Kompromiss zwischen Lichtstärke und Handling.
Bildfeldwölbung bzw. Koma
Wie bereits beschrieben, haben auch Spiegeloptiken ihre
prinzipbedingten Fehler. Beim Newton ist es das Koma, SCs und MCs haben
ebenfalls (entsprechend ihres Öffnungsverhältnisses) ein Koma
und darüber hinaus eine Bildfeldwölbung. Den neuen Meade-ACF
(Advanced Koma Free) wird z.B. ein ebenes Bildfeld angedichtet -
falsch, sie haben nur kein Koma. Die Bildfleldwölbung bleibt. Sie
ist allerdings ebenfalls vom Öffnungsverhältnis abhängig
und bei f/10 sehr gering.
Auch die gängigen Schmidt- und Maksutov-Cassegrains haben ihre
Bildfehler - wobei man den MCs im allgemeinen die bessere Abbildung
nachsagt. Das liegt aber vor allem daran, das sie in der Regel ein
kleineres Öffnungsverhältnis haben.
Beim Schmidt- und Maksutov-Newton ist das Koma reduziert - nicht
beseitigt. Ein Rest bleibt und der Einsatz eines Komakorrektors (z.B.
Baader MPCC) ist auch bei schnellen SNs/MNs zu empfehlen.
Es gibt noch ein paar Sonderformen, die in besonderer Weise
fotografisch korrigiert sind. Z.B. die Flatfieldkamera von
Lichtenknecker. Leider ist so etwas kaum zu bezahlen und durch die sehr
komplizierte Fangspiegelfokussierung auch kaum scharf zu bekommen.
Desweiteren gibt es z.B. das VC-200L von Vixen. Dieser sog.
Field-Maksutov glänzt durch eine perfekte Abbildung und der
geringsten Spotgröße am Markt - ist aber mit f/9 ziemlich
"lahm" und nur sehr schwer zu justieren.
Die beste Spiegeloptik, die ich bisher in den Händen hatte, war
ein MN74 von Intes Micro - schade, dass das Geld nicht reichte...
Wie man sieht, haben auch Spiegeloptiken so ihre Macken und der Markt
ist sehr unübersichtlich. Es gibt aber ein Argument, das nach wie
vor für den alten Newton spricht: Im Bereich bis f/4 gibt es immer
den passenden Korrektor (bis f/5 MPCC, darüber TV Paracorr). Das
ist bei anderen Optiken, die prinzipbedingt ein besseres Bild liefern,
nicht unbedingt gegeben...
Spikes
Der klassische Newton hat eine Fangspiegelhalterung (Spinne) mit 4
Armen. Jeder Arm erzeugt durch Beugungseffekte gegenüber einen
sog. Spike. Stehen die Arme gut im rechten Winkel und einander exakt
gegenüber, ergibt das an hellen Sternen 4 klar definierte und
scharfe Spikes. Nun - diese Spikes muss man halt einfach mögen. Es
handelt sich natürlich um Bildfehler - und zwar um sehr deutliche.
Sie können aber durchaus zu Ästetik eines Bildes beitragen.
Es wird ohnehin Zeit, den Text mal wieder durch ein Bild aufzulockern -
warum also kein Beispiel für ästetische Spikes?

Natürlich kann man diese Spikes auch vermeiden. Ein Schmidt-Newton
hat z.B. keine FS-Streben. Außerdem müssen die FS-Streben
keineswegs gerade oder 4 an der Zahl sein. Es gibt diverse Ansätze
(z.B. Curved Spider), um die Spikes zu vermeiden. Es gibt aber auch
Leute, die Bindfäden vor Refraktoren spannen, um Spikes
künstlich zu erzeugen.
Ausleuchtung
Ein weiteres wichtiges Thema ist die Ausleuchtung des Bildfeldes. Diese
hängt wiederum vom Öffnungsverhältnis und vom
Durchmesser des Fangspiegels ab. So unterscheidet sich ein Fotonewton
von einem normalen Newton durch die Fokuslage und den FS-Durchmesser.
Zumindest sollte er das. Auch hier sehe ich wieder einen Vorteil
für den Newton: Im schlimmsten Fall baut man einen
größeren FS ein und kürzt evtl. den Tubus. Schon hat
man eine Fotooptik.
Ich will hier keine Sendezeit mit der Warnung vor Werbeaussagen
verschwenden - aber so manches "fotografisch optimierte" Teleskop
leuchtet gerade mal den Chip einer Webcam vernünftig aus. So bin
ich z.B. ein absoluter Fan des kleinen 6"SN von Meade - aber nur mit
einem kleinen Chip. Mit der DSLR kann man das leider vergessen. Bei SCs
und MCs wird, wenn es um die fotografische Eignung geht, oft auf die
erhältlichen Reducer (6,3 oder 3,3) verwiesen. Vorsicht - hier
gilt das gleiche, wie bei den Refraktor-Reducern. Das ausgeleuchtete
Bildfeld wird im gleichen Maße kleiner, wie die Brennweite. So
leuchtet ein C8 gerade den Chip einer DSLR aus. Mit einem Reducer auf
f/6,3 bekommt man schon eine deutliche Vignettierung und mit dem
Reducer auf 3,3 leuchtet man gerade noch eine CCD mit kleinem Chip aus
(DSI o.ä.).
Es gibt allerdings ein Mittel gegen mangelhafte Ausleuchtung - das
Flatfield. Damit kann man schlecht ausgeleuchtete Bilder wieder
"glattrechnen", was allerdings das Bild in der Summe erheblich dunkler
macht. Die Helligkeit kann man zwar wieder anheben - dadurch steigt
allerdings das Rauschen. Fazit: besser gleich auf eine gute
Ausleuchtung achten...
Wind und Tau
Oft werden SC oder MC Systeme vorgezogen, weil sie eine geringere
Windangriffsfläche bieten. Nachdem man dann einmal Bekanntschaft
mit einer komplett zugetauten Schmidtplatte oder Meniskuslinse gemacht
hat, wird eine Tauschutzkappe draufgestülpt, durch die die
effektive Länge wieder auf Newton-Niveau kommt. Dabei verteilt
sich beim Newton die Windangriffsfläche aber ziemlich
gleichmäßig - das SC mit Taukappe sieht anders aus und ist
noch erheblich windanfälliger. Bei einem System mit frontseitigem
Glas - sei ein SC, MC, SN, MN oder Refraktor - sollte man lieber gleich
eine Heizmanschette vorsehen. Es gibt zwar auch Fangspiegelheizungen
für Newtons - meiner ist aber noch nie zugetaut. Oder hab ich es
nur nicht bemerkt?
Fazit:
Ich glaube, man hat es - trotz des Anspruchs der Objektivität -
gemerkt: Für mich ist der Newton, unter Berücksichtigung
aller Faktoren (inkl. des Preises) die perfekte Fotooptik. Dabei ist
die einzige Einschränkung, dass man halt Spikes mögen, oder
zumindest tolerieren sollte. Der Newton ist aber nur im
Brennweiten-Mittelfeld die beste Wahl. Nach oben darf es dann auch mal
ein guter Cassegrain, nach unten ein kleiner Refraktor sein. Für
mich kommt allerdings kein Refraktor mit einer Brennweite über
600mm infrage (mit vernünftiger Lichtstärke und Farbkorrektur
ist mir der zu teuer) und kein Cassegrain unter 1200mm (weil der Newton
bis zu der Brennweite gut zu handeln ist).
2. Kamera-Systeme
Hier möchte ich mich auf digitale Kameras beschränken. Ich
habe zwar auch mit analogen Spiegelreflex-Kameras angefangen, denke
aber, dass diese Technik heutzutage kaum noch Zukunft hat und
Anfängern, an die sich dieser Leitfaden ja vor allem richtet,
möchte ich von einem Einstieg über die analoge Fotografie
dringend abraten. Alleine die Verzögerung durch die Entwicklung
des Films erschwert den Einstieg sehr. Wenn man heute einen Fehler
macht und erst in einer Woche sieht, wie er sich auf das entstandene
Bild auswirkt, ist es doch sehr schwer, ihn für den nächsten
Versuch zu korrigieren. Bei den digitalen Kameras gibt es einige
Aspekte, die man unabhängig vom Kameratyp sehen sollte. Dazu
gehören diese:
Unterschied Farb- und S/W-Kamera
Der Vorteil einer Farbkamera liegt ja eigentlich auch der Hand.
Schließlich möchte man (meistens) farbige Bilder. Die kann
man zwar auch mit S/W-Kameras machen - der Aufwand ist aber ungleich
höher. Während man mit einer Farbkamera nach einer Belichtung
bereits ein farbiges Bild hat, braucht man für die S/W-Kamera ein
Filterrad (mit den entsprechenden Filtern) und macht normalerweise 4
Belichtungen (LRGB), um daraus ein farbiges Bild zusammenzusetzen. Die
4 Belichtungen bedeuten natürlich auch die 4 fache
Belichtungszeit. Soweit zur halben Wahrheit...
Die Farbkamera hat eine sog. Bayer-Matrix. Das bedeutet, dass vor jedem
Pixel ein entsprechender Filter angebracht ist und das Pixel somit kein
RGB-Pixel ist, sondern ein R- G- oder B-Pixel. Da die Filter immer in
4er-Gruppen (RGGB) angeordnet sind, besteht der Chip zur Hälfte
aus grünen und zu jew. 1/4 aus roten und blauen Pixeln. Die
doppelte Anzahl von grünen Pixeln ist aus der Not einer
gleichmäßigen Anordnung geboren und stellt keinen Vorteil
dar. Der Unterschied zwischen S/W und Farbkamera besteht also darin,
dass eine S/W-Kamera (mit Filterrad und mehrfacher Belichtung) echte
RGB-Pixel hat, während die Farbkamera (auf die echte
Auflösung von RGB-Pixeln heruntergerechnet) eigentlich nur ein 1/4
der Auflösung hat. Ich habe mal was gepinselt, damit man es besser
versteht:

Also - links oben haben wir eine S/W-Kamera mit 10x10 Pixeln. Jeder der
Pixel kann einen Helligkeitswert aufnehmen. Rechts davon die gleiche
Kamera unter Benutzung von LRGB-Filtern. Nach dem Zusammenfügen
der Aufnahmen hat man ein Farbbild von 10x10 Pixeln. Jedes der Pixel
hat also einen Rot-, einen Grün- und einen Blauwert (zur Luinanz
kommen wir später).
Anders links unten die Farbkamera. Sie hat zwar ebenfalls 10x10 Pixel -
hier haben die Pixel aber schon Farbfilter. Wir bekommen also mit einer
einzigen Belichtung 5x5 Pixel mit einem Rotwert, 5x5 Pixel mit einem
Blauwert und 5x10 Pixel mit einem Grünwert. Will man das mit dem
LRGB einer S/W-Kamera vergleichen, hat man also nur 5x5 "echte"
Farbpixel (rechts unten).
Damit das nicht so auffällt geht man her und interpoliert bei
jedem Pixel die beiden jew. fehlenden Farbwerten aus den umgebenden
Pixeln dieser Farbe. Eigentlich ein Fake - aber recht effektiv. Das
Bild wird nur ein wenig unschärfer...
Man bekommt durch die Dreifachbelichtung mit einer S/W-Kamera und
Farbfiltern also "echte" 10x10 Farbpixel, während man mit einer
Farbkamera nur "echte" 5x5, bzw. "gefakte" 10x10 Farbpixel bekommt. Der
Fake geht allerdings auch andersherum. Man kann die Einzelbilder der
S/W-Kamera beim Überlagern aufblähen (das nennt sich
"drizzle") und bekommt 20x20 "gefakte" Farbpixel.
Also - egal wie rum jetzt - die S/W-Kamera hat die 4 fache
Auflösung, braucht aber mehrere Belichtungen. Allerdings ist die
Bayerkonvertierung, die aus dem Bild einer Farbkamera ein Farbbild in
voller Auflösung interpoliert nicht ganz so schlecht, wie ihr
Ruf...
Pixelzahl und -größe
Natürlich spielt die Pixelzahl einer Kamera eine große
Rolle. Bilder mit 640x480 Pixeln kann man gerade noch im Internet
zeigen. Ausdrucken lohnt sich schon nicht. Bilder mit 8 Megapixeln kann
man hingegen schon in Postergröße ausdrucken. Soviel zur
Theorie - in der Praxis stimmt das nur bedingt. Es heißt ja, ein
Stern sei - durch seine gegen Unendlich gehende Entfernung immer nur
ein Punkt. Zur Abbildung eines Sterns reicht also theoretisch auch ein
einzelnes Pixel. Das stimmt zwar nicht - aber wir bleiben erstmal
dabei. Jede Optik hat eine theoretische Grenze, wie klein der kleinste
"Spot" ist, den sie abbilden kann (Spotsize). Diese liegt z.B. beim
Baader-Komakorrektor bei 13 μm. Das kleinste darstellbare Detail hat
also eine Größe von 13x13μm - bei schlechter Fokussierung
oder Nachführung entsprechend mehr. Eine Kamera mit
einerPixelgröße von 7,4 μm würde das
kleinstmögliche Detail also auf 2x2=4 Pixeln abbilden. Eine Kamera
mit einer Pixelgröße von 5,2 μm würde dieses Detail
also auf 3x3 Pixeln abbilden. Man hat also keine höhere
Auflösung trotz höherer Auflösung. Hä?
Was wirklich zählt, aber auch wieder Probleme bereiten kann, ist
weniger die Auflösung, als vielmehr die Fläche des Chips.
Chipfläche
Bleiben wir bei o.g. Kameras. Die ATK2C hat eine Chipgröße
von 640x7,4μm horizontal und 480x7,4μm vertikal - also 4,7x3,5mm
. Die ALccd5 hat 6,7x5,3mm. Während die ALccd theoretisch die 4,26
fache Auflösung hat, besitzt sie nur die 2,15 fache Fläche.
Was diesen Aspekt angeht, ist sie also nicht 4 mal, sondern nur doppelt
so "gut".
Aber Achtung - man kann große Chipflächen nicht
uneingeschränkt als Vorteil ansehen. Jeder systembedingte Optische
Fehler - sei es das Koma beim Newton oder die Bildfeldwölbung beim
Refraktor - wirkt sich zum Rand des Bildfeldes schlimmer aus. Auch
lässt da die Ausleuchtung stark nach. Je nach Optik sollte man es
mit der Chipgröße also nicht übertreiben, weil man
sonst nur wieder einen Ausschnitt aus der Mitte verwenden kann.
CCD vs. CMOS
Die ATK2C ist eine CCD-Kamera, während die ALccd5 eine CMOS-Kamera
ist. Man sagt den CMOS-Chips einige gravierende Nachteile nach:
- CMOS-Chips haben einen wesentlich höheren Dunkelstrom, was zu
stärkerer Erwärmung und damit zu stärkerem Rauschen
führt.
- CMOS-Chips haben eine wesentlich niedrigere Quanteneffinzienz
(CCD=ca. 60%, CMOS=ca. 30%) und haben deshalb nur ca. die halbe
Empfindlichkeit
- bei CMOS-Chips wird jeder Pixel einzeln von einem eigenen
Verstärker ausgelesen. Daraus entsteht zwangsläufig ein
ungleichmäßiger Helligkeitsverlauf durch die
Fertigungstoleranzen der Ausleseverstärker. CCD-Pixel werden vom
gleichen Verstärker zeilenweise ausgelesen.
Diese Angaben stammen aus Axel Martins Buch und sind Stand 2004. Es ist
auch gut möglich, dass sich da mittlerweile etwas geändert
hat. Wie stark sich diese Nachteile auswirken kann ich nicht sagen. Die
CANON EOS hat schließlich auch einen CMOS-Chip und macht gute
Fotos.
Farbtiefe/Dynamik
Die ATK2C hat eine Farbtiefe von 16Bit (pro Kanal). Die CANON EOS hat
14 Bit und die ALccd5 nur 10 Bit - eine WebCam hat 8 Bit...
Im Endeffekt reduziert man die Bilder eigentlich immer auf 8 Bit, weil
das genug für das menschliche Auge ist. Bei den
Bearbeitungsschritten zwischendurch ist aber jedes zusätzliche
Bild für die Dynamik sehr wichtig. Man muss sich klar machen, dass
man z.B. beim Streching (Tonwertkorrektur) den Dynamikbereich so
einschränkt, wie man den Schwarz und Weißpunkt in die Mitte
schiebt. Wenn also die Gesamtbreite des Histogramms nur 8 Bit
beträgt, hat man nach dem Streching evtl. nur noch 4 Bit - also
nur noch 16 Farbabstufungen pro Kanal im ganzen Bild - da sieht man
schon deutliche Treppen. Bei 16 Bit Farbtiefe bleiben bei der gleichen
Bearbeitung immerhin noch 8 Bit - also 256 Farbabstufungen übrig.
Kühlung
Durch die Kühlung des Chips wird der Dunkelstrom und damit das
Rauschen gesenkt. Dadurch reduziert sich die Anzahl der Einzelbilder
die addiert werden müssen, um ein rauschfreies Bild zu bekommen.
Man muss dabei noch zwischen einer geregelten und eine ungeregelten
Kühlung unterscheiden. Die ungeregelte Kühlung bringt den
Chip auf ca. 25-30° unter Umgebungstemperatur. Die Chiptemperatur
ist aber dennoch den gleichen Schwankungen der Umgebung ausgesetzt -
halt nur 30° kälter. Bei einer geregelten Kühlung kann
die Chiptemperatur eingestellt werden. Dadurch erreicht man, dass man
für Aufnahmen, die zu unterschiedlichen Zeiten mit
unterschiedlichen Umgebungstemperaturen gemacht werden, die gleichen
Darkframes verwendet werden können.
3. Montierung
Allgemeines über Schneckentriebe
Jeder Schneckentrieb hat einen Schneckenfehler, der mit jeder Umdrehung
der Schnecke (nicht des Schneckenrades!) zum Tragen kommt. Da er mit
jeder Umdrehung wiederkehrt, nennt man ihn "periodischen
Schneckenfehler" oder "periodic error" (PE). Dieser Fehler beruht
wiederum auf zwei Fertigungstoleranzen der Schnecke - zum einen auf der
Rundlaufgenauigkeit der Schnecke, zum anderen auf der Genauigkeit der
Gewinde-Steigung.
Darüber hinaus hat das Schneckenrad selbst natürlich auch
einen Teilungsfehler, der aber im Laufe einer Schneckenrad-Umdrehung,
also im Laufe von 24h zuschlägt. Das ist so langsam, dass man es
gerade deshalb vernachlässigen kann. Das Schneckenrad kann aber
z.B. auch einen Schlag haben, der im schlimmsten Fall zum Verklemmen
bei zu starkem Schneckenandruck führen kann. Auf jeden Fall
führt der Schlag aber dazu, dass der eigentliche Schneckenfehler
je nach Position des Schneckenrades etwas anders ausfällt, da die
Gewindegänge der Schnecke unterschiedlich tief im Schneckenrad
anliegen.
Wenn man davon ausgeht, dass alle diese Fehler - egal wie stark - auf
jeden Fall vorliegen, ergibt sich folgendes:
a) Durchmesser des Schneckenrades
Der Durchmesser bzw. der Radius des Schneckenrades bestimmt den
Hebelarm zwischen dem Punkt, an dem das Schneckenrad durch die Schnecke
angetrieben wird und dem Drehpunkt, um den das Schneckenrad rotiert.
Egal also, wie groß der Scheckenfehler sein mag, er wird durch
den Radius des Schneckenrades geteilt. Nimmt man also den eigentlichen
Schneckenfehler als gegeben an, wird er bei einem Schneckenrad
doppelter Größe nur zur Hälfte durchschlagen. Ein PE
von +/-40" bei einem Schneckenrad mit 90mm Durchmesser wird, wenn man
dieselbe Schnecke mit einem 180mm Schneckenrad verwendet, also zu
+/-20".
Große Schneckenräder sind also in jedem Fall gut! Oder? Na
ja... weiterlesen...
b) Zähnezahl bzw. Modul (Zahnbreite) des Schneckenrades
Die Zähnezahl des Schneckenrades hat darauf nämlich auch noch
einen Einfluss...
Zwar beeinflusst diese nicht den Betrag des Schneckenfehlers - aber
seine Periodendauer. Wieso? Bleiben wir beim Beispiel des
Schneckenrades mit 90 bzw. 180mm Durchmesser. Haben beide
Schneckenräder denselben Modul (was sie haben müssen, um mit
derselben Schnecke zu laufen), hat letzteres auch die doppelte
Zähnezahl (bleiben wir simplerweise bei Modul 1 - hat das eine Rad
90 Zähne und das andere 180...). Das bedeutet natürlich auch,
dass die Schnecke sich doppelt so schnell drehen muss, um in 24h das
Schneckenrad einmal zu drehen. Wenn sich aber die Schnecke doppelt so
schnell dreht, schlägt auch der Schneckenfehler doppelt so schnell
und doppelt so oft zu.
Benutze ich also für beide Schneckenräder dieselbe Schnecke,
habe ich mit dem 90mm Schneckenrad einen Fehler von +/-40", der
(24*60/90=16) alle 16min zuschlägt. Der Schneckenfehler ist also
verhältnismäßig groß, kommt aber langsam und
gemächlich daher und kann evtl. vom Autoguider locker
bewältigt werden. Beim großen Schneckenrad mit 180
Zähnen hat der Fehler nur noch +/-20", kommt dafür aber schon
alle 8min um die Ecke. Der Autoguider hat die Fähigkeit, einen
Fehler von x Winkelsekunden pro y Zeitsekunden zu korrigieren. Dem ist
das also gleich.
Fazit: Für die Fotografie mit Autoguider bringt ein
größeres Schneckenrad eigentlich keinen Vorteil.
Aber was ist, wenn das größere Schneckenrad auch einen
größeren Modul hat?
Man könnte ja sagen, das kleine Schneckenrad hat einen Durchmesser
von 90mm und Modul 1 = 90 Zähne. Wenn das große Schneckenrad
einen Durchmesser von 180mm und einen Modul 2 hat, besitzt es ebenfalls
90 Zähne. Der Hebelarm ist größer, und somit der
Schneckenfehler geringer - trotzdem dreht sich die Schnecke langsam und
der Fehler kommt alle 16min. Ich weiß es nicht - aber ich habe
die Befürchtung, dass der Eingriffwechsel der einzelnen Zähne
ebenfalls einen Einfluss hat. Wenn die Schnecke auf dem Schneckenrad
abwälzt, kommen ja immer neue Zähne des Schneckenrades in
Eingriff. Ich könnte mir vorstellen, dass hier beim Zahnwechsel
ebenfalls eine Störung in der Laufruhe entsteht, die evtl.
stärker wird, je größer die Zähne sind...
c) Gesamtuntersetzung und Vorgetriebe
Der Schrittmotor, der den Schneckentrieb antreibt, hat einen bestimmten
Schrittwinkel - das sind normalerweise 1,8° bzw. 200 Schritte pro
Umdrehung. Außerdem hat er einen gewissen Drehzahlbereich, mit
dem man ihn betreiben kann. Das geht normalerweise bis ca. 2000Hz -
also 2000*1,8° pro Sekunde - oder anders gerechnet 2000 Schritte
pro Sekunde bei 200 Schritten pro Umdrehung = 10 Umdrehungen pro
Sekunde. Darüber hinaus kann der richtige Motor mit der richtigen
Steuerung auch noch einen Mikroschritt-Betrieb z.B. wird ein
Vollschritt noch mal in 64 Mikroschritte unterteilt.
Was soll das Ganze? Nun - die Montierungsachse soll sich ja minimal mit
1 Umdrehung pro 24h drehen und dabei die größtmögliche
Laufruhe für die Nachführung haben. Andererseits will man
auch ein möglichst flottes Goto haben...
Die Gesamtuntersetzung der Montierungsachse muss also mindestens so
hoch sein, dass ein Schritt (oder Mikroschritt) des Motors die Achse so
wenig bewegt, das sich diese Bewegung unterhalb des Seeings (also
<2") abspielt.
Man kann das nun erreichen, indem man (z.B. Fornax oder Gemini) ein
Scheckenrad mit großem Durchmesser und hohe Zähnezahl (bzw.
kleinstem Modul) verwendet. Unter voller Ausnutzung des
Mikroschritt-Betriebes bekommt man so die erforderliche Laufruhe. Die
andere Möglichkeit, die z.B. bei allen kleineren Montierungen
(EQx, GP, Sphinx, usw.) angewendet wird, besteht in einem Vorgetriebe
vor dem eigentlichen Schneckentrieb. Während z.B. die Schnecke der
Original-EQ6 180 Zähne, also eine Untersetzung von 1:180 hat,
hängt zwischen Motor und Scheckentrieb nochmal ein
Stirnradgetriebe von 1:100. Die Gesamtuntersetzung beträgt also
1:18000 - dabei braucht man keinen Mikroschritt (was die Steuerung auch
nicht kann) und kann ein schnelles Goto getrost vergessen. Wenn man
aber z.B. eine EQ6 SynScan nimmt, hat diese ebenfalls einen
Schneckentrieb von 1:180, aber nur ein Vorgetriebe von ca. 1:4. Man hat
also genügend Speed für Goto, die Laufruhe kann aber wieder
nur durch Mikroschritt erreicht werden. Wenn man den Mikroschritt als
"echte" Untersetzung ansieht, hat man bei der SynScan nicht 1:18000,
sondern sogar 1:46000.
Wie könnte es anders sein - auch hier hat alles wieder Vor- und
Nachteile, vor allem in Deklination:
Während die Rektaszensionsachse während der Nachführung
nur in eine Richtung läuft und höchstens ab und zu mal etwas
schneller oder langsamer wird, gibt es in Deklination ständig
Richtungswechsel. Benutzt man nun wie Fornax o.ä. einen
großen Schneckentrieb ohne Vorgetriebe, hat man einen
großen Vorteil: Es gibt quasi kein Getriebespiel und
Richtungsänderungen sprechen unmittelbar an. Einen
erheblichen Nachteil gibt es aber auch: Ein Schneckentrieb hat eine
wesentlich höhere Reibung, als ein Stirnradgetriebe. In
Deklination bleibt die Achse zudem immer wieder stehen, so dass bei
Loslaufen Haftreibung überwunden werden muss. Dafür sind
starke Motoren mit hohen Strömen und dementsprechende Steuerungen
erforderlich. Mit Vorgetriebe ist das wegen der geringeren Reibung
wesentlich einfacher - man muss aber jedesmal das Getriebespiel
überwinden, welches jedes Stirnradgetriebe nunmal hat.
Ein Mittelweg besteht darin, einen zweistufigen Schneckentrieb zu
verwenden, also eine Hauptschnecke, die als Vorgetriebe einen kleinen
Schneckentrieb verwendet. Das wird z.B. bei OTE so gemacht und vereint
geringe Reibung mit geringem Spiel - allerdings hat die kleine Schnecke
ihrerseits auch wieder einen Schneckenfehler, der zwar im Betrag durch
das Untersetzungsverhältnis des Haupttriebes geteilt wird,
dafür aber dank der schnelldrehenden kleinen Schnecke um so
schneller zuschlägt.
Teleskop-Steuerungen
Während eine visuell genutzte Montierung durchaus manuell bewegt
werden kann, braucht eine fotografische Fernrohrmontierung
zwangsläufig eine motorische Nachführung und eine
Steuerungen, über welche die Motoren betrieben werden.
Spätestens bei den Steuerungen scheiden sich dann die Geister.
Spätestens seit es die Littlefoot-Steuerung gibt, welche nach
Ansicht der etablierten Hersteller den Markt völlig kaputt macht,
wird die Diskussion um die Vor- und Nachteile der einzelnen Systeme
leider nur noch polemisch geführt und es ist für den
Einsteiger schwierig, noch sachliche Informationen zu bekommen. Ich
möchte deshalb kurz die Steuerungen vorstellen, mit denen ich
bisher Erfahrungen gesammelt habe. Dabei muss ich mich aber
zwangsläufig auf die Features beschränken, die ich selbst
getestet oder verwendet habe. Eines der wichtigsten Features der
einzelnen Systeme ist natürlich der jew. Preis – den sollte
man aber jew. aktuell beim Hersteller bzw. Händler erfragen.
- Boxdörfer MTS3-SDI
Das war sozusagen meine erste intelligente Steuerung. Ich habe sie an
der EQ6 (erste Version) betrieben, nachdem die Originalmotoren gegen
McLennan-Motoren und -Getriebe ausgetauscht wurden. Ich war mit der
Steuerung und auch mit dem Support durch Sigurd Boxdörfer (und
auch durch das Astronomicum-Forum) immer sehr zufrieden. Zuerst –
mit der Firmware 2.x - habe ich problemlos mit TheSky
(langsames) Goto machen können und mit AstroArt seriell geguidet.
Mit der Firmware 3.x konnte die Steuerung dann das LX200-Protokoll
(jedenfalls soweit, wie ich es brauchte) und lief mit anderen
Einstellungen weiterhin problemlos mit o.g. Programmen. Die
Timing-Probleme, welche andere beim seriellen Guiding mit der MTS3
offensichtlich haben, hatte ich nie. Ich habe mir auch eine Relaisbox
gekauft und zwischen Laptop und Steuerung gehängt, was das Guiding
um keinen Deut verbessert hat. Die Steuerung sitzt in einem
schönen und stabilen blauen Alugehäuse, das auch mal einen
Sturz problemlos wegsteckt.
Geärgert hat mich immer das Kabel, das über einen
Pfostenstecker auf der Rückseite der Steuerung angeschlossen
wurde. Ich glaube, es gibt kaum eine dämlichere Stelle dafür.
Mit Firmware 2.x konnte man die Steuerung auch ohne Display sehr gut
bedienen, in dem man die QBasic-Routine für die Display-Emulation
auf dem PC/Notebook benutzte. Diese Emulation funktionierte bei mir mit
Version 3.x nicht mehr und somit waren die erweiterten Funktionen (z.B.
PEC-Training) schon ein echtes Trauerspiel. Man sollte das Display als
unverzichtbaren Bestandteil der Steuerung mit einkalkulieren. Ich habe
übrigens mit PEC geguidet und hatte nachvollziehbar bessere
Ergebnisse, als ohne PEC.
Schlecht finde ich die externen Programmiertools, sei es MTSConfi, oder
die Firmware-Update-Routinen. Das hat unter Windows ab und zu mal
funktioniert. Im Endeffekt habe ich mir eine DOS-Bootdiskette gemacht,
mit der es dann immer funktionierte. Ich halte das für ziemlich
antiquiert. Trotzdem ist es möglich, die MTS3 mithilfe von
MTSConfi auf so ziemlich jede Montierung anzupassen und darauf kommt es
schließlich an.
Pro:
- stabiles Aluminiumgehäuse
- für unterschiedliche Montierungen parametrisierbar
- serielles Guiding (ab Firmware 3.x mit LX200)
- gute Bedienbarkeit (nur mit Display)
- PEC-Funktion mit 64 Messpunkten
- Über optionalen Freischaltcode auf Goto (mit eigenem
Objektkatalog) zu erweitern
Kontra:
- unschöne Kabelführung mit Pfostenstecker an der
Rückseite
- alte Version max. 500mA, neue Version max. 1A pro Motor. Keine
Begrenzung, also Zerstörungsgefahr
- schlechte Bedienbarkeit (ohne Display)
- schaltet zwischendurch den DE-Antrieb zum Stromsparen ab, wodurch der
Motor auf den nächstliegenden Vollschritt fällt
- Littlefoot
Die Littlefoot habe ich an der Vixen-GP benutzt. Das Gehäuse der
Littlefoot ist mit dem der MTS3 sicherlich nicht zu vergleichen.
Andererseits ist es ja eigentlich ein Selbstbau-Projekt und so kann
sich auch jeder ein Gehäuse nach seinem Geschmack besorgen. Da ich
aber nicht so der Oberlöter bin, habe ich die Littlefoot direkt
fertig von Rajiva bezogen - mit dem Plastikgehäuse. Auch das hat
einige Stürze überlebt und mein Widerwillen dagegen ist wohl
eher psychologischer Natur. Was aber bei der Littlefoot noch
dämlicher ist, als das Rückwand-Kabel der MTS3 - ist das
unten eingesteckte Kabel für die Stromversorgung. Das ist mir
leider mehr als nur einmal im Betrieb rausgeflutscht...
Über die Funktion kann ich ebenfalls nicht meckern - und auch
nicht über den Support. Wenn der Meister selbst mal nicht
reagiert, treiben sich im eigenen Support-Forum doch immer genug
Enthusiasten rum, die sofort helfen. Meistens reicht schon lesen...
Über die Funktionen, die die Littlefoot über die der MTS3
hinaus bietet, kann ich nicht allzuviel sagen. Ob die 256 PEC-Punkte
nun wirklich einen praktischen Vorteil gegenüber den 64 der MTS3
darstellen, kann ich nicht sagen. Ich halte es zwar für
wahrscheinlich - kann es aber nicht durch eigene Tests belegen. Ich
muss sogar zugeben, dass ich die PEC-Funktion der Littlefoot nie
benutzt habe, weil die GP einfach viel besser lief, als die EQ6.
IntelliTrack habe ich mal probiert - das ist aber in einem Chaos
geendet. Irgendwie lief der Stern ganz wild in der Gegend rum. Es kann
aber gut sein, dass ich einfach zu dämlich oder zu ungeduldig war.
Die kostenpflichtige Goto-Funktion der Littlefoot hat nichts mit der
ebenfalls kostenpflichtigen Option für die MTS3 zu tun. Man
braucht sie schon, um über das Notebook Objekte anfahren zu
können - bei der MTS3 hat die Steuerung dann selbst einen
Objektkatalog.
Die Bedienung der Littlefoot halte ich für ebenso mies, wie die
der Boxdörfer ohne Display. Es gibt aber halt (noch?) kein Display
für die Littlefoot. Ich habe aber gehört, dass da was kommen
soll.
Unterm Strich halte ich beide Systeme für ziemlich gleichwertig.
Technologisch hat die Littlefoot wohl etwas mehr auf dem Kasten, ob
sich das im Ergebnis - und das ist für mich immer noch das Foto -
auswirkt, weiß ich jedoch nicht.
Auch die Littlefoot läßt sich einfach auf verschiedene
Montierungen parametrisieren, wobei die Software sogar unter Windows
läuft. In meiner Version war sie (vermutlich in den Endstufen)
etwas schwächer auf der Brust, als die Boxdörfer. Aber dazu
später mehr...
Pro:
- für unterschiedliche Montierungen parametrisierbar
- serielles Guiding (LX200)
- PEC-Funktion mit 256 Messpunkten
Kontra:
- Plastik-Gehäuse
- Buchse für Spannungsversorgung ungeeignet
- Goto über Notebook nur mit Extra-Freischaltung (aber sehr billig)
- Max. 500mA pro Motor
- Synta-SkyScan (bzw. SynScan)
Irgendwann wollte ich meine Boxdörfer für eine andere
Montierung nutzen (auch dazu später mehr) und habe mir für
die EQ6 das SynScan-Upgrade gekauft. Ich muss sagen - das ist schon ein
ganz anderes Kaliber, als Littlefoot oder MTS3. Die Bedienung ist dank
eines großen Tastenfeldes, auf dem man nicht nur Listen
durchscrollen, sondern auch Zahlen direkt eingeben kann - und dank des
großzügigen Displays einfach um Längen besser.
Selbstverständlich schafft die SynScan das schnelle Goto nur, weil
zwischen Schrittmotor und Schnecke kein weiteres Getriebe sitzt. Es
wird oft behauptet, das ginge zu Lasten der fotografischen Eignung -
ich kann das weder theoretisch noch praktisch nachvollziehen. Solange
der einzelne Schritt (in dem Fall 1/64 Mikroschritt) erheblich kleiner
als das Seeing ist, reicht das völlig aus. Zu dem Upgrade-Kit
gehört auch ein neuer Satz Motoren, die sehr leicht einzubauen
sind.
Was mit der SynScan nicht so gut funktioniert, ist das serielle
Guiding. Das verwendete Celestron-Protokoll wird zwar auch von diversen
Programmen unterstützt - die Steuerung braucht aber zu lange, um
die Guiding-Befehle umzusetzen. Hier habe ich mit einer LX200-Relaisbox
merkliche Verbesserungen erreicht.
Eine Parametrisierung der Steuerung an andere Montierungen gibt es
leider nicht. Die SynScan läuft an der EQ6 - bzw. die andere
Version an der HEQ5 und das wars.
Wie dem auch sei - ich bin wirklich ein Fan der SynScan-Steuerung (an
der EQ6).
Pro:
- Vorbildliche Bedienbarkeit durch gutes Display und großes
Tastenfeld
- Sehr schnelles Goto mit eigenem Objekt-Katalog
- PEC-Funktion mit ?? Messpunkten
Kontra:
- Nicht für andere Montierungen parametrisierbar. Läuft nur
mit EQ6, HEQ5, EQ5, GP, EQ3
- Plastik-Gehäuse
- Serielles Guiding (Nexstar-Protokoll) reagiert sehr langsam
-…könnte sich eigentlich die Uhrzeit merken…
- Koch FS-2
Wie schon früher erwähnt, wollte ich die
Boxdörfer-Steuerung an einer anderen Montierung einsetzen. Das war
eine OTE-150II, die ich günstig - aber ohne Steuerung - bekommen
habe. Die MTS3 ließ sich zwar problemlos auf die notwendigen
Parameter konfigurieren - also so, dass die Montierung mit der
richtigen Geschwindigkeit sauber nachführte - aber mit den
wünschenswerten Parametern hat es dann doch gehapert. Will sagen -
ein halbwegs schnelles Goto, wie ich es an der EQ6 mit SynScan
mittlerweile gewohnt war, ließ sich einfach nicht realisieren.
Ich habe dann auch noch die Littlefoot angeschlossen - damit habe ich
aber nicht mal eine saubere Nachführung in Sterngeschwindigkeit
erreicht. Das mag meine eigene Dummheit gewesen sein - keine Ahnung.
Ich habe es aber auch sehr schnell wieder aufgegeben. Vermutlich
hätte Rajiva weiterhelfen können.
Mit der max. 64-fachen Sterngeschwindigkeit für's Goto wollte ich
mich nicht abfinden, also habe ich mir eine FS-2 gekauft und zwar die
große Version mit 12V Eingangsspannung und internen Wandlern auf
40V.
Damit ist es überhaupt kein Problem, die OTE mit 400facher
Sterngeschwindigkeit zu betreiben. Ich glaube, es ginge sogar noch
wesentlich mehr - aber da habe ich Angst, das Teil schlägt mir die
Rübe ein
Die FS-2 hat (wie auch die SynScan) den Leistungsteil getrennt vom
Bedienteil. Ich empfinde das als großen Vorteil in der
Handhabung. Die Handbox der FS-2 ist gegenüber der SynScan
allerdings sehr spartanisch gehalten. Zwar ist sie - dank des Displays
- viel komfortabler zu bedienen, als MTS3 oder Littlefoot - um ein
Objekt anzufahren, rattert man aber trotzdem den NGC-Katalog durch,
statt einfach die Nummer einzutippen. Einen Nachteil hat sie aber auch
- sie merkt sich die PEC-Kurve nur, solange Strom anliegt. Nun - die
OTE läuft sehr sauber, deshalb brauche ich keinen PEC. Ein
Nachteil ist es trotzdem.
Natürlich läßt sich die FS-2 ebenfalls über eine
gut bedienbare Windows-Schnittstelle (aber auch über die Steuerung
selber) an unterschiedlichste Montierungen anpassen. Wenn man dabei die
Anleitung gut liest und es mit dem Strom nicht übertreibt, holt
man eine beängstigende Goto-Geschwindigkeit raus, ohne eine
Qualmwolke zu riskieren.
Pro:
- gute Bedienbarkeit
- Sehr schnelles Goto mit eigenem Objekt-Katalog
- PEC-Funktion mit ?? Messpunkten
- für unterschiedliche Montierungen parametrisierbar
- Trennung zwischen Bedien- und Leitungsteil
- Serielles Guiding (LX200)
Kontra:
- Plastik-Gehäuse (Bedienteil)
- Merkt sich die PEC-Kurve nicht, wenn die Spannungsversorgung
unterbrochen wird
- Merkt sich ebenfalls nicht die Uhrzeit (braucht sie aber auch nur, um
Planeten anzufahren)
Nachführsysteme
Prinzipiell ist jede Nachführung für die Astrofotografie
geeignet. Es kommt nur immer darauf an, welche Brennweiten mit welchen
Belichtungszeiten zum Einsatz kommen. So kann man z.B. mit einer
Brennweite von 16mm und einer Belichtungszeit von (n*) 30s
eindrucksvolle Astrofotos ohne jede Nachführung (Fotostativ)
machen (http://www.watchgear.de/Bilder/900/Strand.jpg).

Mit einer gut eingenordeten parallaktischen Montierung kann man auch
bis zu einer gewissen Grenze ohne Nachführkontrolle fotografieren.
Werden Brennweite und Belichtungszeit jedoch höher, kommt es immer
mehr auf die Laufgenauigkeit der Montierung und auf eine geeignete
Nachführkontrolle an. Die Nachführkontrolle (Guiding) bezieht
sich immer auf einen Leitstern, der sich möglichst nah am zu
fotografierenden Objekt befinden sollte. Je weiter der Leitstern vom
Objekt entfernt ist, desto stärker wirkt sich eine evtl. schlechte
Poljustage der Montierung in Form einer Bildfelddrehung aus.
Die Kontrolle des Leitsterns erfolgt meistens über eine zweite
Kamera, die an einem separaten Leitrohr, oder einem Off-Axis-Guider
angebracht ist. Die Vor- und Nachteile der einzelnen Systeme werde ich
im Nachfolgenden ansprechen. Eines ist jedoch grundsätzlich
wichtig: Je nach Laufgenauigkeit der Montierung ist es wichtig,
möglichst schnelle Bildfolgen von der Leitkamera zu bekommen. Wenn
die Lichtstärke des Leitrohrs oder der OAG dazu führt, dass
man mit der Leitkamera lange belichten muss, um einen Leitstern zu
bekommen, reicht die Guidingfrequenz u.U. nicht, das Teleskop sauber
nachzuführen. Ist die Nachführgenauigkeit der Montierung
jedoch sehr gut, kann es ratsam sein, nur selten Korrekturen
vorzunehmen, um nicht dem Seeing hinterherzulaufen.
Auf das manuelle Guiding mittels Fadenkreuzokular möchte ich nicht
näher eingehen, da ich selbst keine Erfahrungen damit habe. Ein
Tipp habe ich jedoch anzubieten: Bei einem Doppelfadenkreuz-Okular
stellt man den Stern scharf und hält ihn in der Mitte des
Quadrates, dass aus den vier Linien gebildet wird. Bei einem einfachen
(nicht doppel), oder sogar einem unbeleuchteten Fadenkreuz-Okular ist
es sinnvoll, den Leitstern leicht unscharf zu stellen, damit er nicht
durch den Faden verdeckt wird.
Leitrohr mit Leitrohrschellen
Die klassische Methode, eine Autoguider-Kamera anzubringen, ist wohl
das Leitrohr. Neben dem Nachteil, dass das Bild des Leitsterns von
einer zweiten Optik erzeugt wird und somit nicht dem der Aufnahmeoptik
entsprechen muss, neigt ein Leitrohr in Leitrohrschellen auch dazu, im
Laufe der Zeit zu driften. Das kann z.B. durch Verbiegung des
Leitrohrs, oder auch durch eine zu schlaffe Befestigung in den
Leitrohrschellen passieren. Dieser Nachteil kommt umso stärker zum
Tragen, je länger die Belichtungszeiten werden. Bei mehreren
kurzen Belichtungen erscheint im Endergebnis ja nur die Drift einer
Einzelaufnahme, während die Gesamtdrift über die komplette
Belichtungszeit über das Alignment beim Stacken eliminiert wird.
Die Leitrohrschellen-Variante hat gegenüber der Exzenter-Variante
den Vorteil, dass der Chip der Guiding-Kamera immer auf der optischen
Achse liegt.
Leitrohr mit Exzenter
Um bei langen Belichtungszeiten die Leitrohr-Drift zu vermeiden, sollte
man Haupt- und Leitrohr so starr wie eben möglich miteinander
verbinden. Dadurch entfällt aber die Möglichkeit, das
Leitrohr gegenüber der Aufnahmeoptik zu verschieben, um einen
Leitstern zu finden. Man kann sich aber in diesem Fall mit einem
Exzenter helfen, der es ermöglicht, die Guiding-Kamera im Rahmen
des Leitrohr-Bildfeldes zu verschieben, um einen Leitstern zu
zentrieren. Somit hat man eine starre Verbindung und dennoch die
Möglichkeit, einen geeigneten Leitstern zu finden. Allerdings hat
die Methode auch Nachteile:
- der Schwenkbereich zum Auffinden eines Leitsterns ist
möglicherweise kleiner, als bei der Verwendung von
Leitrohrschellen.
- Es kommen nur Leitrohre mit min. einem 2“-Auszug in Frage, da
der Schwenkbereich im 1,25“-Auszug zu klein wäre
- Die meisten Optiken haben am Bildfeldrand verstärkt
prinzipbedingte Fehler. So schlägt bei einem Refraktor die
Bildfeldwölbung, bei einem Newton das Koma umso stärker zu,
je weiter man sich von der optischen Achse entfernt. Dadurch eigenen
sich Sterne am Rand des Bildfeldes – je nach verwendeter
Leitrohroptik – nur bedingt zum Nachführen, da die Sterne
u.U. nicht mehr rund sind. Auf verzerrte, langezogene Sterne lässt
es sich nicht gut guiden. Es ist also u.U. noch ein Flattener
für's Leitrohr angeraten.
Off-Axis-Guider
Oft wird der Off-Axis-Guider (OAG) als das Nonplusultra für die
Nachführung empfohlen. Prinzipiell ist das richtig - immerhin ist
es die einzige Methode (außer Kameras mit mehreren Chips bzw.
Interlace-Auslesung) für das Guiding dasselbe Bild zu benutzen,
welches auch von der Hauptkamera aufgenommen wird. Das ist vor allem
bei Optiken mit Hauptspiegelfokussierung (z.B. SC oder MAK) wichtig, da
es hier zu einer Verkippung des Hauptspiegels kommen kann welche von
einem Autoguider an einem Leitrohr nicht bemerkt wird. Aber auch bei
anderen Optiken kann es - vor allem bei Langzeitbelichtungen - zu einer
Verschiebung zwischen Leitrohr und Aufnahmeoptik kommen.
Das alles spricht für den Off-Axis-Guider und bei der Fotografie
durch z.B. SC-Teleskope gibt es auch kaum eine Alternative. Der OAG hat
allerdings auch gravierende Nachteile, die u.U. gegenüber den
Vorteilen überwiegen können. Dazu muss man sich zunächst
klar machen, wie der OAG funktioniert und woher das Bild der
Guiding-Kamera kommt.

Der OAG leitet mithilfe eines kleinen Prismas einen Teil des Lichts vom
Bildrand an die Guiding-Kamera. Oft wird behauptet, durch das kleine
Prisma käme wegen der kleinen Fläche wenig Licht und deshalb
würde eine lichtstarke Kamera benötigt. Das ist falsch! Die
kleine Fläche des Prismas hat damit nichts zu tun. Theoretisch
kommt bei den Pixeln der Guidingkamera ebensoviel Licht an, als
wäre sie direkt im Hauptfokus. Allerdings geht durch andere
Effekte Licht verloren – so wird natürlich an der
Vorderseite des Prismas, durch die das Licht eintritt, einiges Licht
wegreflektiert. Dies umso mehr, als die Prismen meistens nicht
sonderlich vergütet sind. Außerdem wird das Licht am Rande
des Bildfelds eingefangen, wo je nach Teleskop die Ausleuchtung (durch
Vignettierung) schon stark vermindert ist.
Je nach Ausführung kann das Bildfeld des OAG über ein
bewegliches Prisma, oder wie im Bild, durch verschieben der Kamera
gegen das Prisma, noch ein wenig verschoben werden. Ansonsten sucht man
den Leitstern, indem man den OAG am OAZ (Okularauszug) dreht. Je nach
Aufbau sind dem schon Grenzen gesetzt, weil die Leitkamera u.U. mit
irgendwas (z.B. Sucher) kollidiert. Außerdem sollte das Bildfeld
des OAG möglichst wie gezeichnet oberhalb (oder auch unterhalb)
des Bildfeldes der Aufnahme-Kamera liegen, weil man sonst den Schatten
des OAG-Prismas auf der Aufnahme sieht.
Als nächstes kommt es dann auf das Objekt, bzw. den
Himmelsausschnitt an, der fotografiert werden soll. Es gibt Bereiche,
wo es von hellen Sternen, die sich zum Guiden eignen, nur so wimmelt.
In anderen Ecken findet sich überhaupt nichts.
Die meisten Optiken brauchen, um ein ebenes und fehlerfreies Bild auf
dem Kamerachip zu erzeugen, einen Korrektor, der in einem fest
definierten Abstand zum Film, bzw. zum Chip angebracht sein muss. Das
gilt z.B. bei Newtons für den Komakorrektor, oder bei Refraktoren
für den Flattener. Normalerweise hat man keine Chance, den OAG
zwischen Korrektor und Kamera zu platzieren. Setzt man den OAG vor den
Korrektor bekommt man im OAG evtl. nur Striche (weil man ja den Stern
am Bildrand nehmen muss, wo das Koma am stärksten ist). Auf
Striche kann man aber schlecht guiden.
Zusammenfassend kann man also sagen, dass ein OAG der Guidingkamera ein
ziemlich dunkles Bild liefert, auf dem man nur schwer einen Leitstern
findet, der dann u.U. noch stark verzerrt und zum Guiden nur bedingt
tauglich ist.
6.4 Selfguiding
Eine weitere Möglichkeit der Nachführung, ist die
gleichzeitige Benutzung der Hauptkamera. So bieten z.B. die Kameras von
StarlightXpress die Möglichkeit, den Chip in einem
Interlace-Verfahren gleichzeitig zur Langzeitbelichtung (1. Halbbild)
und zum Guiding (2. Halbbild) zu nutzen. Andere Kameras – z.B.
einige Modelle der Fa. SBIG – haben einen zweiten kleineren
Guiding-Chip eingebaut, der wirklich ein simultanes Langzeitbelichten
und Guiding ermöglicht. Beide Methoden bieten die Vorteile des
Off-Axis-Guiders, den Leitstern über die selbe Optik aufzunehmen
und somit keine Probleme mit Shift oder Drift zu bekommen. Beide haben
aber auch Nachteile:
- Starlight: Beim Selfguiding wird nur jew. ein Halbbild ausbelichtet,
während das andere Halbbild zum Guiding benutzt wird. Nach der
halben Belichtungszeit wird dann getauscht, um das andere Halbbild
auszubelichten. Daraus folgt leider, dass die notwendige
Belichtungszeit verdoppelt wird, oder – wenn man es so lieber hat
– die Empfindlichkeit der Aufnahmekamera halbiert wird.
- Starlight: Es kann ein beliebiger Stern im Bildfeld der Kamera zum
Guiden benutzt werden. Es ist aber keineswegs gesagt, dass sich ein
heller Stern im Bildfeld befindet. Gerade extrem helle Sterne, die sich
besonders gut zum Guiding eignen würden, versucht man z.B. aus dem
Bildfeld herauszuhalten, um keine Blooming-Effekte zu bekommen.
- SBIG: Der Leitstern liegt nicht im Bereich des Aufnahme-Chips,
sondern kurz daneben, im Bereich des Guiding-Chips. Somit sind Sterne
im Bildfeld des Objektes nicht zum Guiding zu verwenden. Je nachdem
muss die gesamte Kamera gedreht werden, um einen Leitstern in den
Bereich des Guiding-Chips zu bekommen. Dadurch liegt das Objekt u.U.
nicht mehr so ideal im Bildfeld, wie man es gerne hätte.