Leitfaden für die Amateur-Astrofotografie

1. Auswahl der Fotooptik
Beim Einstieg in die Astrofotografie muss man sich zunächst von allen zoom-verwöhnten Vorstellungen der normalen Fotografie lösen. Im allgemeinen taugen weder Zoom-Objektive zur Astrofotografie, noch kommt man mit der Knipserei durch Zoom-Okulare auf einen grünen Zweig. Bei der Deepsky-Fotografie bekommt man vernünftige Ergebnisse nur, wenn man den Chip in den Primärfokus der Optik legt.
Es gibt also nur zwei Faktoren, durch die der Abbildungsmaßstab bestimmt wird: a) die Brennweite der Optik und b) die Fläche des Chips. Geht man z.B. vom Chip einer digitalen Spiegelreflexkamera (APS-C) aus, so ergibt sich die benötigte Brennweite durch die Größe des abzulichtenden Objektes. Hier ein paar Beispiele:



Nach unten hin ist die sinnvolle Brennweite bei ca. 8mm limitiert - das ergibt ein Bildfeld von ca. 180° und man muss schon achtgeben, nicht die eigenen Füße auf's Bild zu bekommen. Nach oben hin, ist die sinnvolle Brennweite theoretisch nicht begrenzt - zumindest was die Objekte betrifft. Es geht garantiert immer noch kleiner. Realistisch ist die Luftunrhuhe (Seeing) und die Beherrschbarkeit der Nachführung irgendwann der limitierende Faktor.

Wenn man sich nun entschieden hat, welche Brennweite benötigt wird, folgt die Auswahl, welches Instrument es denn nun sein soll. Im großen und ganzen muss man dabei zunächst zwischen Refraktoren und Reflektoren unterscheiden. Neben den seit ewigen Zeiten geführten Glaubenskriegen kann man deren Vor- und Nachteile auch (hoffentlich) objektiv darstellen. Das will ich hier kurz versuchen:

Refraktoren
Im Gegensatz zu Reflektoren (Spiegeloptiken) wird die Fokussierung der Lichtstrahlen nicht durch Reflektion an einem gewölbten Spiegel, sondern durch Refraktion (=Brechung) in einer Linse erzeugt. Eine Linse kann man sich vorstellen, als wären einzelne Abschnitte von Prismen aufeinandergeschichtet und genau so wirkt sie. Das parallel einfallende Licht wird zwar fokussiert – jedoch nicht in einem Punkt. Vielmehr hat jede Wellenlänge des Lichts (=Farbe) einen eigenen Brennpunkt.



Da die Bildebene der Kamera aber nun mal an einem Punkt auf der optischen Achse liegt werden Sterne in den einzelnen Wellenlängen unterschiedlich scharf. Das sieht man am besten, wenn man sich die Farbkanäle (RGB) einzeln anschaut.



In diesem Bild sieht man deutlich, dass die Sterne im roten und im grünen Kanal ähnlich groß sind, während sie im Blauen Kanal deutlich aufgebläht erscheinen. Dieses Problem nennt sich Farblängungsfehler (Chromäsie) und tritt mehr oder weniger bei allen optischen Elementen auf, die mit Linsen und somit mit Lichtbrechung arbeiten. Der Fehler wird von Natur aus umso stärker, je stärker die Lichtstrahlen gebrochen werden, also je größer die Offnung im Verhältnis zur Brennweite ist. Je lichtstärker also ein Refraktor ist, umso problematischer wird der Farblängungsfehler.
Am stärksten tritt der Fehler bei einlinsigen Objektiven auf, die deshalb als Chromaten bezeichnet werden. Das Wort könnte zu Recht mit „Farbwerfer“ übersetzt werden.

Fraunhofer-Achromaten
Der erste Ansatz, diesen Farblängungsfehler zu bekämpfen, stammt von Herrn Fraunhofer, der zwei Linsen mit einem Luftspalt zu einem Objektiv zusammengefügt hat. Solche Objektive werden zu Recht als Fraunhofer-Objektive (FH) und zu unrecht als Achromaten bezeichnet. Insofern zu unrecht, als dass diese Bezeichnung nahe legt, der Farbfehler sei eliminiert – was nur bedingt stimmt. Die zwei Linsen eines Achromaten schaffen es bestenfalls, das Licht in zwei Wellenlängen in einem Punkt zu bündeln. Welche Wellenlängen das sind, hängt vor allem vom Abstand zwischen den Linsen, also der Breite des Luftspaltes ab. Normalerweise werden Achromaten auf Grün und Rot „gestimmt“, liefern also einen Strahlengang wie hier skizziert:



Misst man den Sterndurchmesser in den einzelnen Farbkanälen entlang der optischen Achse, zeigt ein Achromat etwa diesen Verlauf. Man sieht, dass die Linien für die einzelnen Farben annähernd parallel verlaufen, jedoch mit einem gewissen Abstand. Dabei verlaufen zwei Farben immer nah aneinander, während die dritte einen gewissen Abstand hat. In diesem Fall ist der grüne Kanal recht scharf (tiefe Linie=kleiner Sterndurchmesser=Scharf), während Rot und Blau unscharf sind. Diese Messung kann man übrigens mit meinem Programm „Focuser“ vornehmen, das in erster Linie dazu gedacht ist, Refraktoren unter Berücksichtigung des Farblängungsfehlers zu fokussieren (http://www.watchgear.de/Focuser/Focuser.htm).

Übrigens verdienenen die heutzutage vertriebenen "schnellen" Achromaten den Namen überhaupt nicht. Eine halbwegs passable Korrektur des Farbfehlers funktioniert bei diesem Design nämlich nur bei f/10-f/20 - bei größeren Durchmessern sollte es maximal f/15 sein. Ein "FH" mit f/5 ist also kein Achromat und Herr Fraunhofer würde lautstark protestieren - wenn er noch könnte...

Halb-Apochromaten
Es gibt vermutlich keinen unklareren Begriff, als den Halb- oder Semi-Apochromaten. Manche Hersteller kombinieren drei oder mehr Linsen aus Standard-Gläsern und bezeichnen das dann als Semi-APO, obwohl die Farbkorrektur kaum besser (teilweise sogar schlechter), als beim Achromaten ist. Ein anerkannter Halb- oder Semi-APO ist aber z.B. das zweilinsige ED-Objektiv. Im Prinzip ist das Objektiv wie ein Achromat aufgebaut – nur besteht eine der beiden Linsen aus einem fluoridhaltigen Sonderglas. Die Farbkorrektur wird besser, weil das ED-Element besondere Brechungseigenschaften hat. Dadurch ergibt sich ein Strahlenverlauf, der sich von dem oben skizzierten unterscheidet. Die Lichtstrahlen unterschiedlicher Wellenlängen treten nicht an einem Punkt des Objektives aus und divergieren danach – sie treten an unterschiedlichen Stellen des Objektives aus und haben durch ihren immer noch unterschiedlichen Winkel die Chance, in einem Punkt zu konvergieren. Der Verlauf der Sterndurchmesser sieht z.B. bei einem klassischen 80ED-Volksapo so aus:



Hier verlaufen die Linien nicht mehr parallel. Es ist ein idealer Fokuspunkt zu erkennen, an dem zwar nicht die optimale Schärfe, aber ein annähernd gleicher Sterndurchmesser in allen Kanälen gegeben ist (ungefähr in der Mitte). Fokussiert man also auf diesen Brennpunkt, erhält man eine Sternabbildung, die nur einen geringen Farbsaum zeigt.

Apochromaten
Da ich leider immer noch keinen echten Apochromaten besitze, kann ich keine Grafik für den Verlauf der Sterndurchmesser anbieten. Ich werde das, sobald es der Kontostand zulässt, nachholen. Das Prinzip bleibt aber das gleiche und bei einem echten Achromaten, der aus einem dreilinsigen System (Triplett) von Sondergläsern besteht, sollte der Brennpunkt für drei Wellenlängen im Bereich des sichtbaren Lichts in einen Punkt fallen. Leider besagt die Definition nicht, welche Wellenlängen das sein müssen. Es wäre wünschenswert, wenn es sich um eine Wellenlänge im mittleren Rot, mittleren Grün und mittleren Blau handeln würde. Das ist aber nicht festgelegt.

Farblängungsfehler allgemein

Gäbe es eine Formel für die Stärke des Farbfehlers, würde sie ungefähr so lauten:   Farbfehler = Öffnungsverhältnis * Öffnung / Glaspreis

Also - der Farbfehler nimmt (wie eigentlich jeder optische Fehler) mit dem Öffnungsverhältnis zu. Das ist bekannt. Darüber hinaus nimmt der Farbfehler aber nochmal mit der Öffnung zu. Anders gesagt: Der Farbfehler eines 8" f/6 ist erheblich stärker als der eines 4" f/6 - oder die Öffnung geht annähernd quadratisch ein. Der einzige reduzierende Faktor ist die Verwendung entsprechender (teurer) Gläser - nicht die Anzahl der Linsen. Für die perfekte Korrektur mit Fluorit- oder ED-Linsen braucht man zwar 3 Linsen (es gibt aber auch sehr gute 2 Linser) - mit BK7-Glas bringen die 3 Linsen jedoch nichts.

Bildfeldwölbung
Der gesamte Text zu den verschiedenen Refraktoren bezog sich bisher auf den Farblängungsfehler, bzw. dessen Korrektur. Der Refraktor hat prinzipbedingt aber noch einen weiteren Fehler, der sich auswirkt, sobald das Bild auf eine ebene Fläche, wie Film oder CCD-Chip projiziert wird. Das Bild, welches von einem Linsenobjektiv erzeugt wird, hat von Natur aus einen sphärischen Fehler – die Bildfeldwölbung. Dieser Fehler würde keine Rolle spielen, wäre die Filmebene um den Radius der Brennweite gekrümmt – das möchte ich meiner Kamera aber nicht antun.

Dieser Fehler kann durch entsprechende optische Elemente korrigiert werden - man redet dann von einem sog. "Flattener". Oft haben diese Flattener auch einen Einfluss auf die Brennweite. Der klassische Reducer/Flattener veringert die Brennweite auf 0,8x. Ein Nachteil dieser brennweitenverkürzenden Flattener ist die Verringerung des ausgeleuchteten Bildfeldes. Dieses nimmt um den gleichen Faktor ab, wie die Brennweite.

Der sphärische Fehler tritt bei jedem Refraktor auf. Es gibt zwar auch asphärischen Objektive - diese werden aber höchstens in sündhaft teuren Kameraobjektiven eingesetzt.. Wenn man einem Refraktor ein geebnetes Bildfeld bescheinigt, so ist der notwendige Korrektor bereits eingebaut. Dies ist z.B. bei den NP-Refraktoren von Televue, oder den Pentax-Refraktoren der Fall. Diese werden als vierlinsige Apochromaten bezeichnet, was ein wenig irreführend ist. Es handelt sich um zweilinsige Apochromaten (also keine Tripletts) mit einem zweilinsigen Korrektorelement. Da in diesem Fall jedoch der Korrektor perfekt auf das Objektiv abgestimmt ist (oder sein kann?), stellt das keinen Nachteil dar. Bei den Pentax-Refraktoren (z.B. 75SDHF) ist die Ausleuchtung und die Korrektur bis zum Mittelformat perfekt - die Farbkorrektur ist jedoch nur mässig.

 
Reflektoren
Da die Licht-Reflektion im Gegensatz zur Brechung jedes (sichtbare) Licht - egal welcher Wellenlänge - gleich reflektiert, bleibt man hier weitestgehend von Farbfehlern verschont. Allerdings sind beinahe alle fotografischen Reflektoren keine reinen Reflektoren, sondern Mischformen, die zu einem Teil doch wieder mit Lichtbrechung arbeiten müssen. Der dadurch entstehende Farbfehler ist aber meistens vernachlässigbar. Stattdessen ergeben sich prinzipbedingt andere Nachteile. So haben z.B. alle Reflektoren (abgesehen vom Schiefspiegler) einen Fangspiegel, der einen Teil des einfallenden Lichtes abschattet. Dadurch wird das Bild dunkler und kontrastärmer. Des weiteren reflektiert ein Spiegel im Allgemeinen weniger Licht, als eine Linse durchlässt - und durch diese Reflektionsverluste an Haupt- und Fangspiegel geht nochmal Licht verloren. Zu guter Letzt muss der Fangspiegel noch irgendwie im Strahlengang befestigt werden, was z.B. beim Newton je nach Aufbau der Fangspiegel-Halterung zu weiteren Beugungserscheinungen (Spikes) führt.
Leider gibt es wesentlich mehr unterschiedliche Spiegeloptiken als Refraktoren. Deshalb versuche ich gar nicht erst, im Detail auf die einzelnen Typen einzugehen. Ich begnüge mich lieber mit den Faktoren, die für die Fotografie von Belang sind:

Lichtstärke bzw. Öffnungsverhältnis
Im Allgemeinen kann man sagen: Je größer das Öffnungsverhältnis, desto höher die Lichtstärke, desto besser. Leider stimmt auch das nur bedingt, weil (wie bei den Refraktoren) die prinzipbedingten optischen Fehler mit dem Öffnungsverhältnis zunehmen. Ein solcher Fehler ist z.B. beim Newton-Reflektor das sog. Koma. Während ein Newton mit f/8 noch gut zur Fotografie benutzt werden kann, wird bei f/5 schon zwingend ein sog. Komakorrektor erforderlich, ab f/4 braucht man einen teuren Komakorrektor und über f/3,5 einen richtig teuren Spezialkorrektor ;-)
Spiegeloptiken bekommt man bis zu einem Öffnungsverhältnis von >f/2 - z.B. Astrographen oder SCs mit HyperStar. Wenn man sich allerdings bildlich vorstellt, was f/2 bedeutet, wird einem ein weiteres Problem schnell klar.
Bei einer f/2-Optik ist Brennweite=2 * Öffnung und somit hat der Lichtkegel einen Winkel von 28,07° (2 * arctan.(1/4)). Die gleiche Rechnung bei einer f/10-Optik ergibt einen Winkel von 5,72°. Wenn man also bei einer f/2-Optik um 1/10mm vom idealen Fokus abweicht, wird ein Stern um 0,048mm größer (bei einem DSLR-Chip sind das ca. 10 Pixel). Bei einer f/10-Optik wird der Stern beim gleichen Fokussierungsfehler nur um 0,009mm größer (ca. 2 Pixel). Beim 5-fachen Öffnungsverhältnis muss man also auch 5 mal genauer fokussieren. Damit ist es aber nicht einmal getan - Teleskoptuben unterliegen natürlich auch einer Temperatur-Dehnung (da es im Laufe der Nacht meistens kälter wird, einer Schrumpfung), wodurch der Fokus bei Termperaturänderungen entsprechend schnell verloren geht. Dieses Problem betrift vor allem Optiken, in denen der Strahlengang zugunsten einer kurzen Bauform mehrfach hin und her läuft (SC/MC).
Was für die Fokussierung gilt, betrifft natürlich ebenso die Justage von Okularauszug, Fang- und Hauptspiegel zueinander (Kollimation). Auch diese wird im gleichen Maße schwieriger, wie das Öffnungsverhältnis steigt.
Dem sinnvollen Öffnungsverhältnis sind also ebenfalls Grenzen gesetzt. Meiner Ansicht nach sind Spiegeloptiken mit einem Öffnungsverhältnis von f/5 für den Amateur der ideale Kompromiss zwischen Lichtstärke und Handling.

Bildfeldwölbung bzw. Koma
Wie bereits beschrieben, haben auch Spiegeloptiken ihre prinzipbedingten Fehler. Beim Newton ist es das Koma, SCs und MCs haben ebenfalls (entsprechend ihres Öffnungsverhältnisses) ein Koma und darüber hinaus eine Bildfeldwölbung. Den neuen Meade-ACF (Advanced Koma Free) wird z.B. ein ebenes Bildfeld angedichtet - falsch, sie haben nur kein Koma. Die Bildfleldwölbung bleibt. Sie ist allerdings ebenfalls vom Öffnungsverhältnis abhängig und bei f/10 sehr gering.
Auch die gängigen Schmidt- und Maksutov-Cassegrains haben ihre Bildfehler - wobei man den MCs im allgemeinen die bessere Abbildung nachsagt. Das liegt aber vor allem daran, das sie in der Regel ein kleineres Öffnungsverhältnis haben.
Beim Schmidt- und Maksutov-Newton ist das Koma reduziert - nicht beseitigt. Ein Rest bleibt und der Einsatz eines Komakorrektors (z.B. Baader MPCC) ist auch bei schnellen SNs/MNs zu empfehlen.
Es gibt noch ein paar Sonderformen, die in besonderer Weise fotografisch korrigiert sind. Z.B. die Flatfieldkamera von Lichtenknecker. Leider ist so etwas kaum zu bezahlen und durch die sehr komplizierte Fangspiegelfokussierung auch kaum scharf zu bekommen. Desweiteren gibt es z.B. das VC-200L von Vixen. Dieser sog. Field-Maksutov glänzt durch eine perfekte Abbildung und der geringsten Spotgröße am Markt - ist aber mit f/9 ziemlich "lahm" und nur sehr schwer zu justieren.
Die beste Spiegeloptik, die ich bisher in den Händen hatte, war ein MN74 von Intes Micro - schade, dass das Geld nicht reichte...
Wie man sieht, haben auch Spiegeloptiken so ihre Macken und der Markt ist sehr unübersichtlich. Es gibt aber ein Argument, das nach wie vor für den alten Newton spricht: Im Bereich bis f/4 gibt es immer den passenden Korrektor (bis f/5 MPCC, darüber TV Paracorr). Das ist bei anderen Optiken, die prinzipbedingt ein besseres Bild liefern, nicht unbedingt gegeben...

Spikes
Der klassische Newton hat eine Fangspiegelhalterung (Spinne) mit 4 Armen. Jeder Arm erzeugt durch Beugungseffekte gegenüber einen sog. Spike. Stehen die Arme gut im rechten Winkel und einander exakt gegenüber, ergibt das an hellen Sternen 4 klar definierte und scharfe Spikes. Nun - diese Spikes muss man halt einfach mögen. Es handelt sich natürlich um Bildfehler - und zwar um sehr deutliche. Sie können aber durchaus zu Ästetik eines Bildes beitragen. Es wird ohnehin Zeit, den Text mal wieder durch ein Bild aufzulockern - warum also kein Beispiel für ästetische Spikes?



Natürlich kann man diese Spikes auch vermeiden. Ein Schmidt-Newton hat z.B. keine FS-Streben. Außerdem müssen die FS-Streben keineswegs gerade oder 4 an der Zahl sein. Es gibt diverse Ansätze (z.B. Curved Spider), um die Spikes zu vermeiden. Es gibt aber auch Leute, die Bindfäden vor Refraktoren spannen, um Spikes künstlich zu erzeugen.

Ausleuchtung
Ein weiteres wichtiges Thema ist die Ausleuchtung des Bildfeldes. Diese hängt wiederum vom Öffnungsverhältnis und vom Durchmesser des Fangspiegels ab. So unterscheidet sich ein Fotonewton von einem normalen Newton durch die Fokuslage und den FS-Durchmesser. Zumindest sollte er das. Auch hier sehe ich wieder einen Vorteil für den Newton: Im schlimmsten Fall baut man einen größeren FS ein und kürzt evtl. den Tubus. Schon hat man eine Fotooptik.
Ich will hier keine Sendezeit mit der Warnung vor Werbeaussagen verschwenden - aber so manches "fotografisch optimierte" Teleskop leuchtet gerade mal den Chip einer Webcam vernünftig aus. So bin ich z.B. ein absoluter Fan des kleinen 6"SN von Meade - aber nur mit einem kleinen Chip. Mit der DSLR kann man das leider vergessen. Bei SCs und MCs wird, wenn es um die fotografische Eignung geht, oft auf die erhältlichen Reducer (6,3 oder 3,3) verwiesen. Vorsicht - hier gilt das gleiche, wie bei den Refraktor-Reducern. Das ausgeleuchtete Bildfeld wird im gleichen Maße kleiner, wie die Brennweite. So leuchtet ein C8 gerade den Chip einer DSLR aus. Mit einem Reducer auf f/6,3 bekommt man schon eine deutliche Vignettierung und mit dem Reducer auf 3,3 leuchtet man gerade noch eine CCD mit kleinem Chip aus (DSI o.ä.).
Es gibt allerdings ein Mittel gegen mangelhafte Ausleuchtung - das Flatfield. Damit kann man schlecht ausgeleuchtete Bilder wieder "glattrechnen", was allerdings das Bild in der Summe erheblich dunkler macht. Die Helligkeit kann man zwar wieder anheben - dadurch steigt allerdings das Rauschen. Fazit: besser gleich auf eine gute Ausleuchtung achten...

Wind und Tau
Oft werden SC oder MC Systeme vorgezogen, weil sie eine geringere Windangriffsfläche bieten. Nachdem man dann einmal Bekanntschaft mit einer komplett zugetauten Schmidtplatte oder Meniskuslinse gemacht hat, wird eine Tauschutzkappe draufgestülpt, durch die die effektive Länge wieder auf Newton-Niveau kommt. Dabei verteilt sich beim Newton die Windangriffsfläche aber ziemlich gleichmäßig - das SC mit Taukappe sieht anders aus und ist noch erheblich windanfälliger. Bei einem System mit frontseitigem Glas - sei ein SC, MC, SN, MN oder Refraktor - sollte man lieber gleich eine Heizmanschette vorsehen. Es gibt zwar auch Fangspiegelheizungen für Newtons - meiner ist aber noch nie zugetaut. Oder hab ich es nur nicht bemerkt?


Fazit:

Ich glaube, man hat es - trotz des Anspruchs der Objektivität - gemerkt: Für mich ist der Newton, unter Berücksichtigung aller Faktoren (inkl. des Preises) die perfekte Fotooptik. Dabei ist die einzige Einschränkung, dass man halt Spikes mögen, oder zumindest tolerieren sollte. Der Newton ist aber nur im Brennweiten-Mittelfeld die beste Wahl. Nach oben darf es dann auch mal ein guter Cassegrain, nach unten ein kleiner Refraktor sein. Für mich kommt allerdings kein Refraktor mit einer Brennweite über 600mm infrage (mit vernünftiger Lichtstärke und Farbkorrektur ist mir der zu teuer) und kein Cassegrain unter 1200mm (weil der Newton bis zu der Brennweite gut zu handeln ist).








2. Kamera-Systeme

Hier möchte ich mich auf digitale Kameras beschränken. Ich habe zwar auch mit analogen Spiegelreflex-Kameras angefangen, denke aber, dass diese Technik heutzutage kaum noch Zukunft hat und Anfängern, an die sich dieser Leitfaden ja vor allem richtet, möchte ich von einem Einstieg über die analoge Fotografie dringend abraten. Alleine die Verzögerung durch die Entwicklung des Films erschwert den Einstieg sehr. Wenn man heute einen Fehler macht und erst in einer Woche sieht, wie er sich auf das entstandene Bild auswirkt, ist es doch sehr schwer, ihn für den nächsten Versuch zu korrigieren. Bei den digitalen Kameras gibt es einige Aspekte, die man unabhängig vom Kameratyp sehen sollte. Dazu gehören diese:
 

Unterschied Farb- und S/W-Kamera
Der Vorteil einer Farbkamera liegt ja eigentlich auch der Hand. Schließlich möchte man (meistens) farbige Bilder. Die kann man zwar auch mit S/W-Kameras machen - der Aufwand ist aber ungleich höher. Während man mit einer Farbkamera nach einer Belichtung bereits ein farbiges Bild hat, braucht man für die S/W-Kamera ein Filterrad (mit den entsprechenden Filtern) und macht normalerweise 4 Belichtungen (LRGB), um daraus ein farbiges Bild zusammenzusetzen. Die 4 Belichtungen bedeuten natürlich auch die 4 fache Belichtungszeit. Soweit zur halben Wahrheit...

Die Farbkamera hat eine sog. Bayer-Matrix. Das bedeutet, dass vor jedem Pixel ein entsprechender Filter angebracht ist und das Pixel somit kein RGB-Pixel ist, sondern ein R- G- oder B-Pixel. Da die Filter immer in 4er-Gruppen (RGGB) angeordnet sind, besteht der Chip zur Hälfte aus grünen und zu jew. 1/4 aus roten und blauen Pixeln. Die doppelte Anzahl von grünen Pixeln ist aus der Not einer gleichmäßigen Anordnung geboren und stellt keinen Vorteil dar. Der Unterschied zwischen S/W und Farbkamera besteht also darin, dass eine S/W-Kamera (mit Filterrad und mehrfacher Belichtung) echte RGB-Pixel hat, während die Farbkamera (auf die echte Auflösung von RGB-Pixeln heruntergerechnet) eigentlich nur ein 1/4 der Auflösung hat. Ich habe mal was gepinselt, damit man es besser versteht:


Also - links oben haben wir eine S/W-Kamera mit 10x10 Pixeln. Jeder der Pixel kann einen Helligkeitswert aufnehmen. Rechts davon die gleiche Kamera unter Benutzung von LRGB-Filtern. Nach dem Zusammenfügen der Aufnahmen hat man ein Farbbild von 10x10 Pixeln. Jedes der Pixel hat also einen Rot-, einen Grün- und einen Blauwert (zur Luinanz kommen wir später).
Anders links unten die Farbkamera. Sie hat zwar ebenfalls 10x10 Pixel - hier haben die Pixel aber schon Farbfilter. Wir bekommen also mit einer einzigen Belichtung 5x5 Pixel mit einem Rotwert, 5x5 Pixel mit einem Blauwert und 5x10 Pixel mit einem Grünwert. Will man das mit dem LRGB einer S/W-Kamera vergleichen, hat man also nur 5x5 "echte" Farbpixel (rechts unten).
Damit das nicht so auffällt geht man her und interpoliert bei jedem Pixel die beiden jew. fehlenden Farbwerten aus den umgebenden Pixeln dieser Farbe. Eigentlich ein Fake - aber recht effektiv. Das Bild wird nur ein wenig unschärfer...
 
Man bekommt durch die Dreifachbelichtung mit einer S/W-Kamera und Farbfiltern also "echte" 10x10 Farbpixel, während man mit einer Farbkamera nur "echte" 5x5, bzw. "gefakte" 10x10 Farbpixel bekommt. Der Fake geht allerdings auch andersherum. Man kann die Einzelbilder der S/W-Kamera beim Überlagern aufblähen (das nennt sich "drizzle") und bekommt 20x20 "gefakte" Farbpixel.
 
Also - egal wie rum jetzt - die S/W-Kamera hat die 4 fache Auflösung, braucht aber mehrere Belichtungen. Allerdings ist die Bayerkonvertierung, die aus dem Bild einer Farbkamera ein Farbbild in voller Auflösung interpoliert nicht ganz so schlecht, wie ihr Ruf...


Pixelzahl und -größe
Natürlich spielt die Pixelzahl einer Kamera eine große Rolle. Bilder mit 640x480 Pixeln kann man gerade noch im Internet zeigen. Ausdrucken lohnt sich schon nicht. Bilder mit 8 Megapixeln kann man hingegen schon in Postergröße ausdrucken. Soviel zur Theorie - in der Praxis stimmt das nur bedingt. Es heißt ja, ein Stern sei - durch seine gegen Unendlich gehende Entfernung immer nur ein Punkt. Zur Abbildung eines Sterns reicht also theoretisch auch ein einzelnes Pixel. Das stimmt zwar nicht - aber wir bleiben erstmal dabei. Jede Optik hat eine theoretische Grenze, wie klein der kleinste "Spot" ist, den sie abbilden kann (Spotsize). Diese liegt z.B. beim Baader-Komakorrektor bei 13 μm. Das kleinste darstellbare Detail hat also eine Größe von 13x13μm - bei schlechter Fokussierung oder Nachführung entsprechend mehr.  Eine Kamera mit einerPixelgröße von 7,4 μm würde das kleinstmögliche Detail also auf 2x2=4 Pixeln abbilden. Eine Kamera mit einer Pixelgröße von 5,2 μm würde dieses Detail also auf 3x3 Pixeln abbilden. Man hat also keine höhere Auflösung trotz höherer Auflösung. Hä?
Was wirklich zählt, aber auch wieder Probleme bereiten kann, ist weniger die Auflösung, als vielmehr die Fläche des Chips.

 
Chipfläche
Bleiben wir bei o.g. Kameras. Die ATK2C hat eine Chipgröße von 640x7,4μm horizontal und 480x7,4μm vertikal - also 4,7x3,5mm . Die ALccd5 hat 6,7x5,3mm. Während die ALccd theoretisch die 4,26 fache Auflösung hat, besitzt sie nur die 2,15 fache Fläche. Was diesen Aspekt angeht, ist sie also nicht 4 mal, sondern nur doppelt so "gut".
Aber Achtung - man kann große Chipflächen nicht uneingeschränkt als Vorteil ansehen. Jeder systembedingte Optische Fehler - sei es das Koma beim Newton oder die Bildfeldwölbung beim Refraktor - wirkt sich zum Rand des Bildfeldes schlimmer aus. Auch lässt da die Ausleuchtung stark nach. Je nach Optik sollte man es mit der Chipgröße also nicht übertreiben, weil man sonst nur wieder einen Ausschnitt aus der Mitte verwenden kann.
 

CCD vs. CMOS
Die ATK2C ist eine CCD-Kamera, während die ALccd5 eine CMOS-Kamera ist. Man sagt den CMOS-Chips einige gravierende Nachteile nach:
 
- CMOS-Chips haben einen wesentlich höheren Dunkelstrom, was zu stärkerer Erwärmung und damit zu stärkerem Rauschen führt.
- CMOS-Chips haben eine wesentlich niedrigere Quanteneffinzienz (CCD=ca. 60%, CMOS=ca. 30%) und haben deshalb nur ca. die halbe Empfindlichkeit
- bei CMOS-Chips wird jeder Pixel einzeln von einem eigenen Verstärker ausgelesen. Daraus entsteht zwangsläufig ein ungleichmäßiger Helligkeitsverlauf durch die Fertigungstoleranzen der Ausleseverstärker. CCD-Pixel werden vom gleichen Verstärker zeilenweise ausgelesen.
 
Diese Angaben stammen aus Axel Martins Buch und sind Stand 2004. Es ist auch gut möglich, dass sich da mittlerweile etwas geändert hat. Wie stark sich diese Nachteile auswirken kann ich nicht sagen. Die CANON EOS hat schließlich auch einen CMOS-Chip und macht gute Fotos.
 
Farbtiefe/Dynamik
Die ATK2C hat eine Farbtiefe von 16Bit (pro Kanal). Die CANON EOS hat 14 Bit und die ALccd5 nur 10 Bit - eine WebCam hat 8 Bit...
Im Endeffekt reduziert man die Bilder eigentlich immer auf 8 Bit, weil das genug für das menschliche Auge ist. Bei den Bearbeitungsschritten zwischendurch ist aber jedes zusätzliche Bild für die Dynamik sehr wichtig. Man muss sich klar machen, dass man z.B. beim Streching (Tonwertkorrektur) den Dynamikbereich so einschränkt, wie man den Schwarz und Weißpunkt in die Mitte schiebt. Wenn also die Gesamtbreite des Histogramms nur 8 Bit beträgt, hat man nach dem Streching evtl. nur noch 4 Bit - also nur noch 16 Farbabstufungen pro Kanal im ganzen Bild - da sieht man schon deutliche Treppen. Bei 16 Bit Farbtiefe bleiben bei der gleichen Bearbeitung immerhin noch 8 Bit - also 256 Farbabstufungen übrig.
 

Kühlung
Durch die Kühlung des Chips wird der Dunkelstrom und damit das Rauschen gesenkt. Dadurch reduziert sich die Anzahl der Einzelbilder die addiert werden müssen, um ein rauschfreies Bild zu bekommen. Man muss dabei noch zwischen einer geregelten und eine ungeregelten Kühlung unterscheiden. Die ungeregelte Kühlung bringt den Chip auf ca. 25-30° unter Umgebungstemperatur. Die Chiptemperatur ist aber dennoch den gleichen Schwankungen der Umgebung ausgesetzt - halt nur 30° kälter. Bei einer geregelten Kühlung kann die Chiptemperatur eingestellt werden. Dadurch erreicht man, dass man für Aufnahmen, die zu unterschiedlichen Zeiten mit unterschiedlichen Umgebungstemperaturen gemacht werden, die gleichen Darkframes verwendet werden können.
 

3. Montierung

Allgemeines über Schneckentriebe
Jeder Schneckentrieb hat einen Schneckenfehler, der mit jeder Umdrehung der Schnecke (nicht des Schneckenrades!) zum Tragen kommt. Da er mit jeder Umdrehung wiederkehrt, nennt man ihn "periodischen Schneckenfehler" oder "periodic error" (PE). Dieser Fehler beruht wiederum auf zwei Fertigungstoleranzen der Schnecke - zum einen auf der Rundlaufgenauigkeit der Schnecke, zum anderen auf der Genauigkeit der Gewinde-Steigung.
Darüber hinaus hat das Schneckenrad selbst natürlich auch einen Teilungsfehler, der aber im Laufe einer Schneckenrad-Umdrehung, also im Laufe von 24h zuschlägt. Das ist so langsam, dass man es gerade deshalb vernachlässigen kann. Das Schneckenrad kann aber z.B. auch einen Schlag haben, der im schlimmsten Fall zum Verklemmen bei zu starkem Schneckenandruck führen kann. Auf jeden Fall führt der Schlag aber dazu, dass der eigentliche Schneckenfehler je nach Position des Schneckenrades etwas anders ausfällt, da die Gewindegänge der Schnecke unterschiedlich tief im Schneckenrad anliegen.
Wenn man davon ausgeht, dass alle diese Fehler - egal wie stark - auf jeden Fall vorliegen, ergibt sich folgendes:
 
a) Durchmesser des Schneckenrades
Der Durchmesser bzw. der Radius des Schneckenrades bestimmt den Hebelarm zwischen dem Punkt, an dem das Schneckenrad durch die Schnecke angetrieben wird und dem Drehpunkt, um den das Schneckenrad rotiert. Egal also, wie groß der Scheckenfehler sein mag, er wird durch den Radius des Schneckenrades geteilt. Nimmt man also den eigentlichen Schneckenfehler als gegeben an, wird er bei einem Schneckenrad doppelter Größe nur zur Hälfte durchschlagen. Ein PE von +/-40" bei einem Schneckenrad mit 90mm Durchmesser wird, wenn man dieselbe Schnecke mit einem 180mm Schneckenrad verwendet, also zu +/-20".
Große Schneckenräder sind also in jedem Fall gut! Oder? Na ja... weiterlesen...
 
b) Zähnezahl bzw. Modul (Zahnbreite) des Schneckenrades
Die Zähnezahl des Schneckenrades hat darauf nämlich auch noch einen Einfluss...
Zwar beeinflusst diese nicht den Betrag des Schneckenfehlers - aber seine Periodendauer. Wieso? Bleiben wir beim Beispiel des Schneckenrades mit 90 bzw. 180mm Durchmesser. Haben beide Schneckenräder denselben Modul (was sie haben müssen, um mit derselben Schnecke zu laufen), hat letzteres auch die doppelte Zähnezahl (bleiben wir simplerweise bei Modul 1 - hat das eine Rad 90 Zähne und das andere 180...). Das bedeutet natürlich auch, dass die Schnecke sich doppelt so schnell drehen muss, um in 24h das Schneckenrad einmal zu drehen. Wenn sich aber die Schnecke doppelt so schnell dreht, schlägt auch der Schneckenfehler doppelt so schnell und doppelt so oft zu.
Benutze ich also für beide Schneckenräder dieselbe Schnecke, habe ich mit dem 90mm Schneckenrad einen Fehler von +/-40", der (24*60/90=16) alle 16min zuschlägt. Der Schneckenfehler ist also verhältnismäßig groß, kommt aber langsam und gemächlich daher und kann evtl. vom Autoguider locker bewältigt werden. Beim großen Schneckenrad mit 180 Zähnen hat der Fehler nur noch +/-20", kommt dafür aber schon alle 8min um die Ecke. Der Autoguider hat die Fähigkeit, einen Fehler von x Winkelsekunden pro y Zeitsekunden zu korrigieren. Dem ist das also gleich.
Fazit: Für die Fotografie mit Autoguider bringt ein größeres Schneckenrad eigentlich keinen Vorteil. 
 
Aber was ist, wenn das größere Schneckenrad auch einen größeren Modul hat? 
Man könnte ja sagen, das kleine Schneckenrad hat einen Durchmesser von 90mm und Modul 1 = 90 Zähne. Wenn das große Schneckenrad einen Durchmesser von 180mm und einen Modul 2 hat, besitzt es ebenfalls 90 Zähne. Der Hebelarm ist größer, und somit der Schneckenfehler geringer - trotzdem dreht sich die Schnecke langsam und der Fehler kommt alle 16min. Ich weiß es nicht - aber ich habe die Befürchtung, dass der Eingriffwechsel der einzelnen Zähne ebenfalls einen Einfluss hat. Wenn die Schnecke auf dem Schneckenrad abwälzt, kommen ja immer neue Zähne des Schneckenrades in Eingriff. Ich könnte mir vorstellen, dass hier beim Zahnwechsel ebenfalls eine Störung in der Laufruhe entsteht, die evtl. stärker wird, je größer die Zähne sind...
 
c) Gesamtuntersetzung und Vorgetriebe
Der Schrittmotor, der den Schneckentrieb antreibt, hat einen bestimmten Schrittwinkel - das sind normalerweise 1,8° bzw. 200 Schritte pro Umdrehung. Außerdem hat er einen gewissen Drehzahlbereich, mit dem man ihn betreiben kann. Das geht normalerweise bis ca. 2000Hz - also 2000*1,8° pro Sekunde - oder anders gerechnet 2000 Schritte pro Sekunde bei 200 Schritten pro Umdrehung = 10 Umdrehungen pro Sekunde. Darüber hinaus kann der richtige Motor mit der richtigen Steuerung auch noch einen Mikroschritt-Betrieb z.B. wird ein Vollschritt noch mal in 64 Mikroschritte unterteilt.
Was soll das Ganze? Nun - die Montierungsachse soll sich ja minimal mit 1 Umdrehung pro 24h drehen und dabei die größtmögliche Laufruhe für die Nachführung haben. Andererseits will man auch ein möglichst flottes Goto haben...
Die Gesamtuntersetzung der Montierungsachse muss also mindestens so hoch sein, dass ein Schritt (oder Mikroschritt) des Motors die Achse so wenig bewegt, das sich diese Bewegung unterhalb des Seeings (also <2") abspielt.
Man kann das nun erreichen, indem man (z.B. Fornax oder Gemini) ein Scheckenrad mit großem Durchmesser und hohe Zähnezahl (bzw. kleinstem Modul) verwendet. Unter voller Ausnutzung des Mikroschritt-Betriebes bekommt man so die erforderliche Laufruhe. Die andere Möglichkeit, die z.B. bei allen kleineren Montierungen (EQx, GP, Sphinx, usw.) angewendet wird, besteht in einem Vorgetriebe vor dem eigentlichen Schneckentrieb. Während z.B. die Schnecke der Original-EQ6 180 Zähne, also eine Untersetzung von 1:180 hat, hängt zwischen Motor und Scheckentrieb nochmal ein Stirnradgetriebe von 1:100. Die Gesamtuntersetzung beträgt also 1:18000 - dabei braucht man keinen Mikroschritt (was die Steuerung auch nicht kann) und kann ein schnelles Goto getrost vergessen. Wenn man aber z.B. eine EQ6 SynScan nimmt, hat diese ebenfalls einen Schneckentrieb von 1:180, aber nur ein Vorgetriebe von ca. 1:4. Man hat also genügend Speed für Goto, die Laufruhe kann aber wieder nur durch Mikroschritt erreicht werden. Wenn man den Mikroschritt als "echte" Untersetzung ansieht, hat man bei der SynScan nicht 1:18000, sondern sogar 1:46000.
 
Wie könnte es anders sein - auch hier hat alles wieder Vor- und Nachteile, vor allem in Deklination:
Während die Rektaszensionsachse während der Nachführung nur in eine Richtung läuft und höchstens ab und zu mal etwas schneller oder langsamer wird, gibt es in Deklination ständig Richtungswechsel. Benutzt man nun wie Fornax o.ä. einen großen Schneckentrieb ohne Vorgetriebe, hat man einen großen Vorteil: Es gibt quasi kein Getriebespiel und Richtungsänderungen sprechen unmittelbar an.   Einen erheblichen Nachteil gibt es aber auch: Ein Schneckentrieb hat eine wesentlich höhere Reibung, als ein Stirnradgetriebe. In Deklination bleibt die Achse zudem immer wieder stehen, so dass bei Loslaufen Haftreibung überwunden werden muss. Dafür sind starke Motoren mit hohen Strömen und dementsprechende Steuerungen erforderlich. Mit Vorgetriebe ist das wegen der geringeren Reibung wesentlich einfacher - man muss aber jedesmal das Getriebespiel überwinden, welches jedes Stirnradgetriebe nunmal hat.
Ein Mittelweg besteht darin, einen zweistufigen Schneckentrieb zu verwenden, also eine Hauptschnecke, die als Vorgetriebe einen kleinen Schneckentrieb verwendet. Das wird z.B. bei OTE so gemacht und vereint geringe Reibung mit geringem Spiel - allerdings hat die kleine Schnecke ihrerseits auch wieder einen Schneckenfehler, der zwar im Betrag durch das Untersetzungsverhältnis des Haupttriebes geteilt wird, dafür aber dank der schnelldrehenden kleinen Schnecke um so schneller zuschlägt.


Teleskop-Steuerungen
Während eine visuell genutzte Montierung durchaus manuell bewegt werden kann, braucht eine fotografische Fernrohrmontierung zwangsläufig eine motorische Nachführung und eine Steuerungen, über welche die Motoren betrieben werden. Spätestens bei den Steuerungen scheiden sich dann die Geister. Spätestens seit es die Littlefoot-Steuerung gibt, welche nach Ansicht der etablierten Hersteller den Markt völlig kaputt macht, wird die Diskussion um die Vor- und Nachteile der einzelnen Systeme leider nur noch polemisch geführt und es ist für den Einsteiger schwierig, noch sachliche Informationen zu bekommen. Ich möchte deshalb kurz die Steuerungen vorstellen, mit denen ich bisher Erfahrungen gesammelt habe. Dabei muss ich mich aber zwangsläufig auf die Features beschränken, die ich selbst getestet oder verwendet habe. Eines der wichtigsten Features der einzelnen Systeme ist natürlich der jew. Preis – den sollte man aber jew. aktuell beim Hersteller bzw. Händler erfragen.


-  Boxdörfer MTS3-SDI
Das war sozusagen meine erste intelligente Steuerung. Ich habe sie an der EQ6 (erste Version) betrieben, nachdem die Originalmotoren gegen McLennan-Motoren und -Getriebe ausgetauscht wurden. Ich war mit der Steuerung und auch mit dem Support durch Sigurd Boxdörfer (und auch durch das Astronomicum-Forum) immer sehr zufrieden. Zuerst – mit der Firmware 2.x -   habe ich problemlos mit TheSky (langsames) Goto machen können und mit AstroArt seriell geguidet. Mit der Firmware 3.x konnte die Steuerung dann das LX200-Protokoll (jedenfalls soweit, wie ich es brauchte) und lief mit anderen Einstellungen weiterhin problemlos mit o.g. Programmen. Die Timing-Probleme, welche andere beim seriellen Guiding mit der MTS3 offensichtlich haben, hatte ich nie. Ich habe mir auch eine Relaisbox gekauft und zwischen Laptop und Steuerung gehängt, was das Guiding um keinen Deut verbessert hat. Die Steuerung sitzt in einem schönen und stabilen blauen Alugehäuse, das auch mal einen Sturz problemlos wegsteckt.
Geärgert hat mich immer das Kabel, das über einen Pfostenstecker auf der Rückseite der Steuerung angeschlossen wurde. Ich glaube, es gibt kaum eine dämlichere Stelle dafür.
Mit Firmware 2.x konnte man die Steuerung auch ohne Display sehr gut bedienen, in dem man die QBasic-Routine für die Display-Emulation auf dem PC/Notebook benutzte. Diese Emulation funktionierte bei mir mit Version 3.x nicht mehr und somit waren die erweiterten Funktionen (z.B. PEC-Training) schon ein echtes Trauerspiel. Man sollte das Display als unverzichtbaren Bestandteil der Steuerung mit einkalkulieren. Ich habe übrigens mit PEC geguidet und hatte nachvollziehbar bessere Ergebnisse, als ohne PEC.
Schlecht finde ich die externen Programmiertools, sei es MTSConfi, oder die Firmware-Update-Routinen. Das hat unter Windows ab und zu mal funktioniert. Im Endeffekt habe ich mir eine DOS-Bootdiskette gemacht, mit der es dann immer funktionierte. Ich halte das für ziemlich antiquiert. Trotzdem ist es möglich, die MTS3 mithilfe von MTSConfi auf so ziemlich jede Montierung anzupassen und darauf kommt es schließlich an.

 Pro:  
- stabiles Aluminiumgehäuse
- für unterschiedliche Montierungen parametrisierbar
- serielles Guiding (ab Firmware 3.x mit LX200)
- gute Bedienbarkeit (nur mit Display)
- PEC-Funktion mit 64 Messpunkten
- Über optionalen Freischaltcode auf Goto (mit eigenem Objektkatalog) zu erweitern
Kontra:
- unschöne Kabelführung mit Pfostenstecker an der Rückseite
- alte Version max. 500mA, neue Version max. 1A pro Motor. Keine Begrenzung, also Zerstörungsgefahr
- schlechte Bedienbarkeit (ohne Display)
- schaltet zwischendurch den DE-Antrieb zum Stromsparen ab, wodurch der Motor auf den nächstliegenden Vollschritt fällt

- Littlefoot
Die Littlefoot habe ich an der Vixen-GP benutzt. Das Gehäuse der Littlefoot ist mit dem der MTS3 sicherlich nicht zu vergleichen. Andererseits ist es ja eigentlich ein Selbstbau-Projekt und so kann sich auch jeder ein Gehäuse nach seinem Geschmack besorgen. Da ich aber nicht so der Oberlöter bin, habe ich die Littlefoot direkt fertig von Rajiva bezogen - mit dem Plastikgehäuse. Auch das hat einige Stürze überlebt und mein Widerwillen dagegen ist wohl eher psychologischer Natur. Was aber bei der Littlefoot noch dämlicher ist, als das Rückwand-Kabel der MTS3 - ist das unten eingesteckte Kabel für die Stromversorgung. Das ist mir leider mehr als nur einmal im Betrieb rausgeflutscht...
Über die Funktion kann ich ebenfalls nicht meckern - und auch nicht über den Support. Wenn der Meister selbst mal nicht reagiert, treiben sich im eigenen Support-Forum doch immer genug Enthusiasten rum, die sofort helfen. Meistens reicht schon lesen...
Über die Funktionen, die die Littlefoot über die der MTS3 hinaus bietet, kann ich nicht allzuviel sagen. Ob die 256 PEC-Punkte nun wirklich einen praktischen Vorteil gegenüber den 64 der MTS3 darstellen, kann ich nicht sagen. Ich halte es zwar für wahrscheinlich - kann es aber nicht durch eigene Tests belegen. Ich muss sogar zugeben, dass ich die PEC-Funktion der Littlefoot nie benutzt habe, weil die GP einfach viel besser lief, als die EQ6.
IntelliTrack habe ich mal probiert - das ist aber in einem Chaos geendet. Irgendwie lief der Stern ganz wild in der Gegend rum. Es kann aber gut sein, dass ich einfach zu dämlich oder zu ungeduldig war. Die kostenpflichtige Goto-Funktion der Littlefoot hat nichts mit der ebenfalls kostenpflichtigen Option für die MTS3 zu tun. Man braucht sie schon, um über das Notebook Objekte anfahren zu können - bei der MTS3 hat die Steuerung dann selbst einen Objektkatalog.
Die Bedienung der Littlefoot halte ich für ebenso mies, wie die der Boxdörfer ohne Display. Es gibt aber halt (noch?) kein Display für die Littlefoot. Ich habe aber gehört, dass da was kommen soll.
Unterm Strich halte ich beide Systeme für ziemlich gleichwertig. Technologisch hat die Littlefoot wohl etwas mehr auf dem Kasten, ob sich das im Ergebnis - und das ist für mich immer noch das Foto - auswirkt, weiß ich jedoch nicht.
Auch die Littlefoot läßt sich einfach auf verschiedene Montierungen parametrisieren, wobei die Software sogar unter Windows läuft. In meiner Version war sie (vermutlich in den Endstufen) etwas schwächer auf der Brust, als die Boxdörfer. Aber dazu später mehr...

Pro:
- für unterschiedliche Montierungen parametrisierbar
- serielles Guiding (LX200)
- PEC-Funktion mit 256 Messpunkten
Kontra:
- Plastik-Gehäuse
- Buchse für Spannungsversorgung ungeeignet
- Goto über Notebook nur mit Extra-Freischaltung (aber sehr billig)
- Max. 500mA pro Motor

- Synta-SkyScan (bzw. SynScan)
Irgendwann wollte ich meine Boxdörfer für eine andere Montierung nutzen (auch dazu später mehr) und habe mir für die EQ6 das SynScan-Upgrade gekauft. Ich muss sagen - das ist schon ein ganz anderes Kaliber, als Littlefoot oder MTS3. Die Bedienung ist dank eines großen Tastenfeldes, auf dem man nicht nur Listen durchscrollen, sondern auch Zahlen direkt eingeben kann - und dank des großzügigen Displays einfach um Längen besser. Selbstverständlich schafft die SynScan das schnelle Goto nur, weil zwischen Schrittmotor und Schnecke kein weiteres Getriebe sitzt. Es wird oft behauptet, das ginge zu Lasten der fotografischen Eignung - ich kann das weder theoretisch noch praktisch nachvollziehen. Solange der einzelne Schritt (in dem Fall 1/64 Mikroschritt) erheblich kleiner als das Seeing ist, reicht das völlig aus. Zu dem Upgrade-Kit gehört auch ein neuer Satz Motoren, die sehr leicht einzubauen sind.
Was mit der SynScan nicht so gut funktioniert, ist das serielle Guiding. Das verwendete Celestron-Protokoll wird zwar auch von diversen Programmen unterstützt - die Steuerung braucht aber zu lange, um die Guiding-Befehle umzusetzen. Hier habe ich mit einer LX200-Relaisbox merkliche Verbesserungen erreicht.
Eine Parametrisierung der Steuerung an andere Montierungen gibt es leider nicht. Die SynScan läuft an der EQ6 - bzw. die andere Version an der HEQ5 und das wars.
Wie dem auch sei - ich bin wirklich ein Fan der SynScan-Steuerung (an der EQ6).

 Pro:
- Vorbildliche Bedienbarkeit durch gutes Display und großes Tastenfeld
- Sehr schnelles Goto mit eigenem Objekt-Katalog
- PEC-Funktion mit ?? Messpunkten
Kontra:
- Nicht für andere Montierungen parametrisierbar. Läuft nur mit EQ6, HEQ5, EQ5, GP, EQ3
- Plastik-Gehäuse
- Serielles Guiding (Nexstar-Protokoll) reagiert sehr langsam
-…könnte sich eigentlich die Uhrzeit merken…

- Koch FS-2
Wie schon früher erwähnt, wollte ich die Boxdörfer-Steuerung an einer anderen Montierung einsetzen. Das war eine OTE-150II, die ich günstig - aber ohne Steuerung - bekommen habe. Die MTS3 ließ sich zwar problemlos auf die notwendigen Parameter konfigurieren - also so, dass die Montierung mit der richtigen Geschwindigkeit sauber nachführte - aber mit den wünschenswerten Parametern hat es dann doch gehapert. Will sagen - ein halbwegs schnelles Goto, wie ich es an der EQ6 mit SynScan mittlerweile gewohnt war, ließ sich einfach nicht realisieren. Ich habe dann auch noch die Littlefoot angeschlossen - damit habe ich aber nicht mal eine saubere Nachführung in Sterngeschwindigkeit erreicht. Das mag meine eigene Dummheit gewesen sein - keine Ahnung. Ich habe es aber auch sehr schnell wieder aufgegeben. Vermutlich hätte Rajiva weiterhelfen können.
Mit der max. 64-fachen Sterngeschwindigkeit für's Goto wollte ich mich nicht abfinden, also habe ich mir eine FS-2 gekauft und zwar die große Version mit 12V Eingangsspannung und internen Wandlern auf 40V.
Damit ist es überhaupt kein Problem, die OTE mit 400facher Sterngeschwindigkeit zu betreiben. Ich glaube, es ginge sogar noch wesentlich mehr - aber da habe ich Angst, das Teil schlägt mir die Rübe ein
Die FS-2 hat (wie auch die SynScan) den Leistungsteil getrennt vom Bedienteil. Ich empfinde das als großen Vorteil in der Handhabung. Die Handbox der FS-2 ist gegenüber der SynScan allerdings sehr spartanisch gehalten. Zwar ist sie - dank des Displays - viel komfortabler zu bedienen, als MTS3 oder Littlefoot - um ein Objekt anzufahren, rattert man aber trotzdem den NGC-Katalog durch, statt einfach die Nummer einzutippen. Einen Nachteil hat sie aber auch - sie merkt sich die PEC-Kurve nur, solange Strom anliegt. Nun - die OTE läuft sehr sauber, deshalb brauche ich keinen PEC. Ein Nachteil ist es trotzdem.
Natürlich läßt sich die FS-2 ebenfalls über eine gut bedienbare Windows-Schnittstelle (aber auch über die Steuerung selber) an unterschiedlichste Montierungen anpassen. Wenn man dabei die Anleitung gut liest und es mit dem Strom nicht übertreibt, holt man eine beängstigende Goto-Geschwindigkeit raus, ohne eine Qualmwolke zu riskieren.

Pro:
- gute Bedienbarkeit
- Sehr schnelles Goto mit eigenem Objekt-Katalog
- PEC-Funktion mit ?? Messpunkten
- für unterschiedliche Montierungen parametrisierbar
- Trennung zwischen Bedien- und Leitungsteil
- Serielles Guiding (LX200)
Kontra:
- Plastik-Gehäuse (Bedienteil)
- Merkt sich die PEC-Kurve nicht, wenn die Spannungsversorgung unterbrochen wird
- Merkt sich ebenfalls nicht die Uhrzeit (braucht sie aber auch nur, um Planeten anzufahren)



Nachführsysteme

Prinzipiell ist jede Nachführung für die Astrofotografie geeignet. Es kommt nur immer darauf an, welche Brennweiten mit welchen Belichtungszeiten zum Einsatz kommen. So kann man z.B. mit einer Brennweite von 16mm und einer Belichtungszeit von (n*) 30s eindrucksvolle Astrofotos ohne jede Nachführung (Fotostativ) machen (http://www.watchgear.de/Bilder/900/Strand.jpg).



Mit einer gut eingenordeten parallaktischen Montierung kann man auch bis zu einer gewissen Grenze ohne Nachführkontrolle fotografieren. Werden Brennweite und Belichtungszeit jedoch höher, kommt es immer mehr auf die Laufgenauigkeit der Montierung und auf eine geeignete Nachführkontrolle an. Die Nachführkontrolle (Guiding) bezieht sich immer auf einen Leitstern, der sich möglichst nah am zu fotografierenden Objekt befinden sollte. Je weiter der Leitstern vom Objekt entfernt ist, desto stärker wirkt sich eine evtl. schlechte Poljustage der Montierung in Form einer Bildfelddrehung aus.

Die Kontrolle des Leitsterns erfolgt meistens über eine zweite Kamera, die an einem separaten Leitrohr, oder einem Off-Axis-Guider angebracht ist. Die Vor- und Nachteile der einzelnen Systeme werde ich im Nachfolgenden ansprechen. Eines ist jedoch grundsätzlich wichtig: Je nach Laufgenauigkeit der Montierung ist es wichtig, möglichst schnelle Bildfolgen von der Leitkamera zu bekommen. Wenn die Lichtstärke des Leitrohrs oder der OAG dazu führt, dass man mit der Leitkamera lange belichten muss, um einen Leitstern zu bekommen, reicht die Guidingfrequenz u.U. nicht, das Teleskop sauber nachzuführen. Ist die Nachführgenauigkeit der Montierung jedoch sehr gut, kann es ratsam sein, nur selten Korrekturen vorzunehmen, um nicht dem Seeing hinterherzulaufen.

Auf das manuelle Guiding mittels Fadenkreuzokular möchte ich nicht näher eingehen, da ich selbst keine Erfahrungen damit habe. Ein Tipp habe ich jedoch anzubieten: Bei einem Doppelfadenkreuz-Okular stellt man den Stern scharf und hält ihn in der Mitte des Quadrates, dass aus den vier Linien gebildet wird. Bei einem einfachen (nicht doppel), oder sogar einem unbeleuchteten Fadenkreuz-Okular ist es sinnvoll, den Leitstern leicht unscharf zu stellen, damit er nicht durch den Faden verdeckt wird.

 

Leitrohr mit Leitrohrschellen
Die klassische Methode, eine Autoguider-Kamera anzubringen, ist wohl das Leitrohr. Neben dem Nachteil, dass das Bild des Leitsterns von einer zweiten Optik erzeugt wird und somit nicht dem der Aufnahmeoptik entsprechen muss, neigt ein Leitrohr in Leitrohrschellen auch dazu, im Laufe der Zeit zu driften. Das kann z.B. durch Verbiegung des Leitrohrs, oder auch durch eine zu schlaffe Befestigung in den Leitrohrschellen passieren. Dieser Nachteil kommt umso stärker zum Tragen, je länger die Belichtungszeiten werden. Bei mehreren kurzen Belichtungen erscheint im Endergebnis ja nur die Drift einer Einzelaufnahme, während die Gesamtdrift über die komplette Belichtungszeit über das Alignment beim Stacken eliminiert wird. Die Leitrohrschellen-Variante hat gegenüber der Exzenter-Variante den Vorteil, dass der Chip der Guiding-Kamera immer auf der optischen Achse liegt.

Leitrohr mit Exzenter
Um bei langen Belichtungszeiten die Leitrohr-Drift zu vermeiden, sollte man Haupt- und Leitrohr so starr wie eben möglich miteinander verbinden. Dadurch entfällt aber die Möglichkeit, das Leitrohr gegenüber der Aufnahmeoptik zu verschieben, um einen Leitstern zu finden. Man kann sich aber in diesem Fall mit einem Exzenter helfen, der es ermöglicht, die Guiding-Kamera im Rahmen des Leitrohr-Bildfeldes zu verschieben, um einen Leitstern zu zentrieren. Somit hat man eine starre Verbindung und dennoch die Möglichkeit, einen geeigneten Leitstern zu finden. Allerdings hat die Methode auch Nachteile:
- der Schwenkbereich zum Auffinden eines Leitsterns ist möglicherweise kleiner, als bei der Verwendung von Leitrohrschellen.
- Es kommen nur Leitrohre mit min. einem 2“-Auszug in Frage, da der Schwenkbereich im 1,25“-Auszug zu klein wäre
- Die meisten Optiken haben am Bildfeldrand verstärkt prinzipbedingte Fehler. So schlägt bei einem Refraktor die Bildfeldwölbung, bei einem Newton das Koma umso stärker zu, je weiter man sich von der optischen Achse entfernt. Dadurch eigenen sich Sterne am Rand des Bildfeldes – je nach verwendeter Leitrohroptik – nur bedingt zum Nachführen, da die Sterne u.U. nicht mehr rund sind. Auf verzerrte, langezogene Sterne lässt es sich nicht gut guiden. Es ist also u.U. noch ein Flattener für's Leitrohr angeraten.

 Off-Axis-Guider
Oft wird der Off-Axis-Guider (OAG) als das Nonplusultra für die Nachführung empfohlen. Prinzipiell ist das richtig - immerhin ist es die einzige Methode (außer Kameras mit mehreren Chips bzw. Interlace-Auslesung) für das Guiding dasselbe Bild zu benutzen, welches auch von der Hauptkamera aufgenommen wird. Das ist vor allem bei Optiken mit Hauptspiegelfokussierung (z.B. SC oder MAK) wichtig, da es hier zu einer Verkippung des Hauptspiegels kommen kann welche von einem Autoguider an einem Leitrohr nicht bemerkt wird. Aber auch bei anderen Optiken kann es - vor allem bei Langzeitbelichtungen - zu einer Verschiebung zwischen Leitrohr und Aufnahmeoptik kommen.
Das alles spricht für den Off-Axis-Guider und bei der Fotografie durch z.B. SC-Teleskope gibt es auch kaum eine Alternative. Der OAG hat allerdings auch gravierende Nachteile, die u.U. gegenüber den Vorteilen überwiegen können. Dazu muss man sich zunächst klar machen, wie der OAG funktioniert und woher das Bild der Guiding-Kamera kommt.

Der OAG leitet mithilfe eines kleinen Prismas einen Teil des Lichts vom Bildrand an die Guiding-Kamera. Oft wird behauptet, durch das kleine Prisma käme wegen der kleinen Fläche wenig Licht und deshalb würde eine lichtstarke Kamera benötigt. Das ist falsch! Die kleine Fläche des Prismas hat damit nichts zu tun. Theoretisch kommt bei den Pixeln der Guidingkamera ebensoviel Licht an, als wäre sie direkt im Hauptfokus. Allerdings geht durch andere Effekte Licht verloren – so wird natürlich an der Vorderseite des Prismas, durch die das Licht eintritt, einiges Licht wegreflektiert. Dies umso mehr, als die Prismen meistens nicht sonderlich vergütet sind. Außerdem wird das Licht am Rande des Bildfelds eingefangen, wo je nach Teleskop die Ausleuchtung (durch Vignettierung) schon stark vermindert ist.
Je nach Ausführung kann das Bildfeld des OAG über ein bewegliches Prisma, oder wie im Bild, durch verschieben der Kamera gegen das Prisma, noch ein wenig verschoben werden. Ansonsten sucht man den Leitstern, indem man den OAG am OAZ (Okularauszug) dreht. Je nach Aufbau sind dem schon Grenzen gesetzt, weil die Leitkamera u.U. mit irgendwas (z.B. Sucher) kollidiert. Außerdem sollte das Bildfeld des OAG möglichst wie gezeichnet oberhalb (oder auch unterhalb) des Bildfeldes der Aufnahme-Kamera liegen, weil man sonst den Schatten des OAG-Prismas auf der Aufnahme sieht.
Als nächstes kommt es dann auf das Objekt, bzw. den Himmelsausschnitt an, der fotografiert werden soll. Es gibt Bereiche, wo es von hellen Sternen, die sich zum Guiden eignen, nur so wimmelt. In anderen Ecken findet sich überhaupt nichts.
Die meisten Optiken brauchen, um ein ebenes und fehlerfreies Bild auf dem Kamerachip zu erzeugen, einen Korrektor, der in einem fest definierten Abstand zum Film, bzw. zum Chip angebracht sein muss. Das gilt z.B. bei Newtons für den Komakorrektor, oder bei Refraktoren für den Flattener. Normalerweise hat man keine Chance, den OAG zwischen Korrektor und Kamera zu platzieren. Setzt man den OAG vor den Korrektor bekommt man im OAG evtl. nur Striche (weil man ja den Stern am Bildrand nehmen muss, wo das Koma am stärksten ist). Auf Striche kann man aber schlecht guiden.
Zusammenfassend kann man also sagen, dass ein OAG der Guidingkamera ein ziemlich dunkles Bild liefert, auf dem man nur schwer einen Leitstern findet, der dann u.U. noch stark verzerrt und zum Guiden nur bedingt tauglich ist.


6.4  Selfguiding

Eine weitere Möglichkeit der Nachführung, ist die gleichzeitige Benutzung der Hauptkamera. So bieten z.B. die Kameras von StarlightXpress die Möglichkeit, den Chip in einem Interlace-Verfahren gleichzeitig zur Langzeitbelichtung (1. Halbbild) und zum Guiding (2. Halbbild) zu nutzen. Andere Kameras – z.B. einige Modelle der Fa. SBIG – haben einen zweiten kleineren Guiding-Chip eingebaut, der wirklich ein simultanes Langzeitbelichten und Guiding ermöglicht. Beide Methoden bieten die Vorteile des Off-Axis-Guiders, den Leitstern über die selbe Optik aufzunehmen und somit keine Probleme mit Shift oder Drift zu bekommen. Beide haben aber auch Nachteile:
- Starlight: Beim Selfguiding wird nur jew. ein Halbbild ausbelichtet, während das andere Halbbild zum Guiding benutzt wird. Nach der halben Belichtungszeit wird dann getauscht, um das andere Halbbild auszubelichten. Daraus folgt leider, dass die notwendige Belichtungszeit verdoppelt wird, oder – wenn man es so lieber hat – die Empfindlichkeit der Aufnahmekamera halbiert wird.
- Starlight: Es kann ein beliebiger Stern im Bildfeld der Kamera zum Guiden benutzt werden. Es ist aber keineswegs gesagt, dass sich ein heller Stern im Bildfeld befindet. Gerade extrem helle Sterne, die sich besonders gut zum Guiding eignen würden, versucht man z.B. aus dem Bildfeld herauszuhalten, um keine Blooming-Effekte zu bekommen.
- SBIG: Der Leitstern liegt nicht im Bereich des Aufnahme-Chips, sondern kurz daneben, im Bereich des Guiding-Chips. Somit sind Sterne im Bildfeld des Objektes nicht zum Guiding zu verwenden. Je nachdem muss die gesamte Kamera gedreht werden, um einen Leitstern in den Bereich des Guiding-Chips zu bekommen. Dadurch liegt das Objekt u.U. nicht mehr so ideal im Bildfeld, wie man es gerne hätte.