Wahrscheinlich hab ich mich wieder zu verknotet ausgedrückt...ich probiers nochmal:
Ich hab eine Laserdiode, Abstrahlwinkel ist hotizontal 14°, vertical 10°. Ich kann mit einem Beamprofiler das abgestrahlte Feld in verschiedenen Entfernungen messen, bekomme so die 1/e²-Strahlabmaße.
Durch die Werte fitte ich eine lineare (Fernfeld) Funktion und bestimme die jeweiligen Schnittpunkte mit der x-Achse.
Die gemessenen Werte liegen sehr genau an der gefitteten Funktion und sind auch reproduzierbar.
Die Differenz der Schnittpunkte beträgt etwa 0,2mm.
Problem I:
Überall in der Literatur und im Netz bewegen sich die Angaben über Astigmatismus von Laserdioden bei max. 50µm.
Wie kann man den Astigmatismus noch anders messen, bzw. wird der Meßwert noch irgendwie normiert?
Ich kann den Astigmatismus auch mit einem Wellenfrontsensor messen und mir den entsprechenden Zernike-Koeffizienten ausgeben lassen. -> 0,06
Problem II:
Wenn ich die Daten in meine Simulation eingebe, bekomme ich bei 0,2mm Astig einen Zernike von 0,005.
Der Messung mit dem Wellenfrontsensor vertrau ich nicht so sehr. Eher meiner Messung mit dem Beamprofiler, der mir allerdings merkwürdig hohe Werte liefert.
Kann mir jemand sagen, was ich hier falsch mache?
Grüße
Thomas II
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP