|
Ewolucja vs. koszty
Stanisław B.A. Stawowy, aka Dizel
Zaprojektowanie dobrego obiektywu w dzisiejszych czasach zdaje się być nadzwyczaj proste - wystarczy uruchomić na potężnym komputerze potężny program do projektowania
obiektywów, wziąć z archiwów jeden z dziesiątków tysięcy istniejących, opatentowanych projektów, lub jeden z tysięcy dostępnych publicznie i dokładnie opisanych, wpisać jego dane do
komputera i kazać mu tak dobrać parametry, żeby otrzymać najlepiej skorygowany, najlepszy obiektyw oparty o dany schemat.
Czy rzeczywiście jest to takie proste?
W żadnym wypadku - i wciąż najpotężniejszym narzędziem projektanta pozostaje to, co tkwi między jego uszami. Poszczególne podstawowe rodzaje obiektywów mają pewne charakterystyczne cechy i
przypisane im wady, które można jedynie zmniejszyć, ale nigdy - wyeliminować. Jest jednak znacznie poważniejszy problem - sama optymalizacja. Wyobraźmy sobie komputer próbujący tak zmieniać
parametry układu, żeby powstały obiektyw miał jak najmniejsze wady. Metodą kolejnych przybliżeń znajduje on takie krzywizny powierzchni soczewek, ich materiały i odstępy między nimi, że wady optyczne
układu są najmniejsze z możliwych. Czy faktycznie?
Wyobraźmy sobie satelitę szukającego najwyższego wzniesienia na planecie. Przesuwa się nad nią, cały czas mierząc czas powrotu sygnału. W pewnej chwili czas powrotu sygnału jest najkrótszy -
STOP! Czy faktycznie jest to najwyższa góra na planecie? W tym celu musielibyśmy kazać satelicie zbadać ją całą - a na to nie mamy czasu ani pieniędzy. Podobnie jest z optymalizacją układu optycznego - nie
wiemy czy nie da się zmniejszyć wad optycznych jeszcze bardziej, nie wiemy czy to co znaleźliśmy jest najkorzystniejszym układem. Tylko doświadczony projektant układów optycznych jest być może w stanie
zdecydować 'szukamy dalej' czy 'lepiej nie będzie'. A i to nie jest pewne. Czas pracy komputera kosztuje, jeszcze więcej kosztuje szkło optyczne, szczególnie jego bardziej egzotyczne gatunki. Projekt,
który opracuje projektant może nie być wykonalny technicznie - choćby ze względu np. na małą tolerancję układu na błędy wykonania. Tylko firmy sprzedające bardzo drogie obiektywy mogą sobie pozwolić
na tolerancje wykonania rzędu 0.01mm w produkcji seryjnej.
Obiektyw składa się z soczewek zakrzywiających wpadający do niego promień światła w określony sposób, zależny od współczynnika załamania szkła z którego te soczewki są zrobione, ich krzywizn i
wzajemnych odległości. Stosując proste zasady optyki geometrycznej ze szkoły podstawowej, można wykreślić drogę takiego promienia światła z łatwością. Czyżby projektowanie obiektywu było naprawdę
takie proste? Bynajmniej.
Każde punktowe źródło światła emituje we wszystkich kierunkach kwanty energii - fotony. Tylko część tej energii trafia do obiektywu. Projektant obiektywu upraszcza istniejącą sytuacje,
traktując wszystkie promienie które wpadły do obiektywu jako skończoną liczbę promieni świetlnych i śledzi ich drogę w elementach układu. Praca projektanta zaczyna się zwykle śledzeniem kilku
promieni, wychodzących z punktu świetlnego położonego na osi optycznej układu. Teraz projektant stara się tak dobrać parametry układu, aby promienie przechodzące przez obiektyw na powrót skupiły
się w jednym punkcie. Jest to matematycznie proste zadanie, choć obliczenia musza być prowadzone z bardzo dużą dokładnością - 5 do 8 miejsc dziesiętnych. Przed wynalezieniem maszyn liczących, prace te
wykorzystywano korzystając z tablic logarytmicznych - robiły to zespoły kilku - kilkunastu kobiet pod kierownictwem wyszkolonego projektanta. Typowy sześciosoczewkowy układ optyczny wymagał
liczenia przebiegu 200 promieni dla każdej powierzchni optycznej - trzech tysięcy dla całego układu - około 3 miesięcy pracy zespołu. Powyższe obliczenia pozwalają stwierdzić jak zachowuje się układ dla
promieni przechodzących blisko osi optycznej - co z tymi przy brzegach?
Wszystkie promienie wpadające do obiektywu możemy rozłożyć na dwa promienie: leżące na płaszczyźnie zawierającej oś optyczną (tangencjalne) i te, które leżą na płaszczyźnie prostopadłej do osi optycznej (sagittalne).
Promienie tangencjalne można śledzić korzystając z równań optyki geometrycznej. Promienie sagittalne można śledzić tylko korzystając ze specjalnych, bardzo skomplikowanych matematycznie równań,
praktycznie niemożliwych do obliczenia bez pomocy komputerów.
Jak każdy zapewne wie, światło wpadające do obiektywu jest złożone z fali o różnej częstotliwości. Fale o różnych częstotliwościach są załamywane w różny sposób na danej powierzchni optycznej. W efekcie
obraz obiektu jest obarczony błędami (aberracjami), takimi jak koma, aberracja sferyczna i chromatyczna, koma czy astygmatyzm. Bieg promieni światła o różnych długościach fali daje się również
obliczyć, a poprzez porównanie go z biegiem promieni wyliczonych na początku możemy badać i poprawiać aberracje układu. Już w latach trzydziestych istniały podstawy matematyczne i wzory pozwalające
badać aberracje i stosowano je, choć w niewielkim zakresie, do poprawiania układów optycznych. Każda aberracja manifestuje się w określony sposób: aberracja sferyczna jest najlepiej widoczna na osi
optycznej, krzywizna pola i koma w rogach, itd. Jest to jednak pewne uproszczenie - każda aberracja wpływa, mniej lub bardziej, na jakość całego obrazu, a to, co zasadniczo robią, to rozpraszanie energii
punktu świetlnego w pewnym określonym obszarze. Owo rozproszenie energii jest nieregularne i niejednakowe dla rożnych długości fali.
Aberracji jest wiele, a dzieli się je ze względu na stopień (potęgę) w której występują w równaniach aberracyjnych. Aberracje pierwszego rzędu (trzeciej potęgi) są znane jako aberracje Seidela, na cześć
człowieka, który opracował ich teorie i równania pozwalające je wyliczyć. Są one bardzo trudne do skorygowania - a nawet jeśli uda się je sprowadzić do niskiego poziomu, czyhają na projektanta
aberracje drugiego i trzeciego rzędu (piątej i siódmej potęgi). Z racji skomplikowania procesu projektowania, do lat sześćdziesiątych (późnych lat sześćdziesiątych w przypadku producentów japońskich)
liczono zazwyczaj tylko aberracje seidlowskie, także z wykorzystaniem komputerów (rozpoczęła to Leica/Leitz na początku 1960 roku). Obiektywy produkowane wtedy, były optymalizowane głównie
dla promieni bliskich osi optycznej, a aberracje drugiego rzędu były często pomijane. Klasycznym przykładem jest tu np. Zeiss Sonnar 2/85 i jego rosyjska kopia - Jupiter 9. Przy pełnym otworze obraz jest
miękki - za przyczyna aberracji sferycznej drugiego rzędu, bardzo dobrze zauważalnej przy tak jasnym obiektywie. Po przymkniecie obiektyw jest bardzo ostry, z racji dobrej korekcji aberracji
seidlowskich.
 |
|
W latach siedemdziesiątych i osiemdziesiątych zaczęto prace nad komputerową optymalizacja istniejących układów optycznych - jednocześnie udoskonalona
technologia pozwoliła na składanie obiektywów z mniejszymi tolerancjami mechanicznymi. Przede wszystkim zaś, zaczęto zwracać uwagę na korekcje układów dla całego widma świetlnego -
z tych czasów wywodzą się takie obiektywy, jak Leica APO Elmarit R 2.8/100 - który dla światła monochromatycznego jest GORSZY niż stary Elmarit R 4/100, ale dla światła białego dale znacznie
lepszy obraz - patrz po prawej. Z tych czasów wywodzą się też takie obiektywy jak Noctilux 1/50 - który praktycznie nie poprawia się przy przymykaniu przysłony - typowy przykład
doskonale obliczonego układu. Nawiasem mówiąc, Noctilux cechuje się dość silna komą - nie wpływającą jednak na jakość obrazu w typowych sytuacjach fotograficznych
patrz po lewej. |
|
 |
Ale lata te nie były tak różowe - zwłaszcza gdy stwierdzono, że różne długości fali dają największy kontrast obrazu przy różnych położeniach płaszczyzny obrazu - jedynym
wyjściem było projektowanie obiektywu przy założeniu, że pewne kolory będą ważniejsze niż inne. Obecnie wyraźnie widać powolny postęp w ulepszaniu istniejących układów, przy zachowaniu ich w miarę niskiej
ceny - jest to wyraźny wpływ działów marketingu na produkcję obiektywów. Najwyraźniej jest on widoczny w tanich obiektywach - projektowanych tak, aby dawały zadowalający obraz za niewielka cenę (przykładem są tu tanie
obiektywy 50 mm Canona czy Nikona), impulsem jest tu także niezbyt duża dokładność układów AF, gwarantujących jedynie 50 lpmm na filmie.
Ciekawa sytuacja wytworzyła się pomiędzy dwiema potęgami optycznymi - Zeissem i Leicą. Zeiss stara się produkować obiektywy równoważąc cenę i jakość, jak pisze Herr Woltge, poprzedni szef zespołu projektantów
Zeissa o Planarze 1.4/50:
'The lens is optimised fully within the design parameters, and better quality is only possible when one employs more expensive glass.' W przeciwnym kierunku poszła Leica, projektujac Summiluxa R 1.4/50 - ale
widać to również w jego cenie.
Ciekawym przykładem możliwości udoskonalenia starych układów optycznych jest Cosina/Voigtlander Heliar 3.5/50, przeprojektowany i dopracowany przy użyciu najnowszych technik obliczeniowych Tessar - przy
pełnym otworze obiektyw daje 100 lpmm od środka optycznego aż do krańców obrazu, nie ma śladu astygmatyzmu, jedynie niewielkie błędy chromatyczne. Praktycznie od f/3.5 do f/16 jakość obrazu jest jednakowa,
pomijając naturalne ograniczenie rozdzielczości przez dyfrakcję. Innym jest Summarit f/2.4/40 użyty w Leicy Minilux - jest to praktycznie granica możliwości udoskonalenia układu Gaussa: przy pełnym
otworze jakość obrazu jest bardzo dobra w środkowych 10 mm, dalej widać płynny spadek kontrastu. Flara praktycznie nie istnieje - przy f/4 obraz poprawia się, a przy f/5.6 do f/8 mamy ponad 50% kontrast dla
rozdzielczości 50 lpmm.
Powrót do Technics
|