|
Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?
Jacek Kardasiewicz
Ostatnio na forach dyskusyjnych pojawia się sporo wątków i postów dotyczących różnych aspektów ostrości zdjęć. Ktoś
tam ma FF/BF i na dodatek to się jakoś dziwnie zmienia; komuś aparat nie ostrzy z długimi obiektywami; komuś nie ostrzy z krótkimi obiektywami; ktoś
oddaje aparat do serwisu, bo nie ostrzy na nieskończoność z żadnym obiektywem, a powinien; ktoś inny ma niezły jasny obiektyw, ale tak mydlany,
że aż się go używać nie da; ktoś inny byle jakim obiektywem robi ostrzejsze zdjęcia niż obiektywami z najwyższej półki; obiektywy idealnie ostre dla
aparatu analogowego są bardzo kiepskie dla cyfry. Te wypowiedzi skłoniły mnie do liczbowego opisania pewnego zjawiska fizycznego, które niektórzy
znają i rozumieją, inni instynktownie wyczuwają jego obecność i skutki, lecz nie do końca wiedzą o co chodzi, ale większość fotografujących aparatami
cyfrowymi z pewnością nigdy się nad tym nie zastanawiała. Co więcej, nie zdają sobie z tego sprawy niektórzy zawodowi fotografowie z wieloletnim
stażem. To co zostanie napisane dalej dotyczy zarówno lustrzanek cyfrowych, kompaktów cyfrowych, jak też cyfrowych hybryd. Dotyczy wszystkiego, co ma
wbudowaną cyfrową matrycę do rejestracji obrazów.
Tych, którzy całe to zagadnienie rozumieją i potrafią je opisać za pomocą liczb, wzorów i wykresów, przepraszam za uproszczenia, za zaokrąglenia i za
pominięcie pewnych mniej istotnych aspektów. Postawię teraz kilka pytań, a następnie postaram się na nie odpowiedzieć.
-
Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?
-
Czy zdjęcie prawidłowo wyostrzone na nieskończoność i zarejestrowane przez cyfrową matrycę będzie ostre?
-
Jakie znaczenie w przypadku lustrzanki cyfrowej ma odległość hiperfokalna?
Odpowiedzi na te pytania w fotografii analogowej były jasne proste i dość oczywiste. Lustrzanka analogowa może bez
problemu wyostrzyć na nieskończoność, takie zdjęcie będzie ostre od odległości hiperfokalnej do nieskończoności, a jeśli nastawimy odległość
ostrzenia na hiperfokalną, to uzyskamy największą możliwą głębię ostrości. Nasuwa się jednak pytanie, czy w przypadku lustrzanek cyfrowych oraz
kompaktów i hybryd też tak będzie? Tu odpowiedź nie jest już taka prosta i jednoznaczna. Obiektyw zapewne da obraz ostry, tak samo jak dla lustrzanki
analogowej, ale czy można porównywać negatyw lub slajd analogowy z matrycą i czy obraz zostanie zarejestrowany przez matrycę jako ostry tak jak to było w
fotografii analogowej?
Przyczyną uzasadnionych wątpliwości jest właśnie cyfrowa matryca stosowana do zarejestrowania zdjęcia. Jak powszechnie wiadomo matryca to bardzo
regularna siatka elementów światłoczułych, rozłożonych w węzłach prostokątnej siatki. Matryca taka ma ściśle określoną liczbę punktów w
pionie i w poziomie, a to determinuje maksymalną rozdzielczość rejestrowanych obrazów. Światłoczułe materiały analogowe nie mają aż tak
regularnej struktury i w przeciwieństwie do matrycy cyfrowej, mogą mieć różną wielkość ziarna, czyli tym samym dawać różną rozdzielczość. Aby
obliczyć maksymalną rozdzielczość matrycy cyfrowej wystarczy podzielić ilość punktów w pionie lub w poziomie przez wybrany rozmiar obrazu. Ale można też
odwrotnie. Dzieląc rozmiar obrazu przez liczbę punktów możemy się dowiedzieć, jaki rozmiar będzie miał pojedynczy zarejestrowany punkt tego
obrazu. Zazwyczaj robimy takie obliczenia w oparciu o rozmiar zdjęcia wykonanego na papierze lub rozmiar obrazu wyświetlonego na monitorze. Jednak
można, a czasem nawet trzeba, takie przeliczenia zastosować do rzeczywistego rozmiaru fotografowanej sceny, czy fotografowanego obiektu, czyli do obrazu,
który dopiero ma być zarejestrowany na zdjęciu.
Wyobraźmy sobie, że dysponujemy lustrzanką z optymalnie dobranym obiektywem i chcemy wykonać zdjęcie odległej grupy wysokich drzew. Kadrujemy tak, aby
cała grupa drzew była widoczna w wizjerze. Tym samym wyznaczamy rzeczywisty rozmiar obiektów, które będziemy rejestrować za pomocą matrycy aparatu. W
zależności od tematu zdjęcia, rozmiar obiektów może być podawany w milimetrach lub centymetrach (dla makro), w metrach (dla portretu, sportu,
imprezy w pomieszczeniu zamkniętym), ale również w setkach metrów lub w kilometrach (dla krajobrazu). Niezależnie od tego co będziemy fotografować,
liczba punktów matrycy jest zawsze taka sama, a więc zawsze możemy wyznaczyć fragment obszaru fotografowanej sceny, który musi zostać zarejestrowany
przez jeden światłoczuły punkt matrycy. Wartość ta jest zależna od kąta widzenia obiektywu, odległości obiektu od aparatu, rozmiaru matrycy (FF, DX)
oraz ilości punktów światłoczułych w poziomie i w pionie matrycy. Wzory matematyczne opisujące te zależności nie są zbyt skomplikowane, ale nie będę
tu ich przytaczał, żeby nie stresować zatwardziałych humanistów. W zamian zamieszczę tabelkę, która może się okazać przydatna podczas
planowania kadrów dla potrzeb fotografii cyfrowej. Tabelka ma trzy kolumny. W pierwszej kolumnie znajdują się typowe ogniskowe obiektywów, w drugiej
kolumnie współczynnik obliczony dla Nikona D200, a w trzeciej kolumnie współczynnik obliczony dla Nikonów D70/D50.
12 mm |
0,566 |
0,732 |
|
20 mm |
0,530 |
0,686 |
|
24 mm |
0,460 |
0,594 |
|
28 mm |
0,396 |
0,510 |
|
35 mm |
0,322 |
0,418 |
|
50 mm |
0,234 |
0,302 |
|
60 mm |
0,201 |
0,258 |
|
70 mm |
0,170 |
0,219 |
|
85 mm |
0,141 |
0,181 |
|
105 mm |
0,116 |
0,148 |
|
180 mm |
0,068 |
0,088 |
|
200 mm |
0,060 |
0,076 |
|
300 mm |
0,040 |
0,051 |
|
Aby z tej tabelki skorzystać, wystarczy pomnożyć przez odpowiedni współczynnik, odległość fotografowanego przedmiotu od aparatu wyrażoną w metrach. Jeśli za pomocą Nikona D200 i obiektywu o ogniskowej 50 mm chcemy
zrobić portret osoby oddalonej o 1,5 metra, to po pomnożeniu 1,5 metra przez 0,234 otrzymamy liczbę 0,351. Jest to wyrażony w milimetrach rozmiar obszaru, który będzie naświetlał jeden światłoczuły punkt na matrycy. Każdy
światłoczuły punkt matrycy przyjmie kolor, który będzie uśrednionym kolorem dla całego tego obszaru. Tym samym, najmniejszym możliwym do zarejestrowania
na matrycy detalem naszego obiektu będzie obszar o wymiarach 0,351 mm na 0,351 mm, ale matryca zarejestruje ten obszar jako pojedynczy punkt.
Mniejszych detali zarejestrować nie można, mogą one jedynie pośrednio wpływać na wartość uśrednionego koloru tego punktu, ale widoczne na zdjęciu
na pewno nie będą. Jeśli tym samym obiektywem, ale z Nikonem D70 będziemy chcieli wykonać zdjęcie elewacji budynku oddalonego o 30 metrów, to po
pomnożeniu 30 przez 0,302 otrzymamy 9,06 mm, czyli najmniejszy możliwy do zarejestrowania detal elewacji tego budynku będzie miał wymiary 9,06 mm na
9,06 mm, ale również będzie to pojedynczy punkt o uśrednionym kolorze.
Wróćmy teraz do odpowiedzi na początkowe pytania. Fotografujemy Nikonem D70 z obiektywem o ogniskowej 20 mm rozległy krajobraz. W odległości 300 metrów
znajduje się grupa wysokich drzew, trochę dalej, w odległości 1000 metrów stoi budynek, a na horyzoncie mamy las. Ustawiamy przysłonę na f/8,
prawidłowo ustawiamy ostrość i teoretyczne mamy wymaganą głębię ostrości dla zarejestrowania tej sceny tak, aby wszystko na zdjęciu było ostre. Jest
jednak jedno małe ale. Jeśli pomnożymy nasze 300 metrów przez współczynnik z tabelki równy 0,686, to w efekcie otrzymamy liczbę 205,8. Minimalny detal
fotografowanej grupy drzew możliwy do zarejestrowania przez jeden element światłoczuły matrycy ma więc wymiar 205,8 mm na 205,8 mm. Możemy zatem
zapomnieć o zarejestrowaniu poszczególnych igieł drzew iglastych, pojedyncze liście i gałęzie też nie będą widoczne. W miarę ostre mogą być jedynie pnie
i bardzo grube konary – te o średnicach znacznie większych niż 20 centymetrów. Reszta będzie tylko zbiorem kolorowych kropek, które nie
przenoszą żadnej sensownej faktury, a jedynie są wypadkową uśrednionych kolorów poszczególnych obszarów o wymiarach 205,8 mm na 205,8 mm. A co
będzie, jeśli w odległości 1000 metrów będzie budynek? Z obliczeń wyjdzie nam, że minimalny możliwy do zarejestrowania, jako jeden punkt matrycy,
detal tego budynku to obszar 686 mm na 686 mm, czyli okna nie zostaną zarejestrowane jako okna, ale jako kilka różnokolorowych punktów, szerokie i
wysokie drzwi jeszcze być może będą rozróżnialne, ale wszystko będzie sprawiało wrażenie kompletnie nieostrego - rozmytego. Jeśli te drzewa i ten
dom są głównym tematem naszego zdjęcia, a na horyzoncie mamy las to na zdjęciu nie będzie żadnego ostro zarejestrowanego elementu, pomimo bardzo
starannego i prawidłowego ustawienia ostrości na obiektywie. Jedyne co na takim zdjęciu może wydawać się ostre, to chmury, bo chmury nie zawierają
drobnych detali, a rejestrowane są jedynie jako kolorowe plamy.
Nasuwa się kolejne pytanie, czy możliwe jest określenie takiej odległości obiektu od aparatu, żeby rozdzielczość matrycy nie miała istotnego wpływu na
ostrość zdjęcia? Oczywiście tak. Można obliczyć w jakiej odległości od aparatu powinien znaleźć się obiekt, aby był na pewno uznany za ostry, o ile
ostro naświetli go obiektyw. Przy czym należy pamiętać, że ostrość obrazu jest pojęciem subiektywnym, względnym, zależnym w dużej mierze od wielkości
i rozdzielczości obrazu, na który patrzymy oraz od odległości, z jakiej ten obraz oglądamy. Przyjęło się dość powszechnie, że ostrość zdjęć cyfrowych
oceniana jest z perspektywy cropa 100% wyświetlanego na monitorze (nie chcę tu dyskutować, czy jest to podejście właściwe, czy nie, ale tak właśnie
jest). Jeśli na monitorze oglądamy zdjęcie powiększone do 100%, a monitor ma rozdzielczość około 85 dpi, to jeden piksel na ekranie ma rozmiar około 0,3
milimetra. Dobierając z tabelki odpowiedni współczynnik i wykonując dzielenie (0,3/0,234) obliczymy, że aby w obrazie oglądanym w ten sposób,
rozdzielczość matrycy nie wpływała negatywnie na ostrość obiektu (aby rozdzielczość matrycy była większa niż to, co możemy zarejestrować za pomocą
obiektywu), to fotografowany obiekt musi być oddalony od Nikona D200 z obiektywem o ogniskowej 50 mm nie bardziej, niż o 1,28 metra. Dla D70 z tym
samym obiektywem będzie to już tylko 0.99 metra. Dla mniejszych odległości obiektu od aparatu rozdzielczość matrycy pozwoli na prawidłowe
zarejestrowanie całego obiektu, a ostrość obrazu będzie determinowana głównie przez ostrość obiektywu. Jeśli jednak ta odległość będzie większa od
obliczonej, to o ostrości nie będzie już decydowała ostrość obiektywu, ale rozdzielczość matrycy. Początkowo nieostrości będą niewielkie, jeszcze
akceptowalne, ale wraz ze zwiększaniem odległości obiektu od aparatu, obraz na ekranie monitora będzie wydawał się coraz bardziej rozmyty, nawet pomimo
prawidłowego ustawienia ostrości na obiektywie.
A jak będzie w przypadku matrycy cyfrowej Nikona D200 z odległością hiperfokalną? Jeśli obiektyw o ogniskowej 50 mm przymkniemy do f/5,6 to
odległość hiperfokalna wyniesie około 22 metrów, czyli teoretycznie obiektyw zapewni nam głębię ostrości rozciągająca się od 11 metrów, do
nieskończoności. Z powyższych rozważań i z prostych obliczeń można jednak wyciągnąć wniosek, że w wyniku ustawienia odległości ostrzenia na odległość
hiperfokalną praktycznie nie mamy szans zrobić zdjęcia, które na monitorze w powiększeniu 100% będzie uznane za ostre. Dla tego zestawu i odległości 11
metrów, uzyskamy obszar rejestrowany przez jeden światłoczuły punkt matrycy o rozmiarach 2,57mm na 2,57 mm. Czyli ostro raczej nie będzie (dla tak małej
odległości obiektu od aparatu wymagamy ostrości wręcz idealnej), dla większych odległości będzie już tylko coraz gorzej, a dla mniejszych
odległości ostro nie będzie z winy obiektywu, który wyostrzy tylko te obiekty, które są oddalone o więcej niż 11 metrów. Czyli na tym zdjęciu
oglądanym na monitorze w powiększeniu 100% żaden obiekt nie będzie ostry. Wniosek jest prosty - odległość hiperfokalna dla matrycy cyfrowej, w
przypadku oglądania zdjęcia na monitorze w powiększeniu 100%, praktycznie nie istnieje.
Rzeczywiste zdjęcie ostrzone na odległość hiperfokalną, czyli odbitka wykonana na papierze w formacie, dajmy na to, 10x15, czy 15x20 cm jest
bardziej tolerancyjne niż ekran monitora i może jeszcze wyglądać nieźle. Rozdzielczość takiego zdjęcia zazwyczaj wynosi około 300 dpi, a więc jest
prawie cztery razy większa niż rozdzielczość monitora. Tym samym nieostrości będą wyglądały na cztery razy mniejsze i mogą jeszcze być akceptowalne, o
ile zdjęcie zostanie odpowiednio wyostrzone w programie graficznym. Wielkość tych nieostrości można również ograniczać zmniejszając rozmiar zdjęcia.
Forumowe miniaturki mogą w pewnych sytuacjach wyglądać lepiej, niż duże odbitki z tych zdjęć wykonane na papierze. Oglądając zdjęcia na monitorze w
100% powiększeniu najczęściej jednak powiemy, że na tych zdjęciach nic nie jest ostre. No chyba, że celowo lub przypadkowo tak dobraliśmy kadr,
obiektyw i odległości fotografowanych obiektów, że na zdjęciu nie widać już żadnych szczegółów (liście, gałęzie, okna, drzwi, sierść, pióra) tylko
kolorowe plamy. Granice tych plam mogą w pewnych warunkach sprawiać wrażenie ostrych obszarów, ale obszarów pozbawionych detali, których przecież
oczekujemy od ostrego zdjęcia. Efekt względnie ostrego zdjęcia możemy uzyskać tylko wtedy, gdy najmniejsze detale fotografowanej sceny będą
kilkukrotnie większe niż obszary możliwe do zarejestrowania przez pojedynczy punkt matrycy. Im tych punktów będzie więcej, tym taki detal będzie się
wydawał bardziej ostry. Tak na przykład, mogą zostać zarejestrowane szczyty górskie fotografowane z odległości kilku kilometrów, gdzie pojedynczych
kamieni i głazów już nie widać, a w dole widzimy już nie las złożony z pojedynczych drzew i gałęzi, ale jedynie zielone plamy lasu.
Z rozdzielczością matrycy i jej bardzo regularnym układem wiąże się taż inne zjawisko. Otóż może nam się wydawać, że odsuwając obiekt od aparatu będzie
on na przemian mniej lub bardzie ostry. Wynika to z tego, że matryca musi uśredniać kolory poszczególnych punktów. Aby to wyjaśnić posłużę, się
prostym przykładem. Załóżmy, że fotografujemy ogrodzenie złożone ze 150 idealnie pionowych prętów na jednolitym tle. Pręty te mają na przemian
grubości 10 i 12 milimetrów i rozstawione są naprzemiennie co 100 i co 400 milimetrów (cienki pręt, 100 mm, gruby pręt, 400 mm, cienki pręt, 100 mm,
gruby pręt, 400 mm, itd.). Jeśli z obliczeń wyjdzie nam, że pojedynczy punkt matrycy zarejestruje kwadrat o rozmiarach 1, 2, 5, 10, 20, 25, lub 50
milimetrów (wszystkie te liczby są podzielnikami naszego modułu 100 milimetrów), to ogrodzenie zostanie zarejestrowane jako ostre. Jeśli
odległość aparatu od tego ogrodzenia będzie nadal wzrastać, to obraz stanie się coraz bardziej nieostry – niektóre dwa pręty odległe o 100 mm będą
rejestrowane przez ten sam punkt matrycy. Ale przy odległości, dla której rozmiar kwadratu osiągnie dokładne wartości 100 lub 200 milimetrów
ogrodzenie znów pozornie stanie się ostre – tyle, że nie zobaczymy wszystkich prętów, bo te dwa odległe o 100 mm zostaną zawsze zarejestrowane
przez jeden punkt matrycy (będziemy mieli wrażenie, że to jeden pręt). To już nie będzie ten sam płot, ale znowu zrobi się prawie ostry. Jest to
zjawisko znane wszystkim posiadaczom D70 i nazywa się mora, czyli interferencja siatki punktów matrycy z prawie pionowymi i prawie poziomymi
liniami rejestrowanego obrazu. Ta mora w pewnych szczególnych przypadkach może powodować, że zdjęcie wydaje się ostre, choć „zgubiona” została tak
duża ilość detali, że to nie jest już to samo zdjęcie. Na przykład, liczba prętów naszego ogrodzenia nie wynosi już 150, tylko 75, ale za to ogrodzenie
robi wrażenie ostrego, tylko że na zdjęciu jest to już inne ogrodzenie niż w rzeczywistości.
Innym ciekawym efektem jest to, że delikatne przesuwanie aparatu w pionie lub w poziomie, albo skręcanie go o niewielki kąt, będzie powodowało dość
istotne zmiany tego, co zarejestruje matryca. Będziemy wykonywali inne zdjęcia tego samego obiektu, a obiekt ten subiektywnie może wydawać się
mniej lub bardziej ostry, choć ostry zapewne nie będzie nigdy. Wynika to z faktu, że po minimalnej zmianie położenia aparatu uśrednianie koloru dla
każdego światłoczułego punktu matrycy będzie dotyczyło zupełnie innego zastawu rzeczywistych punktów (a tym samym rzeczywistych kolorów)
fotografowanego obiektu. Ale to już wynika wprost z tego co napisałem wyżej.
Zamieszczona wyżej tabelka zawiera zaokrąglone współczynniki przydatne podczas szacowania wielkości obszaru rejestrowanego przez jeden punkt
światłoczuły matryc D50, D70 i D200. Dla uproszczenia zostało przyjęte, że jest to jeden piksel (z uwzględnieniem interpolacji Bayera), który tworzony
jest na podstawie czterech sąsiednich elementów światłoczułych (RGBG). Trzeba by jeszcze uwzględnić wpływ filtra AA, dodatkowo powiększając
wszystkie współczynniki, ale to już zostało pominięte.
W tym wszystkim istotne i warte zapamiętania jest to, że każda matryca cyfrowa ma stałą rozdzielczość i nie ma możliwości zmiany tej rozdzielczości
w zależności od fotografowanej sceny. Ze każdy pojedynczy element światłoczuły matrycy rejestruje nie kolor idealnego punktu, tylko uśredniony
kolor prostokąta, a ściślej obszaru, który będziemy odbierali jako prostokąt, o wymiarach zależnych od odległości do fotografowanego obiektu i
od użytego obiektywu. Jeśli odległości do fotografowanego przedmiotu są zbyt duże, to o ostrości zdjęcia nie decyduje ostrość obiektywu, ale
rozdzielczość matrycy. Fotografując lustrzanka cyfrową krajobrazy lub odległe przedmioty, czy zwierzęta, po prostu trzeba sobie z tego zdawać
sprawę i nie wpadać w panikę, jeśli na zdjęciu coś będzie nieostre, tylko zastanowić się jak można takie zdjęcie poprawić – zrobić inaczej.
Nieostrości wynikające z zastosowania matrycy cyfrowej nie są wadą konkretnego aparatu, czy obiektywu, ale są wynikiem zastosowania techniki
cyfrowej w fotografii.
Powrót do Technics
|