|   | 
	
	   
	Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?
	 Jacek Kardasiewicz 
    Ostatnio na forach dyskusyjnych pojawia się sporo wątków i postów dotyczących różnych aspektów ostrości zdjęć. Ktoś 
	tam ma FF/BF i na dodatek to się jakoś dziwnie zmienia; komuś aparat nie ostrzy z długimi obiektywami; komuś nie ostrzy z krótkimi obiektywami; ktoś 
	oddaje aparat do serwisu, bo nie ostrzy na nieskończoność z żadnym obiektywem, a powinien; ktoś inny ma niezły jasny obiektyw, ale tak mydlany, 
	że aż się go używać nie da; ktoś inny byle jakim obiektywem robi ostrzejsze zdjęcia niż obiektywami z najwyższej półki; obiektywy idealnie ostre dla 
	aparatu analogowego są bardzo kiepskie dla cyfry. Te wypowiedzi skłoniły mnie do liczbowego opisania pewnego zjawiska fizycznego, które niektórzy 
	znają i rozumieją, inni instynktownie wyczuwają jego obecność i skutki, lecz nie do końca wiedzą o co chodzi, ale większość fotografujących aparatami 
	cyfrowymi z pewnością nigdy się nad tym nie zastanawiała. Co więcej, nie zdają sobie z tego sprawy niektórzy zawodowi fotografowie z wieloletnim 
	stażem. To co zostanie napisane dalej dotyczy zarówno lustrzanek cyfrowych, kompaktów cyfrowych, jak też cyfrowych hybryd. Dotyczy wszystkiego, co ma 
	wbudowaną cyfrową matrycę do rejestracji obrazów. 
	 
	Tych, którzy całe to zagadnienie rozumieją i potrafią je opisać za pomocą liczb, wzorów i wykresów, przepraszam za uproszczenia, za zaokrąglenia i za 
	pominięcie pewnych mniej istotnych aspektów. Postawię teraz kilka pytań, a następnie postaram się na nie odpowiedzieć.
	 
		- 
		
Czy lustrzanka cyfrowa może wyostrzyć na nieskończoność?  
		- 
		
Czy zdjęcie prawidłowo wyostrzone na nieskończoność i zarejestrowane przez cyfrową matrycę będzie ostre?  
		- 
		
Jakie znaczenie w przypadku lustrzanki cyfrowej ma odległość hiperfokalna?  
	 
	Odpowiedzi na te pytania w fotografii analogowej były jasne proste i dość oczywiste. Lustrzanka analogowa może bez 
	problemu wyostrzyć na nieskończoność, takie zdjęcie będzie ostre od odległości hiperfokalnej do nieskończoności, a jeśli nastawimy odległość 
	ostrzenia na hiperfokalną, to uzyskamy największą możliwą głębię ostrości. Nasuwa się jednak pytanie, czy w przypadku lustrzanek cyfrowych oraz 
	kompaktów i hybryd też tak będzie? Tu odpowiedź nie jest już taka prosta i jednoznaczna. Obiektyw zapewne da obraz ostry, tak samo jak dla lustrzanki 
	analogowej, ale czy można porównywać negatyw lub slajd analogowy z matrycą i czy obraz zostanie zarejestrowany przez matrycę jako ostry tak jak to było w 
	fotografii analogowej? 
	 
	Przyczyną uzasadnionych wątpliwości jest właśnie cyfrowa matryca stosowana do zarejestrowania zdjęcia. Jak powszechnie wiadomo matryca to bardzo 
	regularna siatka elementów światłoczułych, rozłożonych w węzłach prostokątnej siatki. Matryca taka ma ściśle określoną liczbę punktów w 
	pionie i w poziomie, a to determinuje maksymalną rozdzielczość rejestrowanych obrazów. Światłoczułe materiały analogowe nie mają aż tak 
	regularnej struktury i w przeciwieństwie do matrycy cyfrowej, mogą mieć różną wielkość ziarna, czyli tym samym dawać różną rozdzielczość. Aby 
	obliczyć maksymalną rozdzielczość matrycy cyfrowej wystarczy podzielić ilość punktów w pionie lub w poziomie przez wybrany rozmiar obrazu. Ale można też 
	odwrotnie. Dzieląc rozmiar obrazu przez liczbę punktów możemy się dowiedzieć, jaki rozmiar będzie miał pojedynczy zarejestrowany punkt tego 
	obrazu. Zazwyczaj robimy takie obliczenia w oparciu o rozmiar zdjęcia wykonanego na papierze lub rozmiar obrazu wyświetlonego na monitorze. Jednak 
	można, a czasem nawet trzeba, takie przeliczenia zastosować do rzeczywistego rozmiaru fotografowanej sceny, czy fotografowanego obiektu, czyli do obrazu, 
	który dopiero ma być zarejestrowany na zdjęciu. 
	 
	Wyobraźmy sobie, że dysponujemy lustrzanką z optymalnie dobranym obiektywem i chcemy wykonać zdjęcie odległej grupy wysokich drzew. Kadrujemy tak, aby 
	cała grupa drzew była widoczna w wizjerze. Tym samym wyznaczamy rzeczywisty rozmiar obiektów, które będziemy rejestrować za pomocą matrycy aparatu. W 
	zależności od tematu zdjęcia, rozmiar obiektów może być podawany w milimetrach lub centymetrach (dla makro), w metrach (dla portretu, sportu, 
	imprezy w pomieszczeniu zamkniętym), ale również w setkach metrów lub w kilometrach (dla krajobrazu). Niezależnie od tego co będziemy fotografować, 
	liczba punktów matrycy jest zawsze taka sama, a więc zawsze możemy wyznaczyć fragment obszaru fotografowanej sceny, który musi zostać zarejestrowany 
	przez jeden światłoczuły punkt matrycy. Wartość ta jest zależna od kąta widzenia obiektywu, odległości obiektu od aparatu, rozmiaru matrycy (FF, DX) 
	oraz ilości punktów światłoczułych w poziomie i w pionie matrycy. Wzory matematyczne opisujące te zależności nie są zbyt skomplikowane, ale nie będę 
	tu ich przytaczał, żeby nie stresować zatwardziałych humanistów.  W zamian zamieszczę tabelkę, która może się okazać przydatna podczas 
	planowania kadrów dla potrzeb fotografii cyfrowej. Tabelka ma trzy kolumny. W pierwszej kolumnie znajdują się typowe ogniskowe obiektywów, w drugiej 
	kolumnie współczynnik obliczony dla Nikona D200, a w trzeciej kolumnie współczynnik obliczony dla Nikonów D70/D50. 
	
		
			| 12 mm | 
			0,566 | 
			0,732 | 
			  | 
		 
		
			| 20 mm | 
			0,530 | 
			0,686 | 
			  | 
		 
		
			| 24 mm | 
			0,460 | 
			0,594 | 
			  | 
		 
		
			| 28 mm | 
			0,396 | 
			0,510 | 
			  | 
		 
		
			| 35 mm | 
			0,322 | 
			0,418 | 
			  | 
		 
		
			| 50 mm | 
			0,234 | 
			0,302 | 
			  | 
		 
		
			| 60 mm | 
			0,201 | 
			0,258 | 
			  | 
		 
		
			| 70 mm | 
			0,170 | 
			0,219 | 
			  | 
		 
		
			| 85 mm | 
			0,141 | 
			0,181 | 
			  | 
		 
		
			| 105 mm | 
			0,116 | 
			0,148 | 
			  | 
		 
		
			| 180 mm | 
			0,068 | 
			0,088 | 
			  | 
		 
		
			| 200 mm | 
			0,060 | 
			0,076 | 
			  | 
		 
		
			| 300 mm | 
			0,040 | 
			0,051 | 
			  | 
		 
	 
	
	 
	Aby z tej tabelki skorzystać, wystarczy pomnożyć przez odpowiedni współczynnik, odległość fotografowanego przedmiotu od aparatu wyrażoną w 	metrach. Jeśli za pomocą Nikona D200 i obiektywu o ogniskowej 50 mm chcemy 
	zrobić portret osoby oddalonej o 1,5 metra, to po pomnożeniu 1,5 metra przez 0,234 otrzymamy liczbę 0,351. Jest to wyrażony w milimetrach rozmiar obszaru, który będzie naświetlał jeden światłoczuły punkt na matrycy. Każdy 
	światłoczuły punkt matrycy przyjmie kolor, który będzie uśrednionym kolorem dla całego tego obszaru. Tym samym, najmniejszym możliwym do zarejestrowania 
	na matrycy detalem naszego obiektu będzie obszar o wymiarach 0,351 mm na 0,351 mm, ale matryca zarejestruje ten obszar jako pojedynczy punkt. 
	Mniejszych detali zarejestrować nie można, mogą one jedynie pośrednio wpływać na wartość uśrednionego koloru tego punktu, ale widoczne na zdjęciu 
	na pewno nie będą. Jeśli tym samym obiektywem, ale z Nikonem D70 będziemy chcieli wykonać zdjęcie elewacji budynku oddalonego o 30 metrów, to po 
	pomnożeniu 30 przez 0,302 otrzymamy 9,06 mm, czyli najmniejszy możliwy do zarejestrowania detal elewacji tego budynku będzie miał wymiary 9,06 mm na 
	9,06 mm, ale również będzie to pojedynczy punkt o uśrednionym kolorze. 
	 
	Wróćmy teraz do odpowiedzi na początkowe pytania. Fotografujemy Nikonem D70 z obiektywem o ogniskowej 20 mm rozległy krajobraz. W odległości 300 metrów 
	znajduje się grupa wysokich drzew, trochę dalej, w odległości 1000 metrów stoi budynek, a na horyzoncie mamy las. Ustawiamy przysłonę na f/8, 
	prawidłowo ustawiamy ostrość i teoretyczne mamy wymaganą głębię ostrości dla zarejestrowania tej sceny tak, aby wszystko na zdjęciu było ostre. Jest 
	jednak jedno małe ale. Jeśli pomnożymy nasze 300 metrów przez współczynnik z tabelki równy 0,686, to w efekcie otrzymamy liczbę 205,8. Minimalny detal 
	fotografowanej grupy drzew możliwy do zarejestrowania przez jeden element światłoczuły matrycy ma więc wymiar 205,8 mm na 205,8 mm. Możemy zatem 
	zapomnieć o zarejestrowaniu poszczególnych igieł drzew iglastych, pojedyncze liście i gałęzie też nie będą widoczne. W miarę ostre mogą być jedynie pnie 
	i bardzo grube konary – te o średnicach znacznie większych niż 20 centymetrów. Reszta będzie tylko zbiorem kolorowych kropek, które nie 
	przenoszą żadnej sensownej faktury, a jedynie są wypadkową uśrednionych kolorów poszczególnych obszarów o wymiarach 205,8 mm na 205,8 mm. A co 
	będzie, jeśli w odległości 1000 metrów będzie budynek? Z obliczeń wyjdzie nam, że minimalny możliwy do zarejestrowania, jako jeden punkt matrycy, 
	detal tego budynku to obszar 686 mm na 686 mm, czyli okna nie zostaną zarejestrowane jako okna, ale jako kilka różnokolorowych punktów, szerokie i 
	wysokie drzwi jeszcze być może będą rozróżnialne, ale wszystko będzie sprawiało wrażenie kompletnie nieostrego - rozmytego. Jeśli te drzewa i ten 
	dom są głównym tematem naszego zdjęcia, a na horyzoncie mamy las to na zdjęciu nie będzie żadnego ostro zarejestrowanego elementu, pomimo bardzo 
	starannego i prawidłowego ustawienia ostrości na obiektywie. Jedyne co na takim zdjęciu może wydawać się ostre, to chmury, bo chmury nie zawierają 
	drobnych detali, a rejestrowane są jedynie jako kolorowe plamy. 
	 
	Nasuwa się kolejne pytanie, czy możliwe jest określenie takiej odległości obiektu od aparatu, żeby rozdzielczość matrycy nie miała istotnego wpływu na 
	ostrość zdjęcia? Oczywiście tak. Można obliczyć w jakiej odległości od aparatu powinien znaleźć się obiekt, aby był na pewno uznany za ostry, o ile 
	ostro naświetli go obiektyw. Przy czym należy pamiętać, że ostrość obrazu jest pojęciem subiektywnym, względnym, zależnym w dużej mierze od wielkości 
	i rozdzielczości obrazu, na który patrzymy oraz od odległości, z jakiej ten obraz oglądamy. Przyjęło się dość powszechnie, że ostrość zdjęć cyfrowych 
	oceniana jest z perspektywy cropa 100% wyświetlanego na monitorze (nie chcę tu dyskutować, czy jest to podejście właściwe, czy nie, ale tak właśnie 
	jest). Jeśli na monitorze oglądamy zdjęcie powiększone do 100%, a monitor ma rozdzielczość około 85 dpi, to jeden piksel na ekranie ma rozmiar około 0,3 
	milimetra. Dobierając z tabelki odpowiedni współczynnik i wykonując dzielenie (0,3/0,234) obliczymy, że aby w obrazie oglądanym w ten sposób, 
	rozdzielczość matrycy nie wpływała negatywnie na ostrość obiektu (aby rozdzielczość matrycy była większa niż to, co możemy zarejestrować za pomocą 
	obiektywu), to fotografowany obiekt musi być oddalony od Nikona D200 z obiektywem o ogniskowej 50 mm nie bardziej, niż o 1,28 metra. Dla D70 z tym 
	samym obiektywem będzie to już tylko 0.99 metra. Dla mniejszych odległości obiektu od aparatu rozdzielczość matrycy pozwoli na prawidłowe 
	zarejestrowanie całego obiektu, a ostrość obrazu będzie determinowana głównie przez ostrość obiektywu. Jeśli jednak ta odległość będzie większa od 
	obliczonej, to o ostrości nie będzie już decydowała ostrość obiektywu, ale rozdzielczość matrycy. Początkowo nieostrości będą niewielkie, jeszcze 
	akceptowalne, ale wraz ze zwiększaniem odległości obiektu od aparatu, obraz na ekranie monitora będzie wydawał się coraz bardziej rozmyty, nawet pomimo 
	prawidłowego ustawienia ostrości na obiektywie. 
	 
	A jak będzie w przypadku matrycy cyfrowej Nikona D200 z odległością hiperfokalną? Jeśli obiektyw o ogniskowej 50 mm przymkniemy do f/5,6 to 
	odległość hiperfokalna wyniesie około 22 metrów, czyli teoretycznie obiektyw zapewni nam głębię ostrości rozciągająca się od 11 metrów, do 
	nieskończoności. Z powyższych rozważań i z prostych obliczeń można jednak wyciągnąć wniosek, że w wyniku ustawienia odległości ostrzenia na odległość 
	hiperfokalną praktycznie nie mamy szans zrobić zdjęcia, które na monitorze w powiększeniu 100% będzie uznane za ostre. Dla tego zestawu i odległości 11 
	metrów, uzyskamy obszar rejestrowany przez jeden światłoczuły punkt matrycy o rozmiarach 2,57mm na 2,57 mm. Czyli ostro raczej nie będzie (dla tak małej 
	odległości obiektu od aparatu wymagamy ostrości wręcz idealnej), dla większych odległości będzie już tylko coraz gorzej, a dla mniejszych 
	odległości ostro nie będzie z winy obiektywu, który wyostrzy tylko te obiekty, które są oddalone o więcej niż 11 metrów. Czyli na tym zdjęciu 
	oglądanym na monitorze w powiększeniu 100% żaden obiekt nie będzie ostry. Wniosek jest prosty - odległość hiperfokalna dla matrycy cyfrowej, w 
	przypadku oglądania zdjęcia na monitorze w powiększeniu 100%, praktycznie nie istnieje. 
	 
	Rzeczywiste zdjęcie ostrzone na odległość hiperfokalną, czyli odbitka wykonana na papierze w formacie, dajmy na to, 10x15, czy 15x20 cm jest 
	bardziej tolerancyjne niż ekran monitora i może jeszcze wyglądać nieźle. Rozdzielczość takiego zdjęcia zazwyczaj wynosi około 300 dpi, a więc jest 
	prawie cztery razy większa niż rozdzielczość monitora. Tym samym nieostrości będą wyglądały na cztery razy mniejsze i mogą jeszcze być akceptowalne, o 
	ile zdjęcie zostanie odpowiednio wyostrzone w programie graficznym. Wielkość tych nieostrości można również ograniczać zmniejszając rozmiar zdjęcia. 
	Forumowe miniaturki mogą w pewnych sytuacjach wyglądać lepiej, niż duże odbitki z tych zdjęć wykonane na papierze. Oglądając zdjęcia na monitorze w 
	100% powiększeniu najczęściej jednak powiemy, że na tych zdjęciach nic nie jest ostre. No chyba, że celowo lub przypadkowo tak dobraliśmy kadr, 
	obiektyw i odległości fotografowanych obiektów, że na zdjęciu nie widać już żadnych szczegółów (liście, gałęzie, okna, drzwi, sierść, pióra) tylko 
	kolorowe plamy. Granice tych plam mogą w pewnych warunkach sprawiać wrażenie ostrych obszarów, ale obszarów pozbawionych detali, których przecież 
	oczekujemy od ostrego zdjęcia. Efekt względnie ostrego zdjęcia możemy uzyskać tylko wtedy, gdy najmniejsze detale fotografowanej sceny będą 
	kilkukrotnie większe niż obszary możliwe do zarejestrowania przez pojedynczy punkt matrycy. Im tych punktów będzie więcej, tym taki detal będzie się 
	wydawał bardziej ostry. Tak na przykład, mogą zostać zarejestrowane szczyty górskie fotografowane z odległości kilku kilometrów, gdzie pojedynczych 
	kamieni i głazów już nie widać, a w dole widzimy już nie las złożony z pojedynczych drzew i gałęzi, ale jedynie zielone plamy lasu. 
	 
	Z rozdzielczością matrycy i jej bardzo regularnym układem wiąże się taż inne zjawisko. Otóż może nam się wydawać, że odsuwając obiekt od aparatu będzie 
	on na przemian mniej lub bardzie ostry. Wynika to z tego, że matryca musi uśredniać kolory poszczególnych punktów. Aby to wyjaśnić posłużę, się 
	prostym przykładem. Załóżmy, że fotografujemy ogrodzenie złożone ze 150 idealnie pionowych prętów na jednolitym tle. Pręty te mają na przemian 
	grubości 10 i 12 milimetrów i rozstawione są naprzemiennie co 100 i co 400 milimetrów (cienki pręt, 100 mm, gruby pręt, 400 mm, cienki pręt, 100 mm, 
	gruby pręt, 400 mm, itd.). Jeśli z obliczeń wyjdzie nam, że pojedynczy punkt matrycy zarejestruje kwadrat o rozmiarach 1, 2, 5, 10, 20, 25, lub 50 
	milimetrów (wszystkie te liczby są podzielnikami naszego modułu 100 milimetrów), to ogrodzenie zostanie zarejestrowane jako ostre. Jeśli 
	odległość aparatu od tego ogrodzenia będzie nadal wzrastać, to obraz stanie się coraz bardziej nieostry – niektóre dwa pręty odległe o 100 mm będą 
	rejestrowane przez ten sam punkt matrycy. Ale przy odległości, dla której rozmiar kwadratu osiągnie dokładne wartości 100 lub 200 milimetrów 
	ogrodzenie znów pozornie stanie się ostre – tyle, że nie zobaczymy wszystkich prętów, bo te dwa odległe o 100 mm zostaną zawsze zarejestrowane 
	przez jeden punkt matrycy (będziemy mieli wrażenie, że to jeden pręt). To już nie będzie ten sam płot, ale znowu zrobi się prawie ostry. Jest to 
	zjawisko znane wszystkim posiadaczom D70 i nazywa się mora, czyli interferencja siatki punktów matrycy z prawie pionowymi i prawie poziomymi 
	liniami rejestrowanego obrazu. Ta mora w pewnych szczególnych przypadkach może powodować, że zdjęcie wydaje się ostre, choć „zgubiona” została tak 
	duża ilość detali, że to nie jest już to samo zdjęcie. Na przykład, liczba prętów naszego ogrodzenia nie wynosi już 150, tylko 75, ale za to ogrodzenie 
	robi wrażenie ostrego, tylko że na zdjęciu jest to już inne ogrodzenie niż w rzeczywistości. 
	 
	Innym ciekawym efektem jest to, że delikatne przesuwanie aparatu w pionie lub w poziomie, albo skręcanie go o niewielki kąt, będzie powodowało dość 
	istotne zmiany tego, co zarejestruje matryca. Będziemy wykonywali inne zdjęcia tego samego obiektu, a obiekt ten subiektywnie może wydawać się 
	mniej lub bardziej ostry, choć ostry zapewne nie będzie nigdy. Wynika to z faktu, że po minimalnej zmianie położenia aparatu uśrednianie koloru dla 
	każdego światłoczułego punktu matrycy będzie dotyczyło zupełnie innego zastawu rzeczywistych punktów (a tym samym rzeczywistych kolorów) 
	fotografowanego obiektu. Ale to już wynika wprost z tego co napisałem wyżej. 
	 
	Zamieszczona wyżej tabelka zawiera zaokrąglone współczynniki przydatne podczas szacowania wielkości obszaru rejestrowanego przez jeden punkt 
	światłoczuły matryc D50, D70 i D200. Dla uproszczenia zostało przyjęte, że jest to jeden piksel (z uwzględnieniem interpolacji Bayera), który tworzony 
	jest na podstawie czterech sąsiednich elementów światłoczułych (RGBG). Trzeba by jeszcze uwzględnić wpływ filtra AA, dodatkowo powiększając 
	wszystkie współczynniki, ale to już zostało pominięte. 
	 
	W tym wszystkim istotne i warte zapamiętania jest to, że każda matryca cyfrowa ma stałą rozdzielczość i nie ma możliwości zmiany tej rozdzielczości 
	w zależności od fotografowanej sceny. Ze każdy pojedynczy element światłoczuły matrycy rejestruje nie kolor idealnego punktu, tylko uśredniony 
	kolor prostokąta, a ściślej obszaru, który będziemy odbierali jako prostokąt, o wymiarach zależnych od odległości do fotografowanego obiektu i 
	od użytego obiektywu. Jeśli odległości do fotografowanego przedmiotu są zbyt duże, to o ostrości zdjęcia nie decyduje ostrość obiektywu, ale 
	rozdzielczość matrycy. Fotografując lustrzanka cyfrową krajobrazy lub odległe przedmioty, czy zwierzęta, po prostu trzeba sobie z tego zdawać 
	sprawę i nie wpadać w panikę, jeśli na zdjęciu coś będzie nieostre, tylko zastanowić się jak można takie zdjęcie poprawić – zrobić inaczej. 
	Nieostrości wynikające z zastosowania matrycy cyfrowej nie są wadą konkretnego aparatu, czy obiektywu, ale są wynikiem zastosowania techniki 
	cyfrowej w fotografii. 
      
	Powrót do Technics 
	 |