To akurat może być właśnie kwestia wołarki DPP, która średnio nadaje się do ratowania i wyciągania czegokolwiek.
Wersja do druku
Zmierzam do tego, że gdyby matryce FF miały faktycznie większy zakres tonalny niż cropowe, marketingowcy Canona z pewnością zadbali by, żeby na tym zarobić. A w materiałach prasowych raczej brak info na temat DR, a tym bardziej zdjęć porównawczych z nowego modelu i poprzednika (choćby 5d vs 5d II). Poza tym domniemana różnica na korzyść FF powinna być widoczna już w jpgu, a nie jest. Niestety technologia wciąż jest tak niedoskonała, że w wielu kontrastowych sytuacjach trzeba ratować się sklejaniem kilku zdjęć, żeby zobaczyć na zdjęciu tyle cieni i świateł, ile widziało oko.
Poza tym, gdyby matryce FF miały faktycznie dużo więcej zapasu w cieniach, Canon dałby możliwość stosowania HTP z większą mocą niż obecne 0,83 ev.
Jak dla mnie sprawa jeść dość istotna, bo wciąż nie można jednym naciśnięciem spustu migawki otrzymać materiału wyjściowego zbliżonego do rzeczywistości.
Takiego DR, który pokazuje się na wykresach, to gołym okiem nie policzysz. On jest liczony zawsze przy danym stosunku sygnału do szumu i wynik końcowy w równym stopniu uzależniony od faktycznej rozpiętości tonalnej widocznej gołym okiem, co od poziomu szumów w ciemnych partiach obrazu.
Patrząc na rawy z cropa i FF zestawione obok siebie, wywołane przy maksymalnie neutralnych ustawieniach, nie zauważysz, że na jednym z nich będzie mniej przepałów, a czerń zostanie odcięta później. Nic takie nie będzie miało miejsca. Przy tych samych parametrach ekspozycji oba rawy powinny wyglądać względnie tak samo. I tak jest np. w przypadku E-30 i 5DII, jeśli się je ze sobą porówna. DR widoczny gołym okiem na niczym nie ruszony rawach będzie względnie taki sam. Jedyna różnica jest taka, że w cieniach na zdjęciu z cropowej matrycy szum pojawia się już na najniższej czułości. I tutaj wracamy do tego, co napisałem w pierwszym akapicie...
Jeśli DR liczony dla poziomu szumów 0,1 wynosi 7 EV na FF, to na cropie będzie niższy, bo najciemniejszy obszar, na którym szum już przekracza 0,1, w ogóle nie będzie brany pod uwagę w obliczeniach, więc zakres się zawęża, np. do 6 EV. Więc różnicę w rozpiętości tonalnej tak naprawdę robi szum... Zabawa zaczyna się jednak wówczas, gdy próbujesz coś z tych cieni odzyskać. Na iso 200 w E-30 szum w cieniach jest wyższy, niż na iso 800 w 5DII, a przesuwając suwak fill light kolorowe ciapki pojawiają się w galopującym tempie. Na FF szum startuje z niższego pułapu i postępuje wolniej. To jest użyteczny DR i w zasadzie tylko on się liczy, ale na jpegach czy nietkniętych rawach się go nie ujrzy. FF ma ogromny potencjał w porównaniu do cropa, o ile zechce się z niego skorzystać.
Nie zauważyłem. Fakt - szum na FF jest w cieniach mniejszy, ale zależy to bardziej od zastosowanej technologii matrycy i procesora obrazu, niż wielkości piksela. Zobacz co można wyciągnąć z d7000 lub k-5. Tutaj 5d II chowa się bardzo głęboko. Mnie nie interesują wykresy czy tabelki. Piszę o moich doświadczeniach z 40d, 5d II i obecnie 60d. Zakres tonalny tych 3 puszek jest dla mnie taki sam (dla ISO 100-200). W światłach da się odzyskać mniej więcej tyle samo, w cieniach też, tylko będzie mniej kolorowego szumu na 5d i 60d (zwłaszcza w mRaw). Niech nikt się nie nabierze, że jak kupi FF to nagle zaczną znikać przepały, które były na aps-c. Chętnie bym to udowodnił jakimiś przykładami, ale obecnie mam tylko 60d, więc z porównania nici...
To mamy bardzo różne doświadczenia.
Tak się składa że też jestem użytkownikiem obu tych puszek i wrażenia mam delikatnie mówiąc odmienne od twoich.
co do nikona d7000 polecam ten temat:
http://forum.nikoniarze.pl/showthrea...58050&page=172
Jedna wielka niedoróbka.
!!! Łączenie podwójnego wpisu !!!
no i jeszcze to
http://forum.nikoniarze.pl/showthrea...63729&page=259
zwłaszcza post 2586
Wiem, że jest masa problemów z d7000, gdyby ich nie było to pewnie byłbym teraz użytkownikiem tej puchy;) Ale przyznasz, że matrycę ma wyborną.
To jak będziesz miał chwilkę, to strzel z obu puch ten sam kadr, pokaż jpgi i udostępnij rawy (np. iso 100, bez htp i alo).
Sam nie miałem możliwości zrobienia bezpośredniego porównania, bo żeby kupić piątkę musiałem sprzedać 40-stkę, a chętnie się przekonam jak to wyjdzie:)
Wbrew pozorom różnica może być spora.
Poniżej przykład, oczywiście trochę przesadzony, ratowania przepałów (-0,5 EV, recovery na max):
W DPP jest już szaro, Lr zachowuje jeszcze trochę koloru.
Przy wyciąganiu z cieni przewaga Lr jest IMHO jeszcze większa. Tylko te kolory z DPP... ech :mrgreen:
Matrycę może i ma świetna jak się uda kupić sprawną.
Czytam regularnie forum żółtych i problemy z trafieniem są.
Ostatnio czytałem o problemach AF, jeśli ustawiony sensor celuje w coś czerwonego.
Może się pokuszę kiedyś o takie porównanie.
Na chwilę obecną mogę ci tylko powiedzieć że przy obróbce RAW z piątki spędzam DUŻO mniej czasu. Głównie robię landszafty i piątka nie dość że naświetla lepiej IMO, to jeszcze ze świateł da się spokojnie dużo więcej ugrać.
Zależy to i od wielkości piksela, jak i od technologii. Nie twierdzę, że nowsza technologicznie matryca o mniejszym rozmiarze nie może dorównać lub nawet pod pewnymi względami przewyższyć FF. Ale jeśli tę samą technologię zastosujesz również FF, co się zapewne niebawem stanie, no to nie ma bata...
No i ta różnica w szumie w cieniach świadczy właśnie o tym, że użyteczny DR jest większy.
Przepały zaczną znikać, gdy zrozumie działanie światłomierza.
Spoko, nie musisz. Mniejszy szum w cieniach oznacza wyższy DR. Sam stwierdziłeś, że różnica w szumach jest. Zatem gdybyś zamieścił te przykłady, o których mówisz, w zasadzie udowodniłbyś tylko, że nie masz racji :)
Jak któs bedzie robił porównanie to proponuje zrobić na ISO 1600 przy czasach 1/50 z ręki w zastanym świetle mieszanym :) wtedy zobaczymy czy faktycznie nie ma róznicy :)
Są bardzo duże różnice wielkość DR poszczególnych puszek przetestowanych np. przez DXO i optycznych. DXO mierzy to, co da się wycisnąć z sensora, optyczni mierzą to co wypluwa aparat. Analogicznie różnice moich i Twoich poglądów wynikają z różnego podejścia do tematu. Skoro FF ma tak gigantyczny zapas informacji w cieniach, to czemu użytkownik sam musi się męczyć, żeby to wykorzystać (poprzez obróbkę). Producent mógłby przecież zaserwować nam w FF bogatszy w detale w cieniach obrazek wyjściowy.
Przepraszam, kto zrozumie?
Wracamy do pierwszego cytatu w tym poście. Podam też przykład:
Celowe niedoświetlenie np. o 2ev w celu zachowania świateł i późniejsze używanie fill light w lightroomie nigdy nie da takiego samego naświetlenia cieni jak przy zdjęciu bez korekcji o te 2ev, czyli nie odzyskamy dokładnie tego co poświęciliśmy stosując korekcję (wyjdą różne przekłamania kolorów i kontrastu w cieniach, obrazek będzie brzydszy niż bez korekcji). I nie ważne czy to będzie 5d II czy 40d. Tak więc co nam po tym zapasie w cieniach? Przydałoby się więcej w światłach i życie byłoby łatwiejsze.
Zapas w światłach to nic innego jak ilość detali zachowanych w jasnych partiach zdjęcia (przy poprawnie naświetlonym zdjęciu). W zasadzie wszystkie matryce ccd i cmos przy poprawnie naświetlonym zdjęciu zapisują dużo więcej w cieniach niż światłach (ok 5ev w cieniach i 3ev w światłach). Wyjątkiem jest np. Fuji s5 pro, który pozwala zapisać nawet 5ev w światłach. Dzięki temu nie trzeba celowo niedoświetlać zdjęcia (żeby zachować detale w światłach) i później "wyciągać" cienie do poprawnego poziomu naświetlenia. Po prostu dostajemy zdjęcie, które jest bliższe temu co widzi nasze oko.
I wracamy do High Tone Priority w Canonach. Tyle, że wtedy zaczynają się narzekania na szumy w cieniach.
!!! Łączenie podwójnego wpisu !!!
I jeszcze jedna rzecz - z tego co wiem nie ma (?) na razie sposobów prezentacji zdjęć, które dadzą więcej niż te 8EV. Nawet jeśli zarejestrujemy szerszy zakres tonalny, to musimy spłaszczyć dynamikę do możliwości papieru/monitora (tak,jak dawniej dynamikę dźwięku z taśmy matki do możliwości winylowej płyty ;) ). Można to zrobić ograniczając globalnie dynamikę przez zastosowanie krzywej o odpowiednim nachyleniu - ale wtedy obraz będzie "płaski" i mało kontrastowy. Aby tego uniknąć można podnieść lokalne kontrasty, ale wtedy jest ryzyko, że dostaniemy obraz "w stylu" HDR. Można też postąpić inaczej - zaprezentować na urządzeniu wyjściowym pewien podzakres zarejestrowanych tonów.
Generalnie dobrze jest mieć zarejestrowny szerszy zakres tonalny, bo wtedy możemy zdecydować się, co z nim zrobić, ale ogólnie sprawa nie jest całkiem oczywista.
szczegółów
Myślę, że generalnie chodziło mu np. o tę krzywą:
http://www.dpreview.com/reviews/canoneos60D/page13.asp
http://www.urbanowicz.net.pl/artykul_5
Teraz musimy rozgraniczyć 3 rodzaje rozpiętości tonalnych:
1. Rozpiętość tonalna sceny fotografowanej.
2. Rozpiętość tonalna matrycy (dokładniej matryca + przetwornik A/C, dla uproszczenie niech to będzie matryca).
3. Rozpiętość tonalna zdjęcia.
Rozpiętość tonalna sceny fotografowanej ma charakter ciągły, tzn. nie widać przejść/granic tonalnych poszczególnych tonów - przejścia są płynne. Aby w fotografii analogowej jakoś tę scenę naświetlić zastosowano użycie jednostek EV w celu zorientowania się w charakterze rozpiętości tonalnej sceny. Nasza scena może np. przyjąć wartość 14EV, czyli czerń będzie przy wartości 0EV biel przy wartości 14EV. Czy można wartość 14EV wyrazić jeszcze jakoś w liczbach? Właśnie próbuje się to robić sprowadzając ten zakres tonalny do zakresu tonalnego cyfrowego.
2^14 = 16384
gdzie wartość 16383 oznacz punkt biały, wartość 0 punkt czarny. Teraz pytanie, czy to poprawny wynik dla obrazu o charakterze ciągnłym? Oczywiście nie. W rozpiętości sceny podstawą potęgi nie będzie liczba 2, może być i 10, 123, 234, 345.6 itp. czyli winik potęgowania będzie przeogromy i w zasadzie nieskończony. Podsumowując, rozpiętość tonalna sceny jest ciągła i nie da się jej przełożyć na liczby, poza tą teoretyczną własnością EV.
Rozpiętość tonalna matrycy ma charakter nieciągły. Matryca 12-bitowa posiada wartości od 0 do 4095, czyli tyle odcieni. Teraz również próbuje się przedstawić tą rozpiętość w oparcju o ciągłe EV i odnosić ją do realnej sceny. Jest to oczywiście nieporozumienie i jakiś tam marketing. Rozpiętość tonalna takiej matrycy (zakładając, że nie ma szumu) to wartości od 0 do 4095.
Przechodząc na siłę przejść do postaci EV sygnału dyskretnego (skwantyzowanego), otrzymam wynik 12EV. Porównajmy pełny zakres tonalny sceny która ma np. 12EV i matrycy, która "teoretycznie" ma 12EV. Czy jest to to samo? NIE. Sceną ma charakter ciągły, tzn. że w jednym podzakresie np. 1EV mieści się praktycznie nieskończenie wiele odcieni i praktycznie tyle, że nie bylibyśmy w stanie tego jednego podzakresu zarejestrować w pełni mając nawet matrycę 100 bitową. A w przypadku cyfrowym 1EV jaką ma wartość? Więc można dalej ciągnąć i stwierdzić, że nasza matryca ma zakrest tonalny np. góra 0,3EV.
Zakres tonalny samego zdjęcia które wyświetlamy na monitorze, to niestety tylko wartość od 0 do 255 z racji tej, że karty graficzne, monitor, drukarki są 8 bitowe. Sprowadzając do tych "magicznych EV'aów" to tylko 8EV. Rozpiętość tonalna papieru fotograficznego który wywołujemy jest wyrażana w postaci prawdziwych EV i wynosi ok. 7EV.
Czy jest możliwe zarejestrowanie sceny która ma powiedzmy 17EV na naszej "nędznej" matrycy? Oczywiście że tak, wystarczy tak ustawić ekspozycję, aby punkt 17EV miał wartość na matrycy 12 bitowej 4095, przy matrycy 14 bitowej punkt biały będzie przypadał na wartość 16383, przy matrycy 8 bitowej na wartość 255. We wszystkich tych przypadkach zarejstrujemy rozpiętość tonalną sceny, z tym, że w zależności od ilości użytych bitów, raz będzie więcej półtonów pośrednich, innym razem mniej, ale i tak, finalne zdjęcie nasza karta graficzna, monitor, sprowadzi do 255 tonów pośrednich.
Zdaję sobie sprawę, że dla niektórych osób może być to szokiem, ale nie można przedstawiać obrazu dyskretnego w postaci EV odnoszącego się do realnej, ciągłej sceny, bo obraz taki jest nieciągły i ma już określone wertości.
Dla tych "zatwardziałych analogowców", którzy mimo tego będą chcieli jakoś sobie przedstawić na siłę w postaci EV rozpiętość tonalną matrycy przedstawiam trochę liczb.
Spróbujmy rozłożyć naszego 12 bitowego RAW'a na podzakresy tonalne EV w czysty matematyczny sposób:
EV Watości
12 2048
11 1024
10 512
9 256
8 128
7 64
6 32
5 16
4 8
3 4
2 2
1 1
Widać, że z matematycznego punktu widzenia, rozpiętość EV 12 bitowego RAW'a to 12EV. Można także, wyznaczyć matematycznie zakres poprzez wzór:
rozpiętość EV=log2(ilość wartości)
W rzeczywistości nie jest tak pięknie, ale tragicznie również nie jest. W zakresie 1-2EV pojawia się szum matrycy, który zawęża nam cały zakres, jednak wyciągnięcie bez sztuczek HDR'owych ok. 10,4EV nie jest specjalnie trudne.
Przyjmijmy, że rozpiętość tonalna czystego RAW dobrze naświetlonego to 10EV. No, ale ten negatyw wypadałoby jakoś wywołać, celem na przykład pokazania w galerii internetowej. Jeśli tak, to wywołujemy stratnie do postaci JPG 8-bitowego, który posiada 256 wartości, czyli z matematycznego punktu widzenia wydaje się, że kres możliwości rozpiętości tonalnej jest 8EV. Jednak tak by było, gdyby matryca+przetwornik A/C była 8 bitowa. Tutaj jednak zachodzi konwersja z postaci 12 bitowej na postać 8 bitową. Podzielmy wartości od 1 do 4096 przez 16 i zaokrąglmy wynik do liczby całkowitej, ale w ten sposób, że zakres wartości początkowej nie będzie wynosił od 0 do 1, a od 0 do 0,8. Zobaczmy jak to będzie wyglądało:
EV Iloraz 12bit/16-> wartości 8 bitowe
9 102,4-204,8 -> 205
8 51,2-102,4 -> 102
7 25,6-51,2 -> 51
6 12,8-25,6 -> 26
5 6,4-12,8 -> 13
4 3,2-6,4 -> 6
3 1,6-3,2 -> 3
2 0,8-1,6 -> 2
1 0-0,8 -> 1
Widać, że górny zakres 8EV jest zakresem nasyconym - wartość 204,8. W przybliżeniu zakres takiego JPG'a to 8,5EV bez żadnych sztuczek HDR'owych.
Z praktycznego punktu widzenia na stronie preview można zobaczyć test takiego JPG, gdzie wyznaczono wartość na poziomie zakresu 8,4EV.
to tylko komplikuje proste sprawy :) można się łatwo zagubić, proponuję na początek poszukać linear_gamma.pdf (adobe) i rozkminić fragmencik jak liniowość matrycy determinuje "ilość informacji" użytej do zapisu obrazu w cieniach i światłach. no i pytanie co autor miał na myśli dalej aktualne :)
Ależ to wszystko skomplikowane, a wystarczy dla wartości ciągłych wprowadzić punkt odniesienia. I już.
za dużo liczb i za dużo EV (proponuję jak adobe zmniejszyć do 6 albo żeby się chociaż dało na palcach czyli do 10 - podziwiam bo nawet Adams zrobił mniej stref) - matematyka dopiero powraca na maturę :)
czy dobrze rozumiałem? że twierdzisz że to potwierdza zdanie które cytowałem parę postów wyżej?
tam jest napisane co to są te szczegóły, ale jeżeli liczysz tylko do 10-ciu no to nie zakumasz
Jak już napisał gavin, chodziło mi o detale zarejestrowane w cieniach. Nie interesuje mnie liniowość matrycy, interesuje natomiast to, co wypluwa aparat. Wolałbym zamiast możliwości wyciągnięcia cieni o 2ev, mieć te 2ev więcej od razu w światłach. Prościej nie umiem tego wytłumaczyć. Canon problem jednak dostrzegł jakiś czas temu i dał nam magiczne HTP, które jest dla mnie jedną z bardziej istotnych funkcji. Szkoda tylko, że nie pokusili się o regulację mocy HTP. Czyż nie byłoby pięknie mieć w aparacie nazwijmy to htp 800% lub 1600% i dodatkowe 2-3 ev w światłach kosztem szumu na poziomie iso 800-1600 w cieniach?
Skupmy się na kontraście sceny. Masz w scenie element średnio szary. Masz element jaśniejszy od szarego o 4EV, i ciemniejszy o 4EV. Naświetlasz na szary, dostajesz przepał w światłach. Znaczy nasz biały (4EV) traci szczegóły. Dzieje się tak dlatego, że aparat mierzy napięcie na pikselach matrycy. Jeśli matryca nie może wytworzyć wyższego napięcia to aparat traktuje jako biały i koniec. Choćbyś dorzucił do sceny jeszcze słońce, możliwości matrycy się nie zwiększą, będziesz miał tylko większy placek białego. To za czym postulujesz bez problemu zrobisz przez korektę ekspozycji, o -1EV, -2EV, -3EV. Odzyskasz światła. Tylko będziesz musiał se na obraz nałożyć sam krzywą, która sprowadzi szary do szarości...kosztem szumu w cieniach. Teoretycznie więcej roboty, w praktyce większe możliwości. Bo nanosząc krzywą, sam ustalasz rzeczywisty kontrast pomiędzy poszczególnymi partiami obrazu, a nie narzuca Ci go aparat. No i masz płynną regulację HTP w zakresie nic-wszystko.
To wszystko ładnie ktoś sobie wyznaczył, ale nie musi być prawdą. Autor przyjął założenie, że skoro mamy zapis 12 bitowy, to mamy 4096 poziomów jasności. Ale patrząc z drugiej strony aby zapisać 2049 poziomów jasności też potrzebujemy 12 bitów. Przy czym 2047 dostępnych liczb będzie się obijać. Myk polega na tym, że operujemy na systemie dwójkowym gdzie mamy dostępne albo 2048, albo dorzucamy cyferkę i dostajemy 4096.
Dalej matryca jeśli nie pada na nią światło nie generuje napięcia (teoretycznie, bo w praktyce to nie ma elementów doskonałych) i tu mamy jasność. Zero światła-poziom zero-czarny. Potem dajemy jej tego światła, a ona generuje jakieś tam napięcie-mamy jakiś tam szary, w zależności od tego światła. Dajemy więcej-dostajemy maksymalne napięcie matrycy-biały. Potem to już możemy dowalać w nieskończoność, możliwości matrycy się skończyły. Nie jest powiedziane, że nasz biały to jest 12EV jaśniejszy od czarnego, jakby wynikało z zapisu 12 bitowego. Może się okazać, że matryca wyczerpuje swoje możliwości na poziomie 8EV, mimo że zasugerowany zapis pozwala na więcej. W praktyce owe 8EV jest podzielone na 4096 poziomów, a nie jak autor by chciał 4096 poziomów przekłada się na 12EV.
Dalej, matryca jest półprzewodnikiem. ma więc jakąś charakterystykę, jak na półprzewodnik przystało-nieliniową. Zapis:
9 102,4-204,8 -> 205
8 51,2-102,4 -> 102
niekoniecznie musi być prawdziwy. Dwa razy więcej światła padające na sensor nie podniesie poziomu 102 na poziom 205. Gdyby tak było i naświetliłbyś dowolną chropowatą powierzchnię zgodnie ze wskazaniem światłomierza, dostałbyś poziom mniej więcej 128. Korekta +1EV dałaby już 255, czyli biały. Dalsze korygowanie nie miałoby już sensu, bo przecież biały jest biały i bielszy nie będzie. Okazuje się jednak, że korekta +2,5EV mimo wszystko zostawia nam jakieś szczegóły w chropowatości powierzchni. Więc albo zapis jest do kitu, albo wyszliśmy poza zakres 8 bitów.
wydaje się że z artykuliku wieje nieuzasadnionym optymizmem założenie rozpiętości tonalnej 12EV jest nad wyraz optymistyczne proponuję zejść do realistycznych 4-6 i zastanowić się nad sensem zdania ktróre cytowałem. w następnych postach gość pisze że nie interesuje go liniowość matrycy jeśli tak jest to oznacza to tylko że zrozumienie bardzo podstawowych (ale technicznych) dla fotografii cyfrowej kwestii jest na mizernym poziomie. liniowość matrycy determinuje ilość szczegółów w cieniach i mozliwości "wyciągania cieni".
odnosząc sie do ostatniej twojej mało uprzejmej wypowiedzi uważam że do zrozumienie tego co piszesz wystaczą w zupełności cztery palce a w porywach nawet dwa są zupełnie wystarczające - po prostu umysły wybitne mają dar upraszczania rzeczy sprawiających wrażenie trudnych i skomplikowanych dla umysłow mniej wyrobionych. i tym optymistycznym akcentem zakończę tą nierówną walkę.
Nie, żaden serwis nie mierzy tego, co da się wycisnąć z rawa. Zarówno Optyczni, jak i DXO mierzą to samo, tylko używają innych wołarek (być może, nie jestem tego pewien) i inny próg stosunku sygnału do szumu przyjmują jako punkt odniesienie do pomiarów DR.
Jak to: męczyć? Wystarczy przesunąć jeden suwak. Poza tym zapas informacji w cieniach jest mniej więcej podobny wszędzie. Jedyna różnica polega na ilości szumu, jaki te informacje zakłóca. Zabiegi producentów, mające na celu zwiększenie użytecznego DR, powinny iść nie w kierunku zwiększania ilości informacji w cieniach (nikomu nie zależy na tym, żeby czarne jak smoła cienie móc wyciągnąć do poziomu białego śniegu), bo tutaj i tak nic nie zdziałają. Jedynie, co mogą robić, to ograniczać szum, jaki na te informacje się nakłada i czyni je w pewnym momencie bezużytecznymi.
Zapewne gdyby umiał, to by mógł. Może za sprawą technologii, jaką pokazało Sony przy okazji ostatnich matryc APS-C, Producent - kimkolwiek on jest - nauczy się i tego, jak zastosować tę technologię w FF.
No ten, kto cierpi na przepały.
Ale pojemność w światłach większa nie będzie. Chyba, że sobie ustawisz kompensację ekspozycji na minus, czyli zmienisz wyskalowanie światłomierza. Matryca to nie błona światłoczuła, która rejestrowała informację poza granicą przepału, tyle że tych informacji było już coraz mniej. W technologii cyfrowej tam tych informacji nie ma już wcale i nigdy nie będzie, chyba że odkryją jakaś zupełnie inną technologię. Jedyną szansą jest uczynienie informacji w cieniach możliwie jak najbardziej użyteczną, z jak najmniejszym szumem.
A mnie:
- w koncu ogniskowa jest taka jak powinna
- GO mam takie jak powinno, wiec nawet ciemniejsze szklo lepiej rysuje
- 21mpix to piekna sprawa przy kadrowaniu (pomijam 5D1)
- 21mpix nawet jesli uzyje sie mega wysokich iso, to przeskalowanie zrobi z tego szumu piekne, drobne ziarenko
- dla mnie zedycowanie lepiej sie obrabia rawy (może to FF urok, może to Maybelline...)
- aha i jak wezme 5D2 w teren z TELE, to wiem, ze wytne z niego 8mpix APS-C jak w mojej 20D.
Technologia na zwiększenie pojemności świateł jest znana od bardzo dawna - patrz matryce Fuji. Tym samym jest to dowód na to, że problem jednak istnieje. Szkoda, że inni producenci fakt ten bagatelizują. Taka matryca FF jak w 5d II, ale z pikselami ułożonymi jak w matrycach EXR, byłaby ideałem (trzy tryby pracy: niski szum, wysoki DR, wysoka rozdzielczość).
Nareszcie mogę używać manualnych szkieł dla siebie. Soligor 21/3,5 (łapie naprawdę fajne flary i jest ostry), Zeiss 35/2,4, jakieś 50'ki (mam kilka i sobie wybieram jaki boke chce mieć) to pewne udogodnienie. Za ~200 zł mam frajdy na sporo czasu. W pracy, graficy są zachwyceni plikami 21mpix narysowanymi przez eLki ;)
Na początku zapaliłem się wysokimi ISO, teraz ponad 1600 staram się nie wychodzić. Ale miło jest mieć zapas.
Jedyne co boli to szybkość przy dynamicznych akcjach i waga plików. Każdy zrzut z karty to minimum gigabajt. Przeważnie koło 4 ;)
Ale to nie jest technologia rozwiązująca problem, tylko go omijająca. Mówiąc dosadniej: nie ma na celu wyciśnięcie syfa, a jedynie jego przypudrowanie.
Masz dwa rodzaje pikseli, z których jeden rejestruje luminację z niższą czułością (przez co prawdopodobieństwo przepału jest niższe), na pokładzie jest osobny procesor, który nie robi nic innego, jak tylko "miesza" informację z obu rodzajów pikseli, co zresztą może zrobić jedynie przy zastosowaniu bardzo złożonego oprogramowania. Był kiedyś wywiad z jakąś szychą z Fuji, gdzie pytano, czy ich technologia trafi kiedykolwiek do aparatów innych producentów. Odpowiedział, że nie widzi przeszkód, ale jest jeden warunek: Fuji dostarcza matryce, procesory i oprogramowanie, bo traktuje to jako jeden złożony produkt, który opatentowany jest wraz z jego wszystkimi nierozłącznymi komponentami. No i inni producenci jakoś nie są zainteresowani.
Te całe SuperCCD EXR to jedynie sposób na zrobienie pół-HDRa z jednej ekspozycji. Wyobraź sobie, że masz teraz matrycę 15 mpx RGB (bo takie są współczesne wymogi rozdzielczości) z dodatkowymi 5 mpx, które odczytują tylko luminację dla świateł. Jak myślisz, ile czasu będzie potrzebował procesor, aby to przemielić? W E-30, którego jakichś czas temu używałem, użycie głupiego "filtra artystycznego" spowalniało procesor na kilka sekund, a to było zaledwie 12 mpx. Która firma zgodzi się na takie ograniczenia? I która za to zapłaci?
Możliwe, że w przyszłości problemy te zostaną wyeliminowane, jeśli pozwoli na to technologia. Nie mówię, że nie. Ale na dzień dzisiejszy to niemożliwe, nie przy obecnych tendencjach rozwoju (szybciej, więcej mpx, szybciej, więcej fps, szybciej...). Nawet Fuji się poddało i stosuję tę technologię już tylko w kompaktach (i to tylko w bodajże dwóch modelach, eksperymentując też z BSI, które jest bardziej obiecującym pomysłem). Póki co to egzotyka bez przyszłości, podobnie jak Foveon.
Ciekawszy wydaje się patent Panasonika, który zakłada, że uda się odczytać dane ze standardowej matrycy dwukrotnie w czasie jednej ekspozycji. Dzięki temu z jednego klapnięcia migawki wyjdą dwa rawy - jeden jaśniejszy, drugi ciemniejszy. Nic tylko sklejać z tego HDRa.
Widzę, że jesteś nie do przegadania:). Zrobił się delikatny off-top, więc się poddaję. A żeby informacja odnośnie matryc Fuji była pełna, to najnowsze kompakty (te ze styczniowych targów) mają cmosy bsi w układzie exr. Jestem fanem tego typu technologii (dających obrazek podobny do tego, co widzi oko) i mam nadzieję, że więcej producentów pójdzie w tym kierunku. O patencie Panasonica nie słyszałem, ale gdyby gh3 robił takie cuda o jakich piszesz, biorę go w ciemno.
A co do głównego tematu, napiszę jeszcze raz najistotniejszą zaletą FF jest nieosiągalne dla cropów rozmycie tła. W każdym innym aspekcie crop mógłby dorównać FF.
Ja najpierw do 40D dokupiłem 35L, dopiero potem dołączył FF i bardzo dobrze, bo na 40-stce byłem eLką strasznie zawiedziony... Ale za to na 5D dostała takiego pazura, że zastanawiałem się czy to te samo szkło :-D
No i wyciąganie plików o wysokim ISO już nie jest problemem. Na 40D 1600 czy 3200 owszem ale najlepiej prześwietlone o ok.2/3EV bo inaczej bolało...
A z piąteczki mogę 1600 ciągnąć nawet o 2EV(zależy od warunków) i otrzymać w zupełności zadowalającą odbitkę 20x30cm. 3200 również używalne a nawet i 1EV "buforu bezpieczeństwa"
Dla mnie korzyści FF to przede wszystkim:
- WIZJER! Nie mogę już normalnie APS-C robić zdjęć. APS-H jest ok.
- dużo lepsze ISO (porównując bezpośrednio wartości (np. 800 vs 800) oraz możliwość wyciągania
- szkła przeżywają drugą młodość - zdecydowanie lepszy obrazek, bokeh
Ale wady też są:
- gorsze servo (na Ds'a mnie nie stać :-P)
- mniej fps :-( (tu nawet i Ds by do końca nie pomógł, chociaż 5fpsów i tak dużo lepsze niż marne 3(3,5?))
Moje wrażenia po przejściu na FF (zapewne dodatkowo spotęgowane faktem, że migrowałem z 4/3):
- R O Z D Z I E L C Z O Ś Ć ... wow! Z natywnych 21 mpx mogę zrobić takie 10-12 mpx, jakie być powinno pod względem ilości detali i jakiego matryca o rozdzielczości 10, 12 czy nawet 18 mpx nigdy by nie wyciągnęła (chyba, że wytniemy filtr AA, ale wtedy pojawi się mora, jak w E-5);
- C I E N I E ... już pal licho wysokie iso! W końcu mam piękne cienie na niskich czułościach, bez placków, ciapków, bandigu i innych śmieciów, o ile oczywiście podbijamy je w granicach rozsądku. To ma bezpośredni wpływ na zakres użytecznego DR.
Więcej zalet wynikających z samego FF nie zauważyłem. Pozostałe zmiany dotyczą ergonomii, funkcjonalności, ilości i jakości obiektywów itp.
!!! Łączenie podwójnego wpisu !!!
No i jeszcze wizjer, oczywiście.
Poprzednio miałem 30D z C10-22, C17-55 i 70-200/4L i byłem w pełni zadowolony jeśli chodzi o odbitki.
Gęsta matryca 5DII upodobniła obrazek FF do analoga i to jest to, co mi się spodobało. Wielgachny pixel ze starego 5D kompletnie mi nie podchodził.
Stare obiektywy z czasów analoga całkiem dobrze sobie radzą, wysokie ISO nawet jak zaszumi to przypomina dawne ziarno a nie tęczowe cyfrowe maziaje. Wywołanie RAWa to sama przyjemność, wyostrzanie jest subtelne, można cropować bez wielkiej straty jakości. Wszystko to chyba jednak zalety gęstej matrycy a nie jej rozmiarów.
Gęste matryce cropowe stawiają znacznie wyższe wymagania obiektywom. I tak jest póki poruszamy się w domenie fizycznej, a nie metafizycznej ;) Najlepszym dowodem na to są rozczarowania przypinających do cropa obiektywy pełnoklatkowe...
... o właśnie takie jak ten choćby.
...jest najbardziej typowym przykładem świetnego pełnoklatkowego obiektywu, który na cropie od 18-55is trudno po zdjęciach odróżnić.
Sigma 17-50/2.8 nie jest kryje ff, według mojej wiedzy, nie wiem więc za bardzo o czym mówimy.
Nie zauważyłem zjawiska jakoby np. 5d miał kłopot z trafianiem z jakimś szkłem z powodu jego niskiej ceny. Więcej - taniutki 50/1.8 z 5d trafiał mi bezporównania lepiej niż z jakimkolwiek cropem. Podobnie 85/1.8.
Ja do 5D mam Tamrona i 3 Canony (tylko 1 z czerwonym paskiem - 17-40). Nie zauważyłem żadnych problemów z BF/FF. Wręcz przeciwnie, zdecydowanie lepsze, ostrzejsze zdjęcia niż na cropie...
no właśnie co to znaczy trafiać w punkt, bo wczoraj cały wieczór walczyłem z 5dmkII i canonem 85/1.8 na pełnej dziurze. Jak duży ma być ten punkt? Czy wielkości główki od szpilki czy może monety jedno-groszowej. Pod jakim kątem do obiektu takie testy należy przeprowadzić. Pytam ponieważ jak strzelałem mniej więcej pod kątem 45 stopni to wydawało mi się że jest ok, ale chwile po tym celowałem prosto na ścianę i wydawało mi się że ostrości brak. Podkręciłem mikroregulacją i do momentu kiedy ostrość trafiała idealnie na punkt wprost , ale wtedy pod kątem było lekkie przesunięcie ostrości. Nie jest według mnie typowa przypadłość frontfocusa albo backfocusa. Przesunięcia ostrości nie są duże, gdzieś ok. pół centymetra. Więc nie wiem czy mieści się to granicach przyzwoitości. Robiąc z ręki, nawet bym tego nie zauważył, bo wiadomo że podczas naciskania spustu jakieś minimalne przesunięcia są, ale chyba chciałem na siłę doszukiwać się problemów i testowałem na statywie...;)
A na codzień fotografujesz tablicę testową czy coś innego?
Robiąc tego typu zdjęcia można popełnić masę błędów. Lepiej sprawdzać szkło w boju. A wielkość GO obliczasz kalkulatorem GO.