Cytat Zamieszczone przez Bechamot Zobacz posta
wlasnie ze nie.

w lustrzance DP dziala na zasadzie triangulacji - identycznie jak w starych dalmierzach optyczno-mechanicznych.

W dalmierzowcu konieczne sa dwa skrajne promienie - jeden przez celownik , drugi przez dodatkowe okienko. Odleglosc miedzy tymi okienkami to tzw baza pomiarowa. Im wieksza baza , tym dokladniejszy pomiar.

w starych ukladach porownywalo sie naoczenie czy plamki obrazu sie pokrywaja . w zaleznosci od kierunku przesuniecia nalezalo odpowiednio pokrecic pierscieniem ostrosci. Zgodnosc polozenia plamek ocenianio naocznie.

co do zasady identycznie jest w DP - SLR , tyle tylko ze ocena zgodnosci plamek odbywa sie elektronicznie , a obrot wykonuje silnik , nie fotograf recznie.
Skad te dwa okienka w slr ?
Kazdy wycinek soczewki pracuje jak soczewka , w idealnym przypadku dokladnie taka sama jak calosc , tyle ze ciemniejsza. Otoz pobierane sa do pomiaru promienie swietle przechodzace przez wycinki soczewki znajdujace sie na brzegu calej soczewki . Odleglosc miedzy tymi wycinkami to wlasnie baza pomiarowa. Nie moze byc zbyt mala , gdyz wowczas pomiar bedzie niedokladny . Dlatego ograniczenie co do wielkosci przyslony , czyli co do wielkosci bazy. Zbyt przymkniety obiektyw ma zbyt mala baze pomiarowa.

Poniewaz w obiektywach rzeczywistych wlasnosci na zewnatrz soczewki odbiegaja od tych blizej osi , stad pomiar na podstawie promieni pobieranych z brzegow soczewki najczesciej jest inny niz przebieg promieni wewnettznych. Jest to zrodlem systematycznego bledu pomiarowego ( BF/FF ) , ktory mozna skompensowac mikrojustacja. Oprocz tego wystepuja bledy przypadkowe , ktorych w ten sposob skorygowac sie nie da.


W pomiarze przy uzyciu metody nazywanej tak samo DP ( detekcja fazy ) , ale na powierzchni matrycy z senselami dualpixel , na powierzchnie sensorow padaja promienie z calej powierzchni soczewki - nie tylko te skrajane inaczej ogniskowane , ale rowniez z wnetrza. Kazdy punkt obrazowy jest budowane przez promienie przechodzace przez cala powierzchnie soczewki . Blad systematyczny tego rodzaju jak w SLR nie wystepuje - pomiar to wynik integracji promieni z calej powierzchni soczewki.Porownuje sie przesuniecie obrazow w lewej i prawej czesci sensnela wzgledem siebie - jesli sa rozsuniete - ostrzenie zbyt dlugie , jesli zsuniete - ostrzenie zbyt krotkie . Jesli obrazy sa identyczne - ostrzenie w obszarze pomiarowym jest prawidlowe.

Przy czym nie chodzi tutaj, ze obraz jest inny na brzegu a inny w srodku kadru , a o to czy promienie do budowy obrazu na uzytek pomiaru AF przechodza przez brzeg soczewki , czy przez cala powierzchnie.
( promenie przechodzace przez brzeg soczewki buduja rowniez punkty obrazowe polozone w srodku kadru ).


to nie ma nic wspolnego ze sprzezeniem zwrotnym.





Gdyby powodem bledow byly li tylko lusterka w slr , wowczac wystarczyloby je raz wyregulowac i BF/FF wiecej by nie wystapil - a tak przeciez nie jest , dlatego ze to zalezy rowniez od roznicy w przebiegu promieni zewnetrzych i wewnetrznych konkretnego obiektywu. Te same luterka z jednym obiektywem moga dac BF z innym FF.


i dygresja . poniewaz wspolczesne obiektywy jak np Sigma art , sa znakomicie korygowane , aberacja sferyczne i chromatyczna rowniez na pelnym odwarciu ( czyli na brzegach obiektywu ) jest znacznie nizsza niz w starszych konstrukcjach , z definicji , a priori takie obiektywy stwarzaja lepsze warunki do pracy AF niz wczesniejsze. Bajka jest, jakoby Sigma ostrzyla zle - przeciwnie potrafi ostrzyc znacznie lepiej - to wynika z lepszych uwarunkowan optycznych - lepszego podobienstwa przebiegu promieni skrajnych i srodkowych .


Tyle w skrocie .
-to co do kresek ponizej dotyczy OneShot i początku ostrzenia w innych trybach-

To nie był skrót, ani nie dowiódł, że Dual Pixel AF działa na innej zasadzie niż Phase Detection AF. Każdy punkt matrycy "widzi" promienie światła z całej powierzchni ostatniej soczewki - dual pixel dzieli ten "punkt" na dwa - jeden z nich widzi tylko to co wychodzi z lewej, drugi z prawej strony tej ostatniej soczewki (dlatego DPAF słabo ostrzy na linie poziome). Zasada wykrywania "bycia w fazie" jest dokładnie ta sama w PD AF i DP AF - tyle że sensory AF są przeniesione z osobnego układu AF na samą matrycę. Nie ma błędów geometrycznych ustawienia podukładu AF względem matrycy i luster. Nie ma też samych luster (z czego jedno jest półprzepuszczalne) - źródeł kolejnych błędów geometrii miedzy układami obiektyw-matryca oraz obiektyw AF.

Jest jeszcze jedna różnica, jakkolwiek nikt (poza Sony) się nie chwali by, ją zastosował w swoim systemie af (w podstawowym trybie). LV, na stałe włączone w ML, umożliwia dokonywanie Contrast Detection w ostatniej fazie ostrzenia-"doostrzania" - ale jak wcześniej pisałem, AF Canona nie pracuje w pętli zwrotnej (jest tylko jedno potwierdzenie osiągnięcia ostrości). To umożliwia pozbycie się "garba" ze skalibrowanego obiektywu.

----------

Różne tryby AF dokładają do tego co powyżej swoje specyficzne działania, jak wykrywanie oka czy śledzenie. Tak więc jeśli w oneshot obiektyw nie ostrzy idealnie, można zmienić tryb af, nie bedzie tak szybko - ale może będzie dokładnie.

Pozdrawiam!
wysłano z FRD-L19 przy użyciu Tapatalka