W tych wszystkich rozważaniach o nowoczesnym AF zapominamy (a przynajmniej na to wygląda) że te systemy dziś maja w zasadzie dwie "warstwy" i większość problemów chyba wynika z ich styku ze sobą (a raczej właśnie braku).

Cały ten szpej od śledzenia obiektów, znajdywania oczu, wykrywania rzucającego do kosza itp - to jest warstwa software'owa i w zasadzie ma niewiele wspólnego z samym AF. Możliwe, że jest ona zasilana jakąś "mapą głębi" z AF-a ale myślę, że 90% jak nie więcej roboty robi tam analiza obrazu.
Dolna warstwa to już fizyczny AF w postaci zestawu pikseli i algorytmu porównywania fazy (w lustrzankach to była oddzielna matryca, w bezlustrach używana jest główna matryca - innych różnic nie ma).
Z tego co widzę, to właśnie często problemy polegają na tym że obiekt który wykrył AI w warstwie softu nie pokrywa się z punktami, które zostały użyte do uzyskania realnego ustawienia AF. Jak to działa to nie bardzo wiadomo - jak obiekt mapowany jest konkretne piksele które mają zostać użyte do uzyskania informacji o fazie.

Z drugiej strony - jeżeli wyłączymy cała tą warstwę AI i śledzenia, no to AF działa dokładnie tak samo jak w lustrzankach - wybieramy zestaw punktów i tam łapie AF. Tutaj nigdy nie zdarzyło mi się, żeby trafiał "obok".

p,paw