[QUOTE=MaciekCi;519643]Przyjmując, że 15mpix to granica dla matrycy 22,2 x 14,8mm to z proporcji wychodzi, że granica dla FF (36x24mm) wynosi ~ 39,44 Mpix ;)
A ile obiętości będzie miało takie zdjęcie ? ;-) 100 MB ?
Wersja do druku
[QUOTE=MaciekCi;519643]Przyjmując, że 15mpix to granica dla matrycy 22,2 x 14,8mm to z proporcji wychodzi, że granica dla FF (36x24mm) wynosi ~ 39,44 Mpix ;)
A ile obiętości będzie miało takie zdjęcie ? ;-) 100 MB ?
Tu się akurat mylisz. Rozdzielczość wynosi dokładnie 15M, za to kanał koloru jest trzy razy mniej dokładny bo każdy piksel przechowuje informację tylko o jednej składowej R,G lub B.
Teoretycznie więc gdy rozdzielczość osiągnie absurdalne wartości np. 32 megapiksele dla cropa, to wtedy sRAW 8 megapikseli będzie zawierał tak dokładną informację o kolorze jak foveon.
Kiedyś jak cyfra wchodziła nieśmiało na rynek i sporo wtedy kosztowała, standardem były opinie że nie dorasta analogowi do pięt.Czytałem wtedy, że aby dorównać błonie (małemu obrazkowi) pod względem rozdzielczości i oddaniu przejść tonalnych matryca FF musi mieć 33 Mpix.Dziś zaczynamy hamować firmy twierdząc że taka ilość pikseli jest nam zbędna.Mnie osobiście te 8 Mpix co mam w zupełności wystarcza i wcale nie potrzebuję więcej, ale wiem że w niektórych zastosowaniach jest to za mało.Ważne jest że można zrobić sobie mniejszego sRawa (zobaczymy jak będzie z jakością) ale jeśli postanowimy wykorzystać całe 15 Mpix to możemy to zrobić , a nikoniarze ...nie.
Przypuszczam również że po przeskalowaniu z 15 na mniejszy formacik jaki nam w danym momencie będzie potrzebny uzyskamy lepszą jakość niż np z matrycy 6 czy 8 Mpix.
Przecież jeśli obiektyw nie da szczegółów na 15M, to nie da też na 6M. Szczegóły przecież nie znikną jeśli tę samą powierzchnię obrazu będziemy próbkować w 2x większej liczbie punktów. Szczegółowość obrazów może być tylko lepsza.
Jeśli rozdzielczość 6M jest równa możliwościom lub przekracza możliwości obiektywu, to przewaga 6M lub 15M wynikać by tylko mogła z niuansów dalszej cyfrowej obróki danych.
To 15M to nie jest jakoś powalająco dużo, zwłaszcza biorąc pod uwagę, że piksele są monochromatyczne i tak naprawdę na każdy kolor oprócz zielonego przypada tylko 1/4 pikseli, a na zielony połowa, co daje tylko 1,5 mln "pełnoprawnych" kolorowych pikseli w matrycy 6M (widać to doskonale na np. ząbkach które występują na fotografiach czerwonych (a więc jednokolorowych) neonów, etc.). Oczywiście algorytmy demozaikowania doskonale radzą sobie z utworzeniem obrazu z 6 milionami kolorowych pikseli z danych z typowej sceny (ale już np. czysto czerwone czy niebieskie oświetlenie pokaże 2x mniejszą rozdzielczość fotki niż byśmy się spodziewali), ale raczej w miejsce tego co algorytmy wymyślają lepiej mieć więcej prawdziwych danych. A lepiej nie mieć mozaiki, ale póki co jakoś to nie wychodzi, bo Foveon ma pewne bolączki.
Apropos dywagacji, co będzie miało więcej szumu - 8 mpix obraz z wcześniejszego aparatu czy 15 mpix z 50D po przeskalowaniu, to moim zdaniem nie ma co zgadywać, tylko po prostu jak już będzie możliwość, przeprowadzić eksperymenty, które wątpliwości rozwieją. Moim zdaniem w takim problemie jest za dużo zmiennych i niewiadomych, by ot tak zgadywać, co da mniej szumu.
Wręcz przeciwnie, szczegóły zostaną rozmazane przez filtr AA na kilka sąsiadujących pikseli i rozdzielczość się pogorszy. Do tego wzrasta szum per pixel, który jeszcze bardziej zjada detale. Na koniec soft aparatu odszumi to wszystko robiąc piękną cyfrową papkę z nienaturalnie przeostrzonymi krawędziami jak z kompaktu.
Kompaktow w to nie mieszajmy. Inna grupa docelowa i wymagania. Choc tam akurat filtrow AA nie ma ;)
To nie jest tak, ze pompujac piksele tracimy. Wrecz przeciwnie. Wieksza rozdzielczosc = mniejsza sila filtra AA. Mniejsza sila filtra AA to wiecej detali, ktorych ten filtr nie wycina zabezpieczajac przed mora. Jesli szum, a technika idzie do przodu i pixele dzieki postepie z soczewkami nie zmalaly wzgledem 6mpix tak bardzo oraz odszumianie, a to mozna wylaczyc, nie zabija detali to mozna tylko zyskac. Calkiem sporo.
Niedlugo wszyscy sie o tym pewnie na samplach przekonaja.
Przy pewnej ilosci krytycznej (2x tyle pixeli ile ma rozdzielczosc obiektywu) mozna filtr calkiem wyciac, co daje wtedy 100% detali z obiektywu. Dopiero jak Canon da matryce bez filtra (AA), mowiac ze przewyzsza ona rozdzielczosc wszystkich szkiel jakie ma i beda mozemy powiedziec, ze wiecej juz nie trzeba.
Do tego czasu ja tam z tej ilosci jestem zadowolony bo:
http://canon-board.info/showpost.php...2&postcount=75
Edit: Na koniec jeszcze przypomne, ze sample Canona byly zawsze mydlane i rozmyte ;) Dopiero lekkie wyostrzenie pokazywalo co to naprawde potrafi.
I krowy sie beda zrebily. A kobyly sie beda cielily.:shock::shock:
Niestety, wszystko to jest na bakier nie tylko z fizyka, ale i logika. Filtry AA sa potrzebne dlatego, ze piksele sa za wielkie. Ponizej pewnej gestosci matrycy filtry AA beda zbedne. Filtr AA sztucznie obniza rozdzielczosc obiektywu, zeby wypadl ponizej rozdzielczosci matrycy. Jezeli matryca jest odpowiednio gesta, to tego nie trzeba bo obiektyw i tak ma mniejsza rozdzielczosc, nawet bez tego sztucznego "przytepienia".
No i jeszcze raz - wieksza gestosc matrycy nie powoduje zadnego rozmazania...