Prawdopodobnie w tym samym miejscu co Ty. Bardziej mu wierzę niż tobie, tym bardziej, że używa 20D a nie jakiegoś tam Nikona.:grin:
Wersja do druku
Witaj,
Informacje znalazłem tutaj:
http://www.dpreview.com/reviews/sonydslra100/page2.asp
http://www.sony.pl/view/ShowProduct....igital+SLR#tab
po prawdzie dotyczy to A100 a nie R1.
Rozmiar RAW to nie jest dowód - bodajże Fuji ma wielkie Rawy ale nadal to jest tylko 12 bitów.
pozdrawiam
Bartek
Ale fuji S5 ma 14-to bitowe rawy.
No wiem, dlatego nic już więcej nie mówię :)
Moje wątpliwości wzbudził taki fragment znaleziony na dpreview:
"The DSC-R1 provides only two JPEG image quality levels of Fine and Standard. These can be combined with any of the five output image sizes; 10M (3888 x 2592), 7M (3264 x 2176), 5M (2748 x 1856), 3M (2160 x 1440) or 1M (1280 x 864). In addition you can also select 'RAW' mode which outputs a Sony format RAW file in addition to the selected JPEG format (so is effectively a RAW+JPEG mode). One thing we found pretty disappointing is the inefficient format of the DSC-R1's RAW files, they weigh in at 20,534 KB each, clearly Sony is recording 16-bits for each photosite (wasting 4-bits per photosite) and is not employing any kind of lossless compression."
Choć oczywiście wiem, że tekst na tej stronie żadnym dowodem nie jest. Jestem w sumie ciekaw co mogą te dodatkowe dwa bity poprawić w światłach i cieniach. I tak chyba największej poprawy tonalności należałoby oczekiwać
jednak w światłach?
Masz rację - to nie był idealny przykład:)
Spojrzałem na specyfikację starszych aparatów i taki Pentax ist D przy matrycy 6 mpx miał Raw o wielkości 14 mb. Chyba jednak jest to kwestia kompresji.
pozdrawiam
Bartek
Aha, czyli twierdzisz, ze majac 16-bitowego RAWa i 14bitowy przetwornik Sony specjalnie bez zadnych przyczyn wycina 4 bity zamiast 2ch, bo tak napisal Askey?
Phil musi wygenerowac sporo tekstu, co niestety nie wplywa pozytywnie na jego jakosc i nie jest wstanie uchronic sie od bledow. Czy Phil wogole zauwazyl ze Sony R1 (bo A-100 na pewno nie ma) ma 14-bit ADC???. Sporo rzeczy robi na zasadzie copy-paste, dlatego tez byl niezly ubaw jak Nikon D300 mial w specyfikacji wymieniony DIGIC III (ramka skopiowana przez Phila z opisu 40D)
A-100 to nie jest pomysl Sony, tylko Minolty, a sr2 z A-100 to wlasciwie lekko przerobione mrw (zminieli nazwe podobnie jak napis na obiektywach). Pozdrawiam
Taka sama sytuacja ma miejsce wśród kart dźwiekowych, przetworniki w X-Fi maja AFAIR 24bit/96kHz, i co z tego, jak sygnał ma 16bit/44.1kHz rozdzielczości na ogół? Potrzebujesz wysokiej rozdzielczości do konwersji i przekształceń sygnału - mniej straci na jakości w wyniku działań na nich prowadznych, z tego samego lepiej poprawiać zdjecia wywołane z RAW'a w 16bit i na końcu sprowadzić do 8, a nie od razu pracować na 8.
Aha, i Sony prosciej zrobic 16bit RAW'a niz 12bit, w świecie procesorów nie istnieją dane długosci 12bitów, ba, x86 i tak cokolwiek co dostanie zaokrągla do 32bit ;)
Na intelach świat się nie kończy. Są dsp-ki dziwno-bitowe. Nie pamiętam dokładnie, zajęcia miałem dawno, ale 12 czy 24 na przykład to istnieją.
DSP, owszem, i konwertery A/D i D/A (i cala masa podobnych), uprościłem tam trochę sytuację. Jakkolwiek wygląda to tak, ze sygnał na ten przykład 12bit jest konwertowany w procesorze do postaci 16/32/ileś-tam i zamieniany z powrotem na tą formę w jakiej był oryginalnie. Prościej obrabiać n*8bit sygnał niż jakikolwiek inny, kompilatory nie specjalnie rozumieją inne formaty i konwersje trzeba robić ręcznie wtedy.