mój aparat: [Ô] , szkła: OOO , statyw: /i\ , fotki: \\\-:\
Pytaj tego co przerabiał RSE
Ten podział "na 8" to tak dodatkowo "dwie pieczenie przy jednym ogniu" ale główny powód to technika - matryca Bayera i interpolacje barw z nią związane. Musi być więcej pixeli dookoła, żeby było z czego interpolować/intepretować barwy.
Jak się bardzo uprzeć to można by było napisać programik wyświetlający wszystkie piksele z matrycy ale i tak "obwódka" będzie bezużyteczna bo brakuje informacji o barwach.
Janusz,
Old enough to know better - but I do it anyway.
To musiałbym sam siebie spytać... ;-)
Jeszcze obiecany trick odblokowujący ostrzeżenie o obracaniu niewymiarowych jpegów w windowsowym podglądzie. Trzeba usunąć dwie "wartości" (czyli również "dane"!):
"ShellImageViewWarnOnLossyRotate"="no"
z [HKEY_CURRENT_USER\Software\Microsoft\Windows\Curre ntVersion\Explorer\DontShowMeThisDialogAgain]
oraz
"ShellImageViewWarnOnLossyRotate"=dword:000000 06
z [HKEY_CURRENT_USER\Software\Microsoft\Windows\Curre ntVersion\Explorer\ShellImageView]
Ale jest też łatwiejszy sposób: Wystarczy trzymać klawisz CTRL podczas zamykania podglądu krzyżykiem w prawym górnym rogu okna i zgodzić się na przywrócenie ustawień domyślnych podglądu. ;-)
mój aparat: [Ô] , szkła: OOO , statyw: /i\ , fotki: \\\-:\
Ja napisalem :-D W 10D bylo mniej wiecej tak, ze dookola tego co dostajemy z konwertera RAW (nawet dcraw) jest jeszcze czarna obwodka, o grubosci ok. kilkunastu pikseli (z wyjatkiem jednej strony, tam bylo chyba prawie setka). Tam sa normalne detektory, tylko swiatla brakPodejrzewam ze po prostu sensor jest robiony jakos "z zapasem".
Trochę nieświeży temat, ale zawsze warto wyjaśnić: z tego co czytałem wynika, że pomijanie brzegowych pikseli matrycy pozwala uprościć logikę przetwarzania informacji z nich czerpanych.
W algorytmach przetwarzania obrazów (np. filtrach splotowych, jakimi sa np. rozmycie, wyostrzenie) istnieje problem traktowania obszarów brzegowych, maska filtra (a więc obszar obrazu z którego informacji filtr korzysta dla obliczenia nowej wartości danego piksela) może wychodzić poza obraz. Problem ten w programach graficznych rozwiązuje sie na wiele sposób, np. powiela brzegowe piksele, dokleja się lustrzane odbicie krawędzi obrazu, zmienia dynamicznie rozmiar maski, etc.
Takie podejście, choć skuteczne, jest skomplikowane. W aparatach dla szybkości przetwarzania stosuje sie specjalizowane układy logiczne, które przetwarzanie obrazu realizują sprzętowo. Powierzchnia układu scalonego kosztuje, do tego im prostszy algorytm tym prostsza a zatem równiesz szybsza będzie jego realizacja sprzętowa. Z tego powodu problem krawędzi rozwiązuje się w najprostszy (w programach graficznych nie stosowany z oczywistych względów) sposób - pominięcie pikseli znajdujących się na krawędziach matrycy. Matryca ma zapas pikseli, te na krawędziach na ostateczny obraz same w sobie nie trafią, ale zagwarantują prawidłowe działanie algorytmu interpolacji. Ileż to upraszcza! Lecimy tymi samymi obliczeniami po wszystkich "efektywnych" pikselach, nie ma żadnych specjalnych przypadków przy krawędziach obrazu, żadnych alternatywnych wariantów i rozróżnień. Nigdy nie zdarzy się, że dla któregoś przetwarzanego piksela mamy dane tylko o jego otoczeniu z prawej dolnej strony, czy też tylko na prawo od niego.
Komputery nie muszą przerabiać materiału z matrycy w błyskawicznym tempie, a i procesor może robić wszystko, stąd twórcy wywoływaczy RAWów mogą sobie pozwolić na przetwarzanie danych z całej matrycy, a nie tylko dla "efektywnych" pikseli. Rozpatrywanie brzegów po prostu nie kosztuje tyle na komputerze, co w aparacie.
Ostatnio edytowane przez Misiaque ; 16-07-2008 o 18:34