Zobacz pełną wersję : Fotki w średnim ustawieniu
Fotoster
08-01-2007, 17:35
Czy ktoś może zna odpowiedź na pytanie poniżej:
Załóżmy, że mamy matrycę w danym aparacie, na którą upchnęli np 8 Mpix, która daje fotki o określonym rozmiarze.
Jeżeli ustawię w Canonku jakość (wielkość) zdjęć np. na jakąś wartość pośrednią (np M1), to:
"1" - czy podczas strzelania fotki używana jest cała powierzchnia matrycy podzielona na mniejszą liczbę pikseli ale "większych",
"2" - czy też może wielkość pixela na danej matrycy jest stała a przy strzelaniu fotki pośredniej jakości (wielkości) wykorzystywany jest jej odpowiedni fragment ??
Zmierzam do tego, iż jeżeli jest to wariant "1", to aparat mający 8Mpix ustawiony na mniejsze fotki (załóżmy o połowę) powinien mniej szumieć, gdyż na większy fragment matrycy (większy pixel) potrzeba mniej światła by go tak samo naświetlić.
qwerty1237
08-01-2007, 18:53
Eeee... aparat przeskalowuje obraz z 8mpiksli na mniejszy (zmniejsza rozdzielczosc softwarowo tak jakbys sam to robil w PS moze tylko z wyjatkiem ze uzywa bardziej wyrafinowanych algorytmow optymalizujacych zdjecie + wyostrzanie). Szumiec bedzie tak samo. Piksle nie zmieniaja dynamicznie swojego rozmiaru no chyba ze o czyms nie wiem ;-)
W canonach tego nie zauwarzysz bo nie jest napisane ale kolega ma racje ze obraz jest przeskalowywany. bo nie miało by sensu wykorzystywac części matrycy łątwiej jest zmniejszyc zdjęcia w programie
Eeee... aparat przeskalowuje obraz z 8mpiksli na mniejszy (zmniejsza rozdzielczosc softwarowo tak jakbys sam to robil w PS moze tylko z wyjatkiem ze uzywa bardziej wyrafinowanych algorytmow optymalizujacych zdjecie + wyostrzanie)
Chciałeś chyba napisać: "mniej wyrafinowanych algorytmów".
J
Czy ktoś może zna odpowiedź na pytanie poniżej:
Załóżmy, że mamy matrycę w danym aparacie, na którą upchnęli np 8 Mpix, która daje fotki o określonym rozmiarze.
Jeżeli ustawię w Canonku jakość (wielkość) zdjęć np. na jakąś wartość pośrednią (np M1), to:
"1" - czy podczas strzelania fotki używana jest cała powierzchnia matrycy podzielona na mniejszą liczbę pikseli ale "większych",
"2" - czy też może wielkość pixela na danej matrycy jest stała a przy strzelaniu fotki pośredniej jakości (wielkości) wykorzystywany jest jej odpowiedni fragment ??
Aparat robi zawsze takie samo zdjęcie, później je zmniejsza. Zawsze używa całej powierzchni matrycy i zawsze piksel ma ten sam rozmiar. Chyba, że coś się ostatnio zmieniło, przyznam, że straciłem cierpliwość do śledzenia nowinek.
Zmierzam do tego, iż jeżeli jest to wariant "1", to aparat mający 8Mpix ustawiony na mniejsze fotki (załóżmy o połowę) powinien mniej szumieć
Jak sobie szum zmniejszysz w Photoshopie to faktycznie - wygląda na mniejszy.
gdyż na większy fragment matrycy (większy pixel) potrzeba mniej światła by go tak samo naświetlić.
A niby czemu?
J
Fotoster
08-01-2007, 21:16
Z tym naświetlaniem "większych" pikseli chyba tak poprostu jest. Z nikąd nie wzięły się problemy typu "mniejszy sensor - większy szum", zakładając te same upchanie ilości MPix. Im mniejsza matryca, tym mniejszy pixel, a im mniejszy pixel tym trudniej go tak samo naświetlić.
Dlatego mniejsza matryca OK, ale tylko w parze z jaśniejszym obiektywem.
Być może ja źle to pojmuję, więc kolejne posty będą dla mnie przydatne i może dowiem się cosik dokładniej.
qwerty1237
08-01-2007, 21:26
Mniejsza matryca -> wieksze upakowanie elementow elektronicznych (gestosc) -> wieksze cieplo -> wieksze szumy
Chciałeś chyba napisać: "mniej wyrafinowanych algorytmów".
J
Podejrzewam ze zwykle skalowanie w PS jest mniej wyrafinowane niz to ktore odbywa sie w procesorze obrazowym aparatu.
Podejrzewam ze zwykle skalowanie w PS jest mniej wyrafinowane niz to ktore odbywa sie w procesorze obrazowym aparatu.
Dobrze podejrzewasz :) Mniejsza zresztą o PS, bo w nim jest tych algorytmów raptem trzy na krzyż - istnieją jeszcze lepsze, tyle że koszmarnie wolne. Ale co by nie mówić, takie skalowanie w aparacie ma jedną zaletę: odbywa się na czymś w rodzaju RAW, przed konwersją do JPEG.
Z tym naświetlaniem "większych" pikseli chyba tak poprostu jest.
To jest fizyka - tu nie ma żadnego "chyba".
Z nikąd nie wzięły się problemy typu "mniejszy sensor - większy szum", zakładając te same upchanie ilości MPix. Im mniejsza matryca, tym mniejszy pixel, a im mniejszy pixel tym trudniej go tak samo naświetlić.
Jego wcale nie jest trudniej naświetlić. Sęk w tym, że (łopatologicznie) sąsiednie pikselki przszkadzają sobie tym bardziej, im są mniejsze i im bardziej próbują wzmocnić sygnał. A efektem tego przeszkadzania jest szum. Do naświetlenia drobnoziarnistej kliszy nie potrzeba więcej światła, niż do gruboziarnistej (a uwierz mi, tam też można zobaczyć potężne różnice w rozmiarze ziarna), a obowiązują tam takie same prawa fizyki, jak w cyfrze.
Dlatego mniejsza matryca OK, ale tylko w parze z jaśniejszym obiektywem.
Ale ciągle nie wiesz dlaczego.
Kupuj sobie obiektywy jakie chcesz, ale do naświetlenia mniejszej matrycy NIE potrzeba większej ilości światła.
J
do naświetlenia mniejszej matrycy NIE potrzeba większej ilości światła.
Ba, jakby tak policzyć fotony "zużyte" przy "produkcji" takiej samej pod względem kąta widzenia fotki 8Mpix z kompakta i DSLRa i obiektywu np. f/2.8, to wyszłoby że potrzeba dużo mniejszej ilości :)
Dobrze podejrzewasz :) Mniejsza zresztą o PS, bo w nim jest tych algorytmów raptem trzy na krzyż - istnieją jeszcze lepsze, tyle że koszmarnie wolne.
Czyli jeżeli masz w komputerze trzygigowy procesor, który przeskalowuje rawa w 3 sekundy, a z drugiej strony aparat, który to samo robi z prędkością 3 zdjęcia na sekundę - to świadczy to o większym wyrafinowaniu procesora w aparacie? I o lepszej jakości konwersji? Coś mnie to nie przekonuje, ale ja się nie znam...
A tak przy okazji: wie ktoś może jakie procesory pakują do dslr-ów? Mocniejsze niż do pralek?
J
qwerty1237
08-01-2007, 22:17
Sam procesor to jedna rzecz. Procesory DSP sa specjalizowanym kawalkiem krzemu i porownywanie ich z prockami z kompa to wielkie nieporozumienie. Druga to algorytmy obrobki obrazu, ktore moim zdaniem sa dosyc skomplikowane aby uzyskac mozliwie najwieksza jakosc przy skalowaniu.
Czyli jeżeli masz w komputerze trzygigowy procesor, który przeskalowuje rawa w 3 sekundy, a z drugiej strony aparat, który to samo robi z prędkością 3 zdjęcia na sekundę - to świadczy to o większym wyrafinowaniu procesora w aparacie? I o lepszej jakości konwersji? Coś mnie to nie przekonuje, ale ja się nie znam...
To niestety (czy też raczej "na szczęście") nie jest takie proste. Procesor w aparacie to wyspecjalizowane DSP, które w te klocki jest lepsze od procesora z peceta dokładnie tak jak traktor jest lepszy od Porsche w oraniu pola :) Tyle że ten DSP ktoś zaprogramował raz, jako kompromis między szybkością/jakością/uniwersalnością i nie masz na proporcje między tymi rzeczami żadnego wpływu. Skalując w kompie masz wybór - super-duper progresywny Zinc, z 10 przebiegami, podostrzaniem co trzeci i wstępnym upscale o 200%? Nie ma problemu, minutkę poproszę....
Sam procesor to jedna rzecz. Procesory DSP sa specjalizowanym kawalkiem krzemu i porownywanie ich z prockami z kompa to wielkie nieporozumienie.
Czemu? Szczególnie jestem ciekaw czemu to jest WIELKIE nieporozumienie. Każdy komputer potrafi robić to, co procesor w aparacie. Kwestia softu i tyle. Na pewno można je porównać, zarówno pod względem jakości obróbki zdjęć, jak i szybkości.
Druga to algorytmy obrobki obrazu, ktore moim zdaniem sa dosyc skomplikowane aby uzyskac mozliwie najwieksza jakosc przy skalowaniu.
Im bardziej skomplikowane, tym większe znaczenie ma moc procesora, prawda?
Mało kto decyduje się na skalowanie zdjęć bezpośrednio w aparacie (ja nie robiłem tego NIGDY). Jeżeli już dopracowywałbym jakieś algorytmy - to te od skalowania zostawiłbym na szary koniec. Sprawdzałeś może w archiwum czy ktoś wcześniej miał takie problemy, jak Ty? Jeżeli taki problem się kiedyś pojawił - to założę się, że w kontekście oszczędzania miejsca na karcie, a nie poprawiania jakości zdjęć przez ich zmniejszanie...
J
To niestety (czy też raczej "na szczęście") nie jest takie proste. Procesor w aparacie to wyspecjalizowane DSP, które w te klocki jest lepsze od procesora z peceta dokładnie tak jak traktor jest lepszy od Porsche w oraniu pola :) Tyle że ten DSP ktoś zaprogramował raz, jako kompromis między szybkością/jakością/uniwersalnością i nie masz na proporcje między tymi rzeczami żadnego wpływu. Skalując w kompie masz wybór - super-duper progresywny Zinc, z 10 przebiegami, podostrzaniem co trzeci i wstępnym upscale o 200%? Nie ma problemu, minutkę poproszę....
I co, pecet się będzie męczył minutkę z czymś, co 350D robi w locie, 3 zdjęcia na sekundę?
Ale jakość tego, co wylizie z peceta usprawiedliwia to czekanie? Bo jak nie, to ja chcę w swoim następnym kompie Digica, a nie jakiegoś marnego G5 ;)
J
Czemu? Szczególnie jestem ciekaw czemu to jest WIELKIE nieporozumienie. Każdy komputer potrafi robić to, co procesor w aparacie. Kwestia softu i tyle.
Ba, a maszyna Turinga potrafi policzyć to samo co dowolny procesor :) Nawet dowód kiedyś umiałem (kazali) :-D
Na pewno można je porównać, zarówno pod względem jakości obróbki zdjęć, jak i szybkości.
No można i jest to dość proste: procesor z peceta byłby (przy tych samych algorytmach i zakładając coś trochę mniej archaicznego od Pentium Pro) szybszy (od "trochę" do "sporo"), piekielnie się grzał i żarł baterie jak smok. Tylko co daje takie porównanie z praktycznego punktu widzenia :)
Mało kto decyduje się na skalowanie zdjęć bezpośrednio w aparacie (ja nie robiłem tego NIGDY).
Poczekaj... nikt nie pisze że skalowanie w aparacie jest lepsze, bo nie jest! Ja tylko podałem konkretny kawałek całego procesu, w którym potencjalnie może być zysk ze skalowania w aparacie.
A tak w ogóle, to w tym wszystkim chyba zgubiło się oryginalne pytanie :) Tak, na moje oko (G5,10D,20D,1DN), skalowanie "w aparacie" to nie jest proste wycinanie co N-tego piksela, ale takie trochę lepsze, uwzględniające całą informację. I "per pixel JPEGa" dostaje się rzeczywiście mniejsze szumy. Czy jest to równoznaczne z "lepszą jakością zdjęcia"... a to już zależy co kto przez nią rozumie :) bo praktycznie to samo można uzyskać w programowej obróbce. I nie chodzi tak naprawdę o to, że można zrobić to lepiej ale o to, że można ten proces kontrolować. Kto walczył ze schodami na ukośnych krawędziach ten wie o czym mówię....
I co, pecet się będzie męczył minutkę z czymś, co 350D robi w locie, 3 zdjęcia na sekundę? Ale jakość tego, co wylizie z peceta usprawiedliwia to czekanie? Bo jak nie, to ja chcę w swoim następnym kompie Digica, a nie jakiegoś marnego G5 ;)
Kurcze... No tak jak napisałem, DIGIC (i każdy inny procesor w wypasionej cyfrówce), to jest specyficzny przypadek, zaprojektowany od tranzystorków po obudowę z myślą o jednym: przetwarzanie fotek, do tego w jeden, konkretny sposób, przy jak najmniejszym poborze energii - i zoptymalizowany do bólu wyłącznie pod tym kątem.
Naprawdę nie trafia do Ciebie analogia traktor vs Porsche? ;-)
Fotoster
08-01-2007, 23:14
Widzę, że burzliwa dyskusja, ale tak jak miałem nadzieje - wiem dzięki Wam więcej. Dzięki :)
Powiedzcie jeszcze jedno:
czy z tymi cyfrówkami A630 itp itd jest tak jak z każdym innym sprzętem produkowanym dziś tanio i masowo - zaprojektowane na 2, 3 lata i wtedy można se iść po nowy, bo poprzedni zaczyna chorować ?
Czy można rozumieć też z powyższego, że upychanie coraz większej liczby pikseli na daną matrycę "nadwyręża" ją powodując szybsze zużycie ?
I jeszcze jedno żeby nie zanudzać :) - zauważyłem, że A710IS jest made in Japan - przynajmniej wszystkie te egzempl. które miałem w ręku. Czy to ma istotne znaczenie i czy może być argumentem w kwestii vs A630 (przeważnie China) jak chodzi o zakup??
czy z tymi cyfrówkami A630 itp itd jest tak jak z każdym innym sprzętem produkowanym dziś tanio i masowo - zaprojektowane na 2, 3 lata i wtedy można se iść po nowy, bo poprzedni zaczyna chorować ?
Poczekaj 3 lata to się dowiesz :-P Ale w ogólności niestety tak. I to nie tylko z "cyfrówkami klasy A630" :(
Czy można rozumieć też z powyższego, że upychanie coraz większej liczby pikseli na daną matrycę "nadwyręża" ją powodując szybsze zużycie ?
Niespecjalnie, dużo szybsze jest "zużycie" w wyniku w/w :)
I jeszcze jedno żeby nie zanudzać :) - zauważyłem, że A710IS jest made in Japan - przynajmniej wszystkie te egzempl. które miałem w ręku. Czy to ma istotne znaczenie i czy może być argumentem w kwestii vs A630 (przeważnie China) jak chodzi o zakup??
Eeee, kiedyś bym napisał, że tak, ale teraz to już nic nie jest w 100% pewne...
procesor z peceta byłby (przy tych samych algorytmach i zakładając coś trochę mniej archaicznego od Pentium Pro) szybszy (od "trochę" do "sporo"), piekielnie się grzał i żarł baterie jak smok. Tylko co daje takie porównanie z praktycznego punktu widzenia :)
A kogo to obchodzi temperatura i prąd jak komputer ma wiatrak i jest podpięty do gniazdka? Chodziło o JAKOŚĆ. Będzie lepiej? IMHO będzie, a o to ktoś gdzieś tam między wierszami ktoś zapytał na początku wątku. Chyba...
Tak, na moje oko (G5,10D,20D,1DN), skalowanie "w aparacie" to nie jest proste wycinanie co N-tego piksela, ale takie trochę lepsze, uwzględniające całą informację.
O ile się nie mylę nawet najprostrzy algorytm przeskalowywania w Photoshopie TEŻ nie polega na prostym wycinaniu co N-tego piksela. Gdyby TAK skalowały korpusy od cyfrówek, to w ogóle nie byłoby tej rozmowy, bo to byłby dramat.
I "per pixel JPEGa" dostaje się rzeczywiście mniejsze szumy.
A tu już bym popolemizował, ale mi się nie chce.
Naprawdę nie trafia do Ciebie analogia traktor vs Porsche? ;-)
A gdzieś mi umknęła po drodze ;-)
J
A kogo to obchodzi temperatura i prąd jak komputer ma wiatrak i jest podpięty do gniazdka? Chodziło o JAKOŚĆ. Będzie lepiej? IMHO będzie
No dobra będzie :mrgreen:
a o to ktoś gdzieś tam między wierszami ktoś zapytał na początku wątku.
Eee, w tym wątku, jak w wielu podobnych po piątym poście już mało kto pamięta o co było pytanie :mrgreen: Spróbuj rzucić gdzieś hasło "czy crop wpływa na GO" :mrgreen: Na p.r.f.c. raz na miesiąc ludzie idą o to na noże :mrgreen:
O ile się nie mylę nawet najprostrzy algorytm przeskalowywania w Photoshopie TEŻ nie polega na prostym wycinaniu co N-tego piksela.
Przynajmniej w CS2, nazywa się on "nearest neighbour" i dokładnie na tym polega :)
A tu już bym popolemizował, ale mi się nie chce.
Kurde, no ale przecież specjalnie napisałem "per pixel JPEGa" :roll: Weź ISO3200 z 300D, wycropuj z niego środkowe 500x500... a następnie wycropuj 2000x2000 i przeskaluj do 500x500.. gdzie będzie więcej szumu? Nie mówię, że to ma jakiś związek z jakością obrazu jako całości, ani nawet że jest to odpowiednik "matrycy o większych pixelach i mniej MPix"... choć to drugie to w sumie częściowo (z użytkowego, nie technicznego punktu widzenia) prawda.
Przynajmniej w CS2, nazywa się on "nearest neighbour" i dokładnie na tym polega :)
Faktycznie, pamiętam. Nadawał się praktycznie tylko i wyłącznie do powiększania zrzutów ekranowych desktopu w Maczkach z systemami do 9.2.2 włącznie :D Póżniej wprowadzili taki antialiasing i przeźroczystości, że trzeba było przeskalowywać inaczej.
No dobra, nie chce mi się dalej wałkować tematu, bo nie pamiętam JAKI był temat :mrgreen:
J
Skoro już ktoś używa tu mniejszych od maksymalnych ustawień, a w dodatku JPG, to przypomniał mi się patent, który w kompaktach Sony zwą Smart Zoomem.
Polega to na tym, że jeśli ustawimy w aparacie rozmiar fotki na mniejszy od maksymalnego dla naszej matrycy, wtedy poprzez odcinanie marginesów (płynnie - grubszych lub węższych) pełnej fotki (po naszemu: crop)zawężamy kąt pola widzenia, bez utraty jakości na jakieś tam interpolacje czy inne pozaoptyczne przeliczenia.
Gdyby to zaimportować do lustrtra, to pewnie nazwaliby to Crop Adjustment albo jakoś tak. ;) Może to i szczeniacka amatorszczyzna by była, bo przecież z RAWa można sobie zrobić to samo na kompie w domciu, ale czytając to forum od paru miesiecy zauważyłem, że doraźne potrzeby szanownych Canonierów bywają przeróżne. Na przykład ktoś chciałby szybko do redakcji wysłać gotowe jpegi a ma w swoim pełnoklatkowym kilkunastomegapikselowym EOSie tylko jakąś szeroką stałkę, a potrzebny byłby akurat zoom.... Ehhh... Tak mi się dywaguje - może to niegłupie??? :-)
Ehhh... Tak mi się dywaguje - może to niegłupie??? :-)
Pewnie że niegłupie i są sytuacje, kiedy się dokładnie tak robi. Nie tylko na tym forum czytałem o reporterach trzaskających na szybkiego w JPG medium i wysyłających szybko po GPRS do redakcji. A takiego "smart zooma" to chyba miałem w moim pierwszym kompakcie Fuji :mrgreen:
Skoro już ktoś używa tu mniejszych od maksymalnych ustawień, a w dodatku JPG, to przypomniał mi się patent, który w kompaktach Sony zwą Smart Zoomem.
Polega to na tym, że jeśli ustawimy w aparacie rozmiar fotki na mniejszy od maksymalnego dla naszej matrycy, wtedy poprzez odcinanie marginesów (płynnie - grubszych lub węższych) pełnej fotki (po naszemu: crop)zawężamy kąt pola widzenia, bez utraty jakości na jakieś tam interpolacje czy inne pozaoptyczne przeliczenia.)
W komórkach Sony też tak jest.
Pewnie że niegłupie i są sytuacje, kiedy się dokładnie tak robi. Nie tylko na tym forum czytałem o reporterach trzaskających na szybkiego w JPG medium i wysyłających szybko po GPRS do redakcji.
Jeżeli ktoś myśli, że oni po upolowaniu Giertycha na sushi wracają do redakcji i pieczołowicie obrabiają rawy - to jest naiwny.
J
Standardowe matryce CCD i CMOS nie umożliwiają klastrowania pikseli w grupy (jest to m.in. związane z brakiem możliwości bezpośredniej adresacji komórek na matrycy). Z tego co mi wiadomo, technologia ta jest obecnie dostępna jedynie w matrycach firmy Foveon. Cytat z ich ich strony na temat tzw. Variable Pixel Size (VPS): (http://www.foveon.com/article.php?a=119)
• Neighboring pixels can be grouped together on-chip to obtain the effect of a
larger pixel.
• Enables flexible video capture at a variety of resolutions.
• Enables higher-ISO mode at lower resolutions.
• Reduces noise by combining pixels.
Standardowe matryce CCD i CMOS nie umożliwiają klastrowania pikseli w grupy
Ale nikt tu chyba nie mówił o robieniu tego sprzętowo :) Jest to po pierwsze niewygodne (w praktyce rozmiary fotek tylko oryginal/[2^n]), a po drugie gorszej jakości, bo aliasing (takie "hardware'owe piksele" to odpowiednik zmniejszania algorytmem "nearest neighbour"). Robi się normalnego RAWa, interpoluje kolory z matrycy Bayera, skaluje go w dół jakimś tam algorytmem pod hasłem "kompromis szybkość/jakość", i zapisuje jako JPEG L :)
Ale nikt tu chyba nie mówił o robieniu tego sprzętowo :) Jest to po pierwsze niewygodne (w praktyce rozmiary fotek tylko oryginal/[2^n]), a po drugie gorszej jakości, bo aliasing (takie "hardware'owe piksele" to odpowiednik zmniejszania algorytmem "nearest neighbour"). Robi się normalnego RAWa, interpoluje kolory z matrycy Bayera, skaluje go w dół jakimś tam algorytmem pod hasłem "kompromis szybkość/jakość", i zapisuje jako JPEG L :)
heh, a ja wlasnie myslalem ze tego dotyczy pytanie :roll: W przypadku matryc Foveon (stosowanych m.in. w Sigmach) nie wystepuje problem interpolacji bayerowskiej (sa to matryce 3-warstwowe) i stosowanie hardwaerowej zmiany rodzielczosci ma jak najbardziej sens, gdyz caly proces moze byc (i jest) realizowany bezposrednio przez sterownik matrycy - nie ma zatem koniecznosci jakiegokolwiek pozniejszego postprocessingu :)
Tomasz Golinski
14-01-2007, 03:40
takie "hardware'owe piksele" to odpowiednik zmniejszania algorytmem "nearest neighbour"
Pisałeś że "nearest neighbour" to wyrzucenie co N-tego pixela. Z kolei grupowanie pikseli to uśrednianie sąsiednich pikseli. Istotna różnica: NN nie zmniejsza szumu per pixel, uśrednianie zmniejsza.
Tak mi się dywaguje - może to niegłupie??? :-)
To ma jeszcze inną zaletę w przypadku tanich aparatów: smart zoom zmniejszy rozmiar pliku, więc wejdzie ich więcej na kartę i bufor będzie "większy".
Przy 300d i samolotach pewnie wygodna sprawa ;)
To ma jeszcze inną zaletę w przypadku tanich aparatów: smart zoom zmniejszy rozmiar pliku, więc wejdzie ich więcej na kartę i bufor będzie "większy".
A jak bufor "większy", to i frame rate wzrasta. Taki Nikon D2X tak ma (5 fps @ 12 mp, 8 fps @ 6.8 mp - cropped)
Przy 300d i samolotach pewnie wygodna sprawa ;)
Zaciekawiło mnie bo o samolotach, ale... nie rozumiem? :confused:
Pisałeś że "nearest neighbour" to wyrzucenie co N-tego pixela. Z kolei grupowanie pikseli to uśrednianie sąsiednich pikseli. Istotna różnica: NN nie zmniejsza szumu per pixel, uśrednianie zmniejsza.
Masz rację, mój błąd. Zostaje aliasing :)
W przypadku matryc Foveon (stosowanych m.in. w Sigmach) nie wystepuje problem interpolacji bayerowskiej (sa to matryce 3-warstwowe) i stosowanie hardwaerowej zmiany rodzielczosci ma jak najbardziej sens, gdyz caly proces moze byc (i jest) realizowany bezposrednio przez sterownik matrycy - nie ma zatem koniecznosci jakiegokolwiek pozniejszego postprocessingu :)
Tyle że taki downsampling na matrycy Bayera w praktyce sprowadza ją do Foveona :-P No, powiedzmy że przy skalowaniu x0.5 trzeba to zrobić z głową, żeby rzeczywiście zredukować szumy w R i G (jakaś konwersja na LAB czy inne takie, żeby móc uśrednić luminancję bez ruszania kolorów). Skalując x0.33 to już w zasadzie rybka :)
BTW, jeśli ktoś myśli że Foveon to po prostu trzy matryce z równymi rządkami pikseli R G i B, to... niech zajrzy w źródła dcrawa :-P
Tomasz Golinski
14-01-2007, 15:09
Zaciekawiło mnie bo o samolotach, ale... nie rozumiem? :confused:
ee, nic takiego: samoloty latają daleko i szybko. Potrzeba długiej ogniskowej i dużego framerate :)
BTW, jeśli ktoś myśli że Foveon to po prostu trzy matryce z równymi rządkami pikseli R G i B, to... niech zajrzy w źródła dcrawa :-P
Ze strony dcrawa: The Foveon X3 Capture chip requires a different kind of interpolation. Unlike CCD arrays, it captures three colors at every pixel location. But the colors are not well separated, so the raw data looks very gray. Much processing is needed to enhance color while suppressing noise.
ee, nic takiego: samoloty latają daleko i szybko. Potrzeba długiej ogniskowej i dużego framerate :)
Rzeczywiście czasem się to przydaje (pokazy, akrobacje, fazy rotacji, katastrofy), ale w większości przypadków samoloty są raczej bardzo ospałe w kadrze. Gównie właśnie przez ich oddalenie, rozmiary, masę. W sumie chyba zależy jak kto strzela... Ja strzelam tak spokojnie, że nawet nie skojarzyłem szybkości klatkowania z fotografią lotniczą, a powinienem był. :-? Dzięki za uświadomienie! ;-)
w większości przypadków samoloty są raczej bardzo ospałe w kadrze.
Przyjedź do Axalpu :) Ja za pierwszym razem nie nadążałem się obracać tak szybko, żeby nadążyć wzrokiem za samolotami latającymi dookoła głowy ;-) Ale w ogólności masz rację.
http://www.airliners.net/search/photo.search?placesearch=Off-Airport%20-%20Axalp&distinct_entry=true
Wierzę ;-)
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.