Janie Pawlaku. Pomijasz rozdzielczość szkła. Z cropa bardziej powiększasz, więc powinieneś mieć ostrzejsze szkło.
Janie Pawlaku. Pomijasz rozdzielczość szkła. Z cropa bardziej powiększasz, więc powinieneś mieć ostrzejsze szkło.
Czy tyko mnie się wydaje, że pixeli się nie usuwa, tylko interpoluje i matematycznie wyznacza składowe barwne jakie powinny mieć nowe, utworzone pixele?
Czy mógłbyś jakoś rozwinąć ?
jp
--- Kolejny post ---
Adammm
Jasne, ale dokładniej :
Piksele są równo rozmieszczone na matrycy
Piksele na ekranie czy na wydruku też zajmują stałe miejsce, się nie przemieszczają, nie są tworzone żadne nowe piksele.
I np. (w przybliżeniu, znacznym uproszczeniu) z danego prostokąta pikseli 3x4 z matrycy należy wyznaczyć składowe dla jednego konkretnego piksela na ekranie/wydruku przy zachowaniu globalnych i lokalnych proporcji obrazu.
jp
Ostatnio edytowane przez jan pawlak ; 20-03-2014 o 11:10
puste opakowania po EF 24-70/2,8 I, 580EX, GP-E2 oraz 2 statywy i pilot RMT-DSLR2
Sony A7R Mark III,[B] FE 1.8/20G, FE 1.4/35GM, 85mm 1:1.4 DG DN, FE 1.8/135GM,
http://www.dpreview.com/galleries/51.../photos#page=1
public.fotki.com/janusz-pawlak/
To znaczy, że jeżeli podczepisz ten sam obiektyw pod FF i pod cropa zrobisz zdjęcie z tą samą skalą odwzorowania (czyli dwa kroki w tył dla cropa) i zrobisz wydruk dajmy na to 20x30 to lepszej jakości zdjęcie będzie z FF. Piksele to jedno, rozdzielczość obiektywu to drugie, powiększenie to trzecie. Możesz mieć dużo pikseli i paćkę na nich, bo obiektyw już nie wyrabia. Większa matryca = lepsze zdjęcia.
A co do pytania tytułowego. Czy naprawdę komuś po spojrzeniu w wizjer aparatu FF chce się jeszcze wracać do wizjerka z cropa?
A teraz spróbuj tego wywodu jeszcze raz, tylko weź mocniejsza lupę, bo nie ma takiego prawa, że wolno kropować z Ff tylko cała klatkę APSC. I tak do skutku, aź Ci wyjdzie korzyść ze znacznie większej gęstości pikseli w kropach.
Gdyby nie było korzyści to po co by się poczciwy Nikoś tak wysilał? A jeszcze ciagle gęstości kropów w swoich FF nie osiagnał. Na razie. No ale skoro Twój monitor ma 1200 pixali, a drukarka 254, to po co ?
Obiektywy z reguły przewyższaja rozdzielczościa matryce, chociaż na dużych otworach aberracje moga mieć skalę kilku/ nawet kilkunastu pixeli. (Co jeszcze nie oznacza, że rozdzielczość jest też tylko taka, i nie wszędzie).
@jan.pawlak: Według mojej wiedzy są tworzone nowe piksele - na tym właśnie polega interpolacja. Dla ułatwienia zajmijmy się tylko jednym wymiarem. Załóżmy materiał surowy 4000 pikseli i chcemy zmniejszyć go do 1300 pikseli. 4000/1300 = 3.07 , więc na jeden piksel wyjściowy przypadają ponad 3 wejściowe. Jak to wygląda z punktu widzenia numerycznego - wedle mojej wiedzy tworzy się wykres wartości natężenia barwy od piksela. Z surowego materiału mamy wartości dla 1 , 2, 3, ...., 4000. Teraz po interpolacji tej funkcji wyznaczamy przybliżoną wartość dla 3.07 , 6.14, ...., 4000.Według mnie, nie ma to nic wspólnego z usuwaniem pikseli.
czy chcesz powiedzieć, że w zależności od działania programów interpolujących :
- na ekranie są tworzone nowe/w nowym miejscu piksele ?
- drukarka drukuje/stawia piksele na papierze w różnych miejscach ?
Chyba jednak nie, położenie pikseli na ekranie/wydruku jest stałe, tak są skonstruowane, i to właśnie do/dla tych położeń (pikseli) należy wyliczyć nowe wartości z pliku wejściowego odpowiednio interpolując.
jp
Ostatnio edytowane przez jan pawlak ; 20-03-2014 o 12:05
puste opakowania po EF 24-70/2,8 I, 580EX, GP-E2 oraz 2 statywy i pilot RMT-DSLR2
Sony A7R Mark III,[B] FE 1.8/20G, FE 1.4/35GM, 85mm 1:1.4 DG DN, FE 1.8/135GM,
http://www.dpreview.com/galleries/51.../photos#page=1
public.fotki.com/janusz-pawlak/
Widzę, że jednak się nie rozumiemy.
czy na ekranie tworzone są nowe piksele - tak, jak pokazałem w moim modelu - z tym że, jeśli oglądamy w powiększeniu 100% to piksel który umownie nazwałem 3.07 wyświetlany jest w pozycji 1
drukarka drukuje na papierze w różnych miejscach - nie znam się na drukarkach i nie spełnię zasady "nie znam się, to się wypowiem"
Chodzi mi o to, że przy zmniejszaniu obrazu nie mamy do czynienia z usuwaniem zbędnych pikseli, tylko z niejako tworzeniem wszystkich od nowa na podstawie surowego zdjęcia.
Ostatnio edytowane przez jan pawlak ; 20-03-2014 o 12:11
puste opakowania po EF 24-70/2,8 I, 580EX, GP-E2 oraz 2 statywy i pilot RMT-DSLR2
Sony A7R Mark III,[B] FE 1.8/20G, FE 1.4/35GM, 85mm 1:1.4 DG DN, FE 1.8/135GM,
http://www.dpreview.com/galleries/51.../photos#page=1
public.fotki.com/janusz-pawlak/
Przy matrycy rozdzielczosc mozna wyiczyc prosto matematycznie. Przyjmijamy 6D jako takie niezbyt upakowane, i ze FF ma 36x24, czyli mamy 152 pixle/mm, zakladajac ze musimy odroznic biale od czarnego (pary lini) to maksymalna rozdzielczosc to 76lp/mm.
Moglbys wskazac obiektyw ktory przewyzsza ta rozdzielczosc?
--- Kolejny post ---
Patrzac na to ile osob wierzy w przelicznik 1.6 i jak on pomaga w robieniu zdjecia, bardzo dodbry biznes mozna zrobic na "ograniczniku pola widzenia wizjera w FF do formatu APS-C". Dwa w jednym, idzies na drob wkladasz "ograniczinik" i widzisz to co pod APS-C, robsz portret wyjmujesz "ograniczinik" i masz mala GO![]()