Zobacz pełną wersję : Obróbka zdjęć w Androidzie
jan pawlak
03-08-2025, 09:27
Galaxy Edhance-X to przykład zastosowań AI do obróbki zdjęć (jpg, RAW) w Andoidzie.
Samsung rozwija go intensywnie 3 lata, najnowsza wersja to 15.03
Aktualnie to zbór 23 funkcji w 6 grupach (sugestie, ton koloru, szybkie, osoby, kreatywne, przekształcenia) i można pobierać dodatkowe pomiędzy wersjami, teraz takimi są CameraShift oraz SkyGuide (oznacza na zdjęciu niebia gwiazdozbiory)
Dla konkretnego zdjęcia aktywne są tylko te funkcje które AI uznało że można lub że należy poprawić by uzyskać poprawne (zgodne z regułami i "tak jak większość w necie" wyglądają tego typu zdjęcia)
Na początek po wczytaniu zdjęcia do programu pokazuje się funkcja magia oraz zbiór funkcji które należy poprawić. Można indywidualnie albo magia zrobi to razem.
W aktualnej wersji Edhance-X nie można regulować wielkości wpływu wybranej funkcji na zdjęcie, można tylko albo użyć albo nie używać.
W ton koloru jest : rozjaśnij, HDR oraz koloruj (nie udało mi się by było aktywne)
jp
Wiesz może, dlaczego to jedna z najgorzej ocenianych przez użytkowników aplikacji. Naprawdę jest tak beznadziejna i daje tak koszmarne efekty?
jan pawlak
03-08-2025, 10:37
Wiesz może, dlaczego to jedna z najgorzej ocenianych przez użytkowników aplikacji. Naprawdę jest tak beznadziejna i daje tak koszmarne efekty?
Na początku miała tylko wady, ja także na portalu producenta je wytykałem.
Tylko jpg, tylko w pozycji portret i tylko jednym (małym) rozmiarze na ekranie monitora, niespójne wyniki itd.
Ta wersja jest już bez grzechów głównych.
Teraz będę się jej uczył/testował. Na razie jest (dla mnie) ok
Nie wiem ile prawdy jest w info że korzystać będzie z GPS by wiedzieć/lepiej dopasowywać typ zdjęcia do profilu zarówno podczas jego obróbki jak i przy tworzeniu pliku wynikowego w trakcie robienia zdjęcia o ile się go wtedy będzie stosować
jp
jan pawlak
03-08-2025, 13:43
Adobe od dawna prowadzi na Androidzie LR i ostatnio wprowadziło wersję wstępną PS i ją sukcesywnie rozwija.
Parę tygodni temu (gdy jeszcze miałem także dostęp do Win) porównywałem Androidowe LR for Samsung z LR Win 10, funkcjonalność taka sama, trochę inny interfejs użytkownika. Na moim (był stary) kompie wszystko było wolniej niż na smartfonie czy tablecie (dla plików z aparatu Sony)
Na portalach smartfonowych pisze się o kilku różnych programach do obróbki zdjęć.
Myślę że LR oraz edytory producenta smartfona w pełni mogą zaspokoić te potrzeby
jp
jan pawlak
03-08-2025, 14:33
Przepraszam kol. Cybulski że bez pytania
Chodziło o zdjęcie BW ze smartfona.... zapamiętałem je gdy założyłeś wątek, bardzo fajne
To oryginalne zdjęcie BW ze smartfona
20871
To po Edhance-X, magia w skład której było także koloruj
20872
Fajnie by było gdyby kol. Cybulski miał kolorowy oryginał i tutaj wgrał
jp
cybulski
03-08-2025, 18:58
https://flic.kr/p/2ouU7MY
Ale też nie wiem czy nie był pociągnięty w telefonie.
jan pawlak
03-08-2025, 20:55
https://flic.kr/p/2ouU7MY
Ale też nie wiem czy nie był pociągnięty w telefonie.
Dzięki.
Widać że w tej wersji Edhance-X koloruj "to co mógł" zrobił jako-tako, mógł lepiej
I może w następnych wersjach doda czerwony kolor w dolnej części kadłuba ?
jp
cybulski
04-08-2025, 05:30
Do zabawy na telefonie z androidem, stary Huawei, używam przeważnie snapseeda. Na iPhonie już system zawiera opcje korekty które mi wystarczają, tutaj snapseed też mam ale używam rzadko.
Te przeostrzenia są dramatyczyne jak dla mnie i nieakceptowalne.
Im mniej soft daje mi kontroli tym bardziej odstawiam go w kąt, choć przyznam, że czasami korzystam, z automatu Zdjęć Google i potrafi czasami ładnie zaskoczyć, ale on nie robi żadnych wyostrzeń tylko podstawowa obróbka związana ze światłem i kolorami.
Na smarfonie używałem przede wszystkim Snapseed, ale od kiedy mam płatny pakiet Adobe to używam głównie Lr Mobile + czasami Zdjęcia Google (wbudowany edytor). Nie bawię się RAW-ami w smarfonie.
Eberloth
04-08-2025, 08:41
od kiedy mam płatny pakiet Adobe to używam głównie Lr Mobile
Bangi - może wiesz, jak w LR Mobile uaktywnić wszystkie trzy obiektywy Pixela? Ja jeśli wyciągam tel do zdjęć to głownie UWA, a LR Mobile używa tylko podstawowego, albo nie potrafię tego ustawić poprawnie.
Bangi - może wiesz, jak w LR Mobile uaktywnić wszystkie trzy obiektywy Pixela? Ja jeśli wyciągam tel do zdjęć to głownie UWA, a LR Mobile używa tylko podstawowego, albo nie potrafię tego ustawić poprawnie.
Ja nie używam Lr Moblie do robienia zdjęć. Ale z tego co teraz zajrzałem to się nie da. Mam tylko chyba główny i selfie. W niektórych innych aplikacjach aparatu też się nie dało korzystać ze wszystkich aparatów Pixela. Nie wiem z czego to wynika.
jan pawlak
04-08-2025, 09:46
Bangi - może wiesz, jak w LR Mobile uaktywnić wszystkie trzy obiektywy Pixela? Ja jeśli wyciągam tel do zdjęć to głownie UWA, a LR Mobile używa tylko podstawowego, albo nie potrafię tego ustawić poprawnie.
Zaskoczyła mnie ta informacja, używam LR tylko do obróbki.
W smarfonie Samsunga (też) nie można w LR podczas robienia zdjęć zmienić obiektywu, na stałe podstawowy (24mm) i selfi
jp
jan pawlak
05-08-2025, 08:46
Te przeostrzenia są dramatyczyne jak dla mnie i nieakceptowalne.
Im mnie soft daje mi kontroli tym bardziej odstawiam go w kont, choć przyznam, że czasami korzystam, z automatu Zdjęć Google i potrafi czasami ładnie zaskoczyć, ale on nie robi żadnych wyostrzeń tylko podstawowa obróbka związana ze światłem i kolorami.
Na smarfonie używałem przede wszystkim Snapseed, ale od kiedy mam płatny pakiet Adobe to używam głównie Lr Mobile + czasami Zdjęcia Google (wbudowany edytor). Nie bawię się RAW-ami w smarfonie.
Uważam że LR jest najlepszym programem do obróbki jeśli ktoś lubi/musi obrabiać
Galaxy Edhance-X to taki "zautomatyzowany" przez AI LR dla tych co nie chcę/mogą sami obrabiać.
W aktualnej wersji oceniam Edhance-X na "minus dobry".
Gdy trzeba szybko "zrobiłem zdjęcie, poprawiam/ulepszam i wysyłam" to dobre narzędzie.
Namawiam Cię na test.
Zrób trudne oświetleniowo zdjęcie i zapisz w plikach jpg i RAW
I porównaj co zobaczysz "na wejściu" na obu w LR
U mnie wyraźna różnica, porzuciłem zapis w jpg.
A interfejs ten sam, czasy obróbki te same.
jp
Namawiam Cię na test.
Zrób trudne oświetleniowo zdjęcie i zapisz w plikach jpg i RAW
I porównaj co zobaczysz "na wejściu" na obu w LR
jp
Janie... błagam... ja nie muszę robić takich testów by to wiedzieć, używam Lr od wielu lat.
jan pawlak
05-08-2025, 10:41
Janie... błagam... ja nie muszę robić takich testów by to wiedzieć, używam Lr od wielu lat.
Wybacz, to moja wina, po prostu nie rozumiem, (.....no ale nie mam wykształcenia w zakresie działania rozumu)
Piszesz :
Im mnie soft daje mi kontroli tym bardziej odstawiam go w kont,
Nie bawię się RAW-ami w smarfonie.
używam Lr od wielu lat.
W LR w Androidzie który daje przy obróbce RAW lepsze rezultaty, znacznie większą kontrolę, działa tak samo szybko jak przy jpg.
Wybacz
jp
PS
U mnie (S25 U) wczytywane do LR pliki RAW maję około 30% za duże nasycenie koloru niebieskiego ale tylko wtedy gdy na zdjęciu jest niebo.
A tak "sumarycznie" nie ma już przeostrzeń (jak bywało wcześniej) i tak trochę 5%-10% nadal przesycenia wszystkich kolorów (w stosunku do "jak widzą moje oczy")
Generalnie nie bawię się RAW-ami na smartfonie. Wywoływanie RAW robię tylko na PC z normalnym skalibrowanym monitorem, itd.
Lr mobile używam tylko do drobnych poprawek JPG jak chcę coś w miarę szybko wrzucić na social media.
robertskc7
05-08-2025, 14:57
Wybacz, to moja wina, po prostu nie rozumiem, (.....no ale nie mam wykształcenia w zakresie działania rozumu)
Piszesz :
Im mnie soft daje mi kontroli tym bardziej odstawiam go w kont,
Nie bawię się RAW-ami w smarfonie.
używam Lr od wielu lat.
W LR w Androidzie który daje przy obróbce RAW lepsze rezultaty, znacznie większą kontrolę, działa tak samo szybko jak przy jpg.
Wybacz
jp
PS
U mnie (S25 U) wczytywane do LR pliki RAW maję około 30% za duże nasycenie koloru niebieskiego ale tylko wtedy gdy na zdjęciu jest niebo.
A tak "sumarycznie" nie ma już przeostrzeń (jak bywało wcześniej) i tak trochę 5%-10% nadal przesycenia wszystkich kolorów (w stosunku do "jak widzą moje oczy")
To tak odnośnie że twoje oczy widzą 30% za dużego nasycenia niebieskiego koloru i tej kontroli zarządzania tego co widzisz.
I jak oceniasz to co widzisz? Na 6 calowy ekranie telefonu? Jakie ustawienia? Jasność 100% czy 25% i profil dynamiczny czy neutralny? Porównywałeś zdjęcia z samsunga z iphonem i monitorem graficznym? To przepaść w kontroli wyświetlanego obrazu jest. Skąd wiesz który wyświetla poprawnie? A może podpinasz telefon pod telewizor i tam to robisz. Na jakim profilu jasności, kontraście? Masz certyfikat poprawności ustawień tego telewizora, czy tylko informacje na pudełku, że wyświetla wg jakiegoś tam standardu. Kto to weryfikuje? Kto go kalibrował?
Jak obrobisz w ciemnym pokoju przy małej ilości światła na dynamicznym a ktoś to obejrzy za dnia na neutralnym i powie że chujowe kolory to kto ma racje? Przecież tak widza jego oczy i ma prawo do takiej oceny.
Czemu nie masz monitora graficznego z kalibratorem zewnętrznym skoro zależy Ci na " tak widzą moje oczy? Nosisz okulary, masz swoje lata. Skąd wiesz, że twoje oczy widzą prawidłowo? Robiłeś badania w tym zakresie?
Fajnie, że Ci się to wszystko sprawdza ( fotografia smarthonowa) i nie musisz już kupować co rok nowych aparatów sony i obiektów do nich. Ale to tylko namiastka malutka fotografii dla amatora.
A jak by to było tak proste, ( te procenty i wychwalanie jakości zdjęć Ai z telefonu ) to by Hollywood i cała branża graficzna też tak robiła, a nie na sprzęcie za setki tysięcy dolarów. Monitorach po 30 tyś i więcej, w specjalnie zaprojektowanych pomieszczeniach do tego celu.
jan pawlak
05-08-2025, 16:32
Z okresu Widowsa, aparatów pozostał i wiernie służy monitor NEC, mam jeszcze nawet kalibrator i soft ale nie używam.
Z profilami kolorów to była wieczna walka i bez pomocy "pana Zenka" który drukował mi w Labie byłaby kompletna klapa.
I mam to wszystko już za sobą ale naumiałem się "na co patrzeć" by oceniać kolor.
Gdy chcę zrobić (smartfonem) zdjęcie to porównuje ekran ze światem, robię je i wyświetlam zdjęcie na ekranie by porównać ze światem.
U mnie jest znana mi róznica, uwzględniam ją przy obróbce
Ogólnie nie widzę różnicy w kolorach na smartfonie i na tablecie i na smartfonie (innej firmy) sąsiada.
Gdy zaś podłączam do monitora to jest dziwna sprawa.
W trybie normalnym, gdy monitor to powiększony ekran smartfonu/tabletu to kolory są trochę inne pomiędzy nimi.
W trybie DeX ( smartfon/tablet i monitor to dwa niezależne systemy, można na jednym obrabiać zdjęcia a na drugim np. oglądać TV) kolory taż są trochę inne ale inaczej niż trybie normalnym.
Oczywiście można w prosty sposób wyrównać kolory.
I mam to również już za sobą by starać się być w 100% zgodny z .....
Moim sędzią są moje oczy, moje odczucia
Inni mogą/mają prawo myśleć inaczej, stosować inaczej wydawać kasę na inne sposoby.
Ich życie
jp
Ogólnie nie widzę różnicy w kolorach na smartfonie i na tablecie i na smartfonie (innej firmy) sąsiada.
jp
Może dlatego
http://www.zycie.senior.pl/147,0,Postrzeganie-kolorow-zalezy-od-wieku-starsi-widza-je-inaczej-niz-mlodsi,33744.html
https://www.reddit.com/r/science/comments/1ae0c3j/study_suggests_that_colours_fade_as_people_age_as/?tl=pl
https://www.brillux.pl/serwis/projektowanie-kolorystyczne/kolor-a-wiek/
Ostatnio mój szesnastoletni syn "sprzedał" mi ten temat.
jan pawlak
06-08-2025, 08:24
Może dlatego
http://www.zycie.senior.pl/147,0,Postrzeganie-kolorow-zalezy-od-wieku-starsi-widza-je-inaczej-niz-mlodsi,33744.html
https://www.reddit.com/r/science/comments/1ae0c3j/study_suggests_that_colours_fade_as_people_age_as/?tl=pl
https://www.brillux.pl/serwis/projektowanie-kolorystyczne/kolor-a-wiek/
Ostatnio mój szesnastoletni syn "sprzedał" mi ten temat.
Dokładniej, to samo zdjęcie :
- na tych różnych "urządzeniach" Androidowych nie widzę różnicy w kolorach
- na monitorze widzę różnice w stosunku do Androidowych
No cóż, praktycznie każdy z nas widzi kolory trochę inaczej i z wiekim to się zmienia.
A "oprogramowanie" w aparacie musi z BW matrycy dostosować je do tego jak widzi świat kolorów człowiek
jp
robertskc7
06-08-2025, 09:24
Dokładniej, to samo zdjęcie :
- na tych różnych "urządzeniach" Androidowych nie widzę różnicy w kolorach
- na monitorze widzę różnice w stosunku do Androidowych
No cóż, praktycznie każdy z nas widzi kolory trochę inaczej i z wiekim to się zmienia.
A "oprogramowanie" w aparacie musi z BW matrycy dostosować je do tego jak widzi świat kolorów człowiek
jp
A różnice w detalach widzisz?
Bo temat był bardzo długo wałkowany miedzy tobą a nami na tym forum no i wyszło jak wyszło.
jan pawlak
06-08-2025, 10:23
Obróbka zdjęć : środowisko pracy : Tablet
Zdjęcia (zdecydowana większość) obrabiam na tablecie gdzie trafiają (automatycznie lub "ręcznie") ze smartfona.
Bywa że łączę się z monitorem by mieć większy ekran, byważe podłączam hub z czytnikiem kart, zasilaniem i portami USB i LAN.
Pliki RAW z mojego smartfona bywają bardzo duże (powyżej 200 MB) a ich obróbka jest płynna, szybka. Wczytywanie i zapis do pamięci zewnętrznych też jest szybkie.
Obrabiam w większości na LR ale oprogramowania Samsunga też używam, ma swoje zalety.
jp
PS
Około 30 lat temu miałem tak :
- telefon stacjonarny
- TV + czytnik kaset
- PC z czytnikiem kart i CD + internet po kablu telefonicznym
- aparat foto
Teraz realnie wszystkie funkcje tego sprzętu przejęły smarfony oraz tablety i realizują tych funkcji więcej.
Rolę (smart) TV oraz komputera przejął tablet, na wszystkie dłuższe pobyty poza domem zabieram go ze sobą.
W stosunku do TV ma mnóstwo zalet, jako TV używam go znacznie częściej niż TV ale (dla mnie) ma jedną wadę, przełączanie kanałów telewizyjnych w stosunku do klasycznego pilota.
Wszystkie funkcje klasycznego PC spełnia choć są (jeszcze ?) oprogramowania które nie są dostępnie na Androidzie
Problem z przejściem na nowy system, nadążaniu za realem tkwi w przestawieniu się, zmianie naszych przyzwyczajeń.
A różnice w detalach widzisz?
Bo temat był bardzo długo wałkowany miedzy tobą a nami na tym forum no i wyszło jak wyszło.
Problem z detalami jest taki, że na monitorze różnice są widoczne, natomiast na wydrukach już nie będą widoczne, o ile się nie będzie ich oglądać przez lupę. Rozdzielczość wydruku to minimum 300 dpi, a przeciętnego monitora 72-96 dpi, więc jest 3-4 razy mniejsza, czyli detale oglądamy w powiększeniu 3-4-krotnym.
To samo z szumami w obrazie. Kiedyś kolesie z DPreview na podstawie wydruków udowadniali, że szumami nie ma co się przejmować. O ile się zdjęcia drukuje :mrgreen:
jan pawlak
06-08-2025, 11:03
A różnice w detalach widzisz?
Bo temat był bardzo długo wałkowany miedzy tobą a nami na tym forum no i wyszło jak wyszło.
Postęp w fotografii smartfonowej jest ogromny, nowa jakość, bardzo wiele nowych funkcji/możliwości
Trzy lata temu uczyłem się tej technologii, starałem się zrozumieć, ciekawiło mnie, obserowałem rozwój.
Odpuściłem, teraz jestem na etapie użytkownika, na etapie co i jak stosować tego co potrzebuję a nie na etapie dlaczego tak jest.
Śledzę portale gdzie oceniają jakość zdjęć.
Ale teraz to już są takie "wady" których ja nie jestem w stanie zobaczyć.
jp
Postęp w fotografii smartfonowej jest ogromny, nowa jakość, bardzo wiele nowych funkcji/możliwości
jp
Niby tak, ale jest jeden zasadniczy problem, którego dotychczas nie ogarnięto - optyczny zoom z prawdziwego zdarzenia. Tego ciągle nie ma i tego najbardziej mi obecnie brakuje. Tylko proszę mnie nie przekonywać, że AI umie super symulować wartości pośrednie, bo nie umie. Najlpeszą jakość ciągle otrzymujemy przy natywnym ustawieniu danego modułu obiektywu. Wszystkie pośrednie są dla mnie nieakceptowalne.
https://en.wikipedia.org/wiki/List_of_longest_smartphone_telephoto_lenses
jan pawlak
06-08-2025, 14:44
Niby tak, ale jest jeden zasadniczy problem, którego dotychczas nie ogarnięto - optyczny zoom z prawdziwego zdarzenia. Tego ciągle nie ma i tego najbardziej mi obecnie brakuje. Tylko proszę mnie nie przekonywać, że AI umie super symulować wartości pośrednie, bo nie umie. Najlpeszą jakość ciągle otrzymujemy przy natywnym ustawieniu danego modułu obiektywu. Wszystkie pośrednie są dla mnie nieakceptowalne.
https://en.wikipedia.org/wiki/List_of_longest_smartphone_telephoto_lenses
W programie Edhance-X jest funkcja portret gdzie można zmieniać wielkość i sposób rozmycia wokół wymaskowanego obiektu, na portalach piszą że nieźle zoomuje.
Ale czuję się w tym zakresie znawcą, nie potrzebuję, nie używam, nie sprawdzałem, nie wiem.
Jeśli jeszcze to nie pracuje dobrze to będzie w przyszłości. Nie wobrażam sobie by docelowym rozwiązaniem było takie jak w klasycznych zoomach by taki cel osiągać.
Rozumiem dlaczego funkcje foto w zoomach "naśladują" działanie klasycznego sprzętu foto.
Ale "ocznie" nie mamy GO które wynika z wady obiektywu, nie możemy długoogniskowo/przesłonowo wyodrębnić obiekt, nie mamy zniekształcenia perspektywy krótko/długoogniskowej.
jp
Ale "ocznie" nie mamy GO które wynika z wady obiektywu, nie możemy długoogniskowo/przesłonowo wyodrębnić obiekt, nie mamy zniekształcenia perspektywy krótko/długoogniskowej.
jp
Nadal nie dotarło do Ciebie, że ludzkie oko posiada głębię ostrości? To masz poniżej prosty opis przygotowany przez ulubioną AI. Może zrozumiesz skąd się wzięła optyka.
W oku, podobnie jak w aparacie fotograficznym, obraz jest ostry tylko w jednej konkretnej płaszczyźnie, na siatkówce. Jednak z uwagi na to, że układ optyczny oka nie jest idealny i ma pewne aberracje, oraz z powodu ograniczeń w rozdzielczości siatkówki, pewien obszar przed i za tą płaszczyzną również wydaje się ostry. To właśnie jest głębia ostrości.
Kluczową rolę w regulacji głębi ostrości w oku odgrywa źrenica. Działa ona jak przysłona w aparacie. Im mniejsza źrenica (przy jasnym świetle), tym większa głębia ostrości, co oznacza, że większy zakres odległości jest widziany jako ostry. Natomiast przy dużej źrenicy (w słabym oświetleniu) głębia ostrości jest mniejsza, a oko skupia się na węższym zakresie.
Warto zaznaczyć, że ludzki mózg również odgrywa dużą rolę w interpretacji obrazu. Nawet jeśli dany obiekt nie jest idealnie ostry, mózg jest w stanie skompensować te niedoskonałości, co sprawia, że postrzegamy świat jako spójny i wyraźny, nawet gdy oko nie skupia się na wszystkim idealnie.
W programie Edhance-X jest funkcja portret gdzie można zmieniać wielkość i sposób rozmycia wokół wymaskowanego obiektu, na portalach piszą że nieźle zoomuje.
Ale czuję się w tym zakresie znawcą, nie potrzebuję, nie używam, nie sprawdzałem, nie wiem.
Jeśli jeszcze to nie pracuje dobrze to będzie w przyszłości. Nie wobrażam sobie by docelowym rozwiązaniem było takie jak w klasycznych zoomach by taki cel osiągać.
Rozumiem dlaczego funkcje foto w zoomach "naśladują" działanie klasycznego sprzętu foto.
Ale "ocznie" nie mamy GO które wynika z wady obiektywu, nie możemy długoogniskowo/przesłonowo wyodrębnić obiekt, nie mamy zniekształcenia perspektywy krótko/długoogniskowej.
jp
Ale mi nie chodzi o bokeh czy głębię ostrości - problemem jest jakość pośrednich obrazków, czyli tzw. kaszaneczka. Wygląda to tak samo źle w Samsungach jak i Pixelach. Jak dla mnie oczywiście.
jan pawlak
06-08-2025, 21:46
Ale mi nie chodzi o bokeh czy głębię ostrości - problemem jest jakość pośrednich obrazków, czyli tzw. kaszaneczka. Wygląda to tak samo źle w Samsungach jak i Pixelach. Jak dla mnie oczywiście.
Nie do końca wiem co rozumiesz przez pośrednie obrazki.
W fotografii obliczeniowej plik wynikowy (zdjęcie) powstaje inaczej niż w fotografii optycznej.
Jest złożeniem wielu (krótkich) ekspozycji o różnych czasach i (bywa że) z różnych matryc tak wybieranych i tak składanych/przetworzonych (z przesunięciami) by uzyskać ostry obraz bez szumu i prawidłowo naświetlony dla wybranego kadru i wybranej rozdzielczości, jest optymalizowany dla kadru i rozdzielczości.
Dlatego duże powiększenie zdjęcia ze smartfonu na monitorze może dawać gorsze efekty niż powiększenie zdjęcia z klasycznego aparatu, taką ma własność.
Ale (z mojego doświadczenia) te różnice w jakości też się zmniejszają.
jp
Nie do końca wiem co rozumiesz przez pośrednie obrazki.
jp
Jeśli dobrze pamiętam dyskutowaliśmy już kiedyś o tym w innym wątku - nie znajdę już w którym to było...
W skrócie - na przykładzie mojego Pixel 6 Pro - ma on aparaty:
Primary: 50 MP 1/1.31″ sensor, 1.2µm pixels, 24 mm equivalent
Ultra-wide: 12.5 MP 1/2.86″ sensor, 1.25μm pixels, 16mm equivalent
Tele: 48 MP 1/2.0″ sensor, 0.80μm pixels, 102.6mm equivalent (4x)
Wszystkie pogrubione to są natywne obrazki "optyczne" - jeśli chodzi o tele to np. x2,5 to nie jest optyczny zoom, tylko "obliczeniowy" - to mi się nie podoba, bo właśnie takie pośrednie wartości dają kaszankę.
A "oprogramowanie" w aparacie musi z BW matrycy dostosować je do tego jak widzi świat kolorów człowiek
Pominąłeś chyba w tym zdaniu ważny element pomiędzy samą matrycą a oprogramowaniem - filtr Bayera.
jan pawlak
07-08-2025, 10:04
Jeśli dobrze pamiętam dyskutowaliśmy już kiedyś o tym w innym wątku - nie znajdę już w którym to było...
W skrócie - na przykładzie mojego Pixel 6 Pro - ma on aparaty:
Primary: 50 MP 1/1.31″ sensor, 1.2µm pixels, 24 mm equivalent
Ultra-wide: 12.5 MP 1/2.86″ sensor, 1.25μm pixels, 16mm equivalent
Tele: 48 MP 1/2.0″ sensor, 0.80μm pixels, 102.6mm equivalent (4x)
Wszystkie pogrubione to są natywne obrazki "optyczne" - jeśli chodzi o tele to np. x2,5 to nie jest optyczny zoom, tylko "obliczeniowy" - to mi się nie podoba, bo właśnie takie pośrednie wartości dają kaszankę.
Taka to technologia.
W S23 była matryca 10Mpix a plik/zdjęcie 12 MB.
W S25 nie ma matrycy 24 Mpix a rozdzielczość 24 MB jest preferowana, daje najlepsze rezultaty, powstaje ze ekspozycji składowych z 12 Mpix i 50 Mpix z matrycy 200 Mpix oraz z matryc 50 Mpix
Wydaje się że jednym z głównym czynników jakości tych zdjęć jest moc obliczeniowa oraz jakość matrycy.
Zapowiadana jest lepsza matryca główna (na być od Sony) oraz 30% większa wydajność procesora.
W smartfonach nie przywiązywał bym zbyt dużej wagi do pojęcia zoom optyczny w znaczeniu o którym piszesz, ma to duże znaczenie dla klasycznych obiektywów ale chyba nie obiektywów smartfonowych.
jp
PS
Wygląda na to obróbka zdjęć za niedługo przestanie być potrzebna, będzie zajęciem tylko dla hobbistów, dla uspokojenia nerwów.
Tych którzy będą musieli będzie bardzo niewielu.
Zapowiadana jest lepsza matryca główna (na być od Sony) oraz 30% większa wydajność procesora.
Co roku widzę taki bełkot marketingowy a uważam, że od kilku lat stoimy tak naprawdę w miejscu. Nie kupuję już tego.
PS
Wygląda na to obróbka zdjęć za niedługo przestanie być potrzebna, będzie zajęciem tylko dla hobbistów, dla uspokojenia nerwów.
Tych którzy będą musieli będzie bardzo niewielu.
Tu być może masz rację. Choć ja dalej lubię grzebać w tych zdjęciach.
Choć ja dalej lubię grzebać w tych zdjęciach.
Są ludzie, którzy cały czas mażą pędzlem po płótnie.
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.