A różnice w detalach widzisz?
Bo temat był bardzo długo wałkowany miedzy tobą a nami na tym forum no i wyszło jak wyszło.
Wersja do druku
Obróbka zdjęć : środowisko pracy : Tablet
Zdjęcia (zdecydowana większość) obrabiam na tablecie gdzie trafiają (automatycznie lub "ręcznie") ze smartfona.
Bywa że łączę się z monitorem by mieć większy ekran, byważe podłączam hub z czytnikiem kart, zasilaniem i portami USB i LAN.
Pliki RAW z mojego smartfona bywają bardzo duże (powyżej 200 MB) a ich obróbka jest płynna, szybka. Wczytywanie i zapis do pamięci zewnętrznych też jest szybkie.
Obrabiam w większości na LR ale oprogramowania Samsunga też używam, ma swoje zalety.
jp
PS
Około 30 lat temu miałem tak :
- telefon stacjonarny
- TV + czytnik kaset
- PC z czytnikiem kart i CD + internet po kablu telefonicznym
- aparat foto
Teraz realnie wszystkie funkcje tego sprzętu przejęły smarfony oraz tablety i realizują tych funkcji więcej.
Rolę (smart) TV oraz komputera przejął tablet, na wszystkie dłuższe pobyty poza domem zabieram go ze sobą.
W stosunku do TV ma mnóstwo zalet, jako TV używam go znacznie częściej niż TV ale (dla mnie) ma jedną wadę, przełączanie kanałów telewizyjnych w stosunku do klasycznego pilota.
Wszystkie funkcje klasycznego PC spełnia choć są (jeszcze ?) oprogramowania które nie są dostępnie na Androidzie
Problem z przejściem na nowy system, nadążaniu za realem tkwi w przestawieniu się, zmianie naszych przyzwyczajeń.
Problem z detalami jest taki, że na monitorze różnice są widoczne, natomiast na wydrukach już nie będą widoczne, o ile się nie będzie ich oglądać przez lupę. Rozdzielczość wydruku to minimum 300 dpi, a przeciętnego monitora 72-96 dpi, więc jest 3-4 razy mniejsza, czyli detale oglądamy w powiększeniu 3-4-krotnym.
To samo z szumami w obrazie. Kiedyś kolesie z DPreview na podstawie wydruków udowadniali, że szumami nie ma co się przejmować. O ile się zdjęcia drukuje :mrgreen:
Postęp w fotografii smartfonowej jest ogromny, nowa jakość, bardzo wiele nowych funkcji/możliwości
Trzy lata temu uczyłem się tej technologii, starałem się zrozumieć, ciekawiło mnie, obserowałem rozwój.
Odpuściłem, teraz jestem na etapie użytkownika, na etapie co i jak stosować tego co potrzebuję a nie na etapie dlaczego tak jest.
Śledzę portale gdzie oceniają jakość zdjęć.
Ale teraz to już są takie "wady" których ja nie jestem w stanie zobaczyć.
jp
Niby tak, ale jest jeden zasadniczy problem, którego dotychczas nie ogarnięto - optyczny zoom z prawdziwego zdarzenia. Tego ciągle nie ma i tego najbardziej mi obecnie brakuje. Tylko proszę mnie nie przekonywać, że AI umie super symulować wartości pośrednie, bo nie umie. Najlpeszą jakość ciągle otrzymujemy przy natywnym ustawieniu danego modułu obiektywu. Wszystkie pośrednie są dla mnie nieakceptowalne.
https://en.wikipedia.org/wiki/List_o...lephoto_lenses
W programie Edhance-X jest funkcja portret gdzie można zmieniać wielkość i sposób rozmycia wokół wymaskowanego obiektu, na portalach piszą że nieźle zoomuje.
Ale czuję się w tym zakresie znawcą, nie potrzebuję, nie używam, nie sprawdzałem, nie wiem.
Jeśli jeszcze to nie pracuje dobrze to będzie w przyszłości. Nie wobrażam sobie by docelowym rozwiązaniem było takie jak w klasycznych zoomach by taki cel osiągać.
Rozumiem dlaczego funkcje foto w zoomach "naśladują" działanie klasycznego sprzętu foto.
Ale "ocznie" nie mamy GO które wynika z wady obiektywu, nie możemy długoogniskowo/przesłonowo wyodrębnić obiekt, nie mamy zniekształcenia perspektywy krótko/długoogniskowej.
jp
Nadal nie dotarło do Ciebie, że ludzkie oko posiada głębię ostrości? To masz poniżej prosty opis przygotowany przez ulubioną AI. Może zrozumiesz skąd się wzięła optyka.
W oku, podobnie jak w aparacie fotograficznym, obraz jest ostry tylko w jednej konkretnej płaszczyźnie, na siatkówce. Jednak z uwagi na to, że układ optyczny oka nie jest idealny i ma pewne aberracje, oraz z powodu ograniczeń w rozdzielczości siatkówki, pewien obszar przed i za tą płaszczyzną również wydaje się ostry. To właśnie jest głębia ostrości.
Kluczową rolę w regulacji głębi ostrości w oku odgrywa źrenica. Działa ona jak przysłona w aparacie. Im mniejsza źrenica (przy jasnym świetle), tym większa głębia ostrości, co oznacza, że większy zakres odległości jest widziany jako ostry. Natomiast przy dużej źrenicy (w słabym oświetleniu) głębia ostrości jest mniejsza, a oko skupia się na węższym zakresie.
Warto zaznaczyć, że ludzki mózg również odgrywa dużą rolę w interpretacji obrazu. Nawet jeśli dany obiekt nie jest idealnie ostry, mózg jest w stanie skompensować te niedoskonałości, co sprawia, że postrzegamy świat jako spójny i wyraźny, nawet gdy oko nie skupia się na wszystkim idealnie.
Nie do końca wiem co rozumiesz przez pośrednie obrazki.
W fotografii obliczeniowej plik wynikowy (zdjęcie) powstaje inaczej niż w fotografii optycznej.
Jest złożeniem wielu (krótkich) ekspozycji o różnych czasach i (bywa że) z różnych matryc tak wybieranych i tak składanych/przetworzonych (z przesunięciami) by uzyskać ostry obraz bez szumu i prawidłowo naświetlony dla wybranego kadru i wybranej rozdzielczości, jest optymalizowany dla kadru i rozdzielczości.
Dlatego duże powiększenie zdjęcia ze smartfonu na monitorze może dawać gorsze efekty niż powiększenie zdjęcia z klasycznego aparatu, taką ma własność.
Ale (z mojego doświadczenia) te różnice w jakości też się zmniejszają.
jp
Jeśli dobrze pamiętam dyskutowaliśmy już kiedyś o tym w innym wątku - nie znajdę już w którym to było...
W skrócie - na przykładzie mojego Pixel 6 Pro - ma on aparaty:
Primary: 50 MP 1/1.31″ sensor, 1.2µm pixels, 24 mm equivalent
Ultra-wide: 12.5 MP 1/2.86″ sensor, 1.25μm pixels, 16mm equivalent
Tele: 48 MP 1/2.0″ sensor, 0.80μm pixels, 102.6mm equivalent (4x)
Wszystkie pogrubione to są natywne obrazki "optyczne" - jeśli chodzi o tele to np. x2,5 to nie jest optyczny zoom, tylko "obliczeniowy" - to mi się nie podoba, bo właśnie takie pośrednie wartości dają kaszankę.