Zarządzanie Barwą
Czyli profile, balans bieli, RAWy po co, na co, kalibracja monitora, drukarki, skanera itp.
by Janusz Body & Duty
Dwa słowa wstępu - poniższy tekst jest bardzo skróconym rodzajem wykładu na temat barw i zarządzania barwami (ang Color Management) w fotografii. Na ten temat napisano tomy poważnych ksiąg. Niesposób dokonać ich streszczenia nie stosując uproszczeń. Staraliśmy się, żeby poniższy tekst był przyswajalny dla tych, którzy z tym zagadnieniem spotykają się po raz pierwszy. Dlatego prosimy profesjonalistów o wyrozumiałość w ocenie. Niektóre zagadnienia potraktowaliśmy powierzchownie. Inne wogóle zostały pominięte. Nie uchylamy się od pytań. Na każde pytanie będziemy starali się odpowiedzieć.
Literatura:
1. Real World Color Management – Bruce Fraser, Chris Murphy & Fred Bunting
2. The Art of RAW conversion – Uwe Steinmueller & Jurgen Gulbins
3. RAW 101 – Better Images with Photoshop and Photoshop Elements – John Canfield
4. Digital Photography – Acquisition And Processing Techniques – Ron Reznick
5. Understanding Color Management – Abhay Sharma
6. Color Management for Photographers : Hands on Techniques for Photoshop Users – Andrew Rodney
Wymienione pozycje traktują temat znacznie szerzej niż jest to możliwe w krótkim kompendium. Serdecznie polecamy
Chcąc nie chcąc, żeby móc sensownie pisać o barwach, trzeba zacząć od tego jak barwy widzi i odbiera człowiek, czyli nasze oczy. Widzimy mały wycinek z całego zakresu fal elektromagnetycznych. Na dodatek nasze oczy mają ogromne zdolności adaptacyjne, a mózg potrafi sygnały z nerwów ocznych zinterpretowac w sposób nieosiągalny dla współczesnych aparatów cyfrowych. Dla fanów megapixeli w ludzkim oku są dwa typy „sensorów”. Jedne potrafią rozróżnić tylko luminancję (świeci, czy nie i jak silnie) – to „pręciki” (rods), drugie barwę – „czopki” (cones). Tych od luminancji jest w oku od 70 do 140 milionów (różne źródła różnie podają) tych od barw jest znacznie mniej 6-7 milionów. Nasze „czujniki” barwowe pozwalają nam rozróżnić od 120 do 200 odcieni dla każdej z barw i to w zależności od natężenia. Przy słabym świetle działają dobrze tylko „czujniki” luminancji – stąd czarno-białe widzenie w słabym świetle i „w nocy wszystkie koty są czarne”. Dodatkowo nasze oczy inaczej widzą barwę zieloną – potrafimy rozróżnić dwukrotnie więcej odcieni zieleni, niż czerwieni czy błękitów. Nic dziwnego, jeśli wyjrzeć przez okno latem. Według obecnej wiedzy mamy ok. 64% czerwonych, tylko 32% zielonych i aż 2% niebieskich (tu też są różnice pomiędzy źródłami). Różnice są w „czułości” – najbardziej czułe są „sensory” niebieskie. „Pręciki” (rods) nie widzą czerwonego. To dlatego instrumenty w samochodzie, na statku czy w samolocie świecą na czerwono – nie ma to wpływu na zdolność nocnego widzenia. Warto zajrzeć pod ten adres. gdzie temat ten jest opisany nieco szerzej. Jako ciekawostkę możemy dodać, że za postrzeganie barw „odpowiedzialna” jest witamina A, a właściwie jej pochodne.
RAWy czy JPEGi
Zaczęliśmy od oka, więc pora na kamerę fotograficzną. Nie ma niespodzianki. Budowa jest podobna do budowy oka. Na samym spodzie rejestratora zwanego matrycą jest zestaw „czujników” działających podobnie, jak „pręciki” w ludzkim oku. Potrafią zarejestrować tylko poziom sygnału – dla całego widzialnego widma (trochę więcej, bo widzą podczerwień, ale dajmy temu spokój) bez rozróżnienia poszczególnych barw. Prawda, że zaskakujące? Dr. Bayer pracujący w Kodaku nałożył na to, jako pierwszy, siatkę filtrów R, G, B – od nazwiska wynalazcy matryca nosi nazwe „bayerowskiej”. Matryca ma układ:
B-G-B-G-B-G
G-R-G-R-G-R
B-G-B-G-B-G
G-R-G-R-G-R
Układ taki wynika z właściwości naszych oczu – o czym juz było – lepiej rozróżniamy odcienie zieleni. Pola G to 50 % całości a R i B po 25 %
Przyjrzyjmy się teraz jak na przykładzie trzech sensorów widzi to matryca. Źródło: [2]
No i tu zaczynaja sie problemy. Potrzebny jest software do interpolacji barw (Bayer demosaicing). Wyobraźmy sobie, że obiekty źródłowe mają rozmiar sensora. Górny (na obrazku) sensor zapisze czerwień. Dolny błękit. Niewiele dałoby się z tego wyinterpolować, a przecież źródło jest białe-czarne-białe. Potrzebny jest „filtr rozpraszjący”. Mamy takowy AA czyli Anti-Aliasing. Część wiązki z górnego źródła przechodzi przez filtr zielony i aktywuje środkowy sensor. Podobnie część wiązki z dolneg źródła. Środkowy sensor nie będzie więc czarny, ale zapisze jakiś poziom zieleni. Niewielki, ale jednak. Poprawia to efektywność interpolacji i znakomicie pogarsza ostrość. Rozmywa obraz. Skutkuje to koniecznością kolejnej obróbki obrazu. Najpierw interpolacja barw, a potem niwelacja rozmycia (blur). Czyli najpierw rozmywamy, a potem usiłujemy wyostrzyć. Fajne nieprawdaż?
Zwróćmy uwagę, że nie ma potrzeby zapisywania barw. Jeśli znamy „mapę” filtru Bayera, to informacja o luminancji jest w zupełności wystarczająca do zapisu obrazu. Tak właśnie zapisany jest RAW. Bez informacji o barwie. Zapisana jest tylko luminancja i „jaka to matryca”. Dopiero software aparatu, albo RAW konwerter potrafi to przeliczyć na odpowiednie barwy i odzyskać nieco ostrości. Skutkuje to mniejszym plikiem – RAW z 20D o 8 Mpix zajmuje tylko 8 MB (czyli mniej niż bajt na piksel), a w pliku wkodowane są dodatkowe dane EXIFa, miniaturka JPEGa i informacja o matrycy. Mamy tu do czynienia z kompresją bezstratną.
Komputer pokładowy aparatu jest mniejszy, wolniejszy, gorszy od potężnego w porównaniu z nim peceta. No to dlaczego i po co kazać mu przeliczać RAW na JPEG? On musi korzystać z prostszych, mniej efektywnych algorytmów, żeby się wogóle wyrobić. Capture One na szybkim komputerze potrzebuje kilku do kilkunastu sekund na konwersję RAW. Procesor w 20D ma na to mniej niż pół sekundy. Siłą rzeczy wykona tę konwersję gorzej niż dobry RAW konwerter. Współczesne algorytmy interpolacyjne (demozajkujące – tfu, paskudne słowo) są naprawde bardzo efektywne, ale wymagają „mocy obliczeniowej”. No i pozwalają osiągnąć fantastyczne rezultaty.
Jeśli po tym ktoś jeszcze zapyta, czy warto robić w RAW-ach, to...
W JPEGach tracimy:
- artefakty na skutek kompresji stratnej,
- kilka bitów informacji o kolorze – z 10-14bit z kamery mamy zapisane tylko 8 bit,
- konwerter kamery jest prymitywny i przelicza RAWy na JPEGi w uproszczony sposób,
- balans bieli ( WB ) jest wyliczany/mierzony przez kamerę i potem trudno to zmienić,
- korekcje tonalne, wyostrzanie wewnątrz kamery już są wykonane i ponowne ich użycie wiąże się z pogorszeniem jakości.
Pytanie, czy nie można inaczej? Owszem można – matryca Foveon X3 potrafi zapisać wszystkie trzy barwy podstawowe w jednym pikselu. Ciekawostka historyczna – próbowano też rozszczepiać światło pryzmatem i mierzyć poszczególne składowe na osobnych CCD.
Podstawy teorii barw – trochę teorii, niestety niezbędnej.
W sumie to cała sprawa z barwami sprowadza się do otrzymania conajmniej zbliżonych barw na wszystkich etapach obróbki zdjęcia. Od rzeczywistości, czyli „sukienki cioci Zuzi” poprzez aparat, monitor po końcową odbitkę, czy wydruk. Celowo używamy słowa „zbliżonych” a nie „takich samych”, jako, że zwykle uzyskanie „takich samych” barw jest to po prostu niemożliwe. Color Management jest jednym z bardziej kłopotliwych tematów i napisano o tym tomy ksiąg.
Wszystkie barwy postrzegane przez człowieka wyznaczają „przestrzeń barw widzialnych”, często określaną mianem CIE-LAB lub LAB. To trochę mylące, bo jest to jednocześnie model odwzorowania barw. CIE-LAB to ustandardowiony zapis barwy, gdzie każda z widzialnych barw jest jednoznacznie określona współrzędnymi L*a*b. To model w miarę uniwersalny służący jako punkt odniesienia dla wszystkich innych modeli. Co więcej, „tłumaczenie” z jednego systemu zapisu na inny odbywa się zawsze poprzez LAB. To tak, jakby zamiast tłumaczenia z polskiego na angielski tłumaczyć najpierw z polskiego na uniwersalne esperanto, a potem z esperanto na angielski. Czy to ma sens? Ano ma! W różnych modelach niektóre barwy nie istnieją więc trzeba najpierw przetransponowac je do uniwersalnej przestrzeni i dopiero stamtąd dalej.
CIE-LAB (CIE to skrót od Commission Internationale d'Eclairage), to model, w którym w przestrzeni trójwymiarowej zapisujemy trzy wartości L – luminancję, czyli „siłę światła” gdzie 0 to czarny, a 100 to maksymalne natężenie, które jeszcze widzimy bez utraty wzroku. Do tego dochodzi a , czyli od Zielonego do Czerwonego (-128 , +127 )
i b czyli od Niebieskiego (-128 ) do Żółtego (+127). Wszystko co jest „w środku” czyli a = 0 i b = 0 dla każdej L jest szare. Neutralnie szare. W przestrzeni tej możliwe jest oddanie wszystkich barw widocznych i rozróżnialnych oczami człowieka.
Model LAB poza czynnością translacyjną nie występuje w żadnym urządzeniu. Ułatwia za to ocenę różnic między odcieniami barw – odległości między różnymi barwami odpowiadają w tym modelu wrażeniu różnicy między tymi barwami odczuwanemu przez standardowego obserwatora.
RGB – chyba najbardziej znany model. Używany w monitorach, displayach i wszystkim co „świeci”. To model „addytywny”, czyli taki, w którym barwy pośrednie powstają ze złożenia (dodania) R, G i B w odpowiednich proporcjach. R + G = Yellow (żółty) itd. – im więcej składowej barwy, tym jaśniejszy obraz. Zwykle zapisywany w 8 bitach i stąd 255 R + 255 B + 255 G = White (biały) a 0/0/0 odpowiednio Czarny. Posrednie wartości, w których R=B=G to odcienie szarości. Model ten został sprecyzowany przez CIE w 1931 roku – barwa czerwona (R) to długośc fali 700 nm, zielona (G) 546.1 nm, i fioletowoniebieska (B) (to nie błąd) 435.8 nm w widmie par rtęci.
CMYK – Model CMYK używa czterech podstawowych barw Cyan (C), Magenta (M), Yellow(Y). Złożenie tych trzech barw zamiast czarnego daje „brudno-ciemno-brązowy” – w praktycznym zastosowaniu w drukarkach. Stąd czwarta barwa K – od blacK – Czarny. CMYK jest modelem „subtraktywnym” (odejmowanie), jako, że zmniejszanie ilości składowych powoduje rozjaśnianie obrazu – aż do bieli. Model używany w drukarkach. Nie da się w nim uzyskać bieli – biały musi być papier. Wiele drukarek używa CcMmYK, gdzie małe c oznacza „light cyan” i małe m „light magenta” - rozjaśnione wersje atramentów podstawowych. Pozwala to na lepsze oddanie niektórych barw na papierze. Model CMYK podczas obróbki w fotografii nie jest używany, ale i tak nie da się go pominąć, bo wszystkie plujki, profesjonalne drukarnie to też CMYK – czasem trzeba więc wynik pracy zapisać w tym trybie.
Głębia barwy, czyli rozpiętość tonalna – sposób, w jaki zapisujemy informację o barwie ma ogromne znaczenie. Barwa np. czerwona zapisana w 8 bitach będzie posiadała 256 różnych poziomów jasności . Ta sama barwa zapisana w 16 bitach da nam, uwaga! 32768 różnych poziomów jasności. Z 16 bitów tylko 15 jest wykorzystywanych do zapisu barwy. Nasze oczy są w stanie rozróżnić jedynie 120-200 odcieni, więc mogłoby się wydawać, że 8 bitów jest wystarczające. Niestety nie. Po pierwsze każda operacja rachunkowa, a tych w procesie obróbki nie brakuje, wprowadza rozmaite „błędy i wypaczenia”, no i rozróżniając te 200 odcieni widzielibyśmy wyraźne „ząbki” – granice przejścia z jednego odcienia do drugiego. Żeby takie przejście było płynne, potrzeba wielokrotnie więcej odcieni, niż jesteśmy w stanie rozróżnić. Zjawisko trochę podobne (no, może niezupełnie, ale „coś w tym jest”) mamy w muzyce. Niby nie słyszymy dzwięków o częstościach rzędu 50,000 Hz, ale potrafimy je odróżnić jako „barwę dzwięku”. Podobnie nie potrafimy rozróżnić dzwięków różniących się o 1Hz np. nie jesteśmy w stanie odróżnić 12000Hz od 12001Hz, ale większość z nas odróżni 10Hz od 11Hz, o ile je wogóle usłyszy
Przestrzeń barw – to rozpiętość tonalna barw, które dane urządzenie może wyświetlić, bądź wydrukować. Przestrzeń ta to gamut urządzenia (gama barw jakie dane urządzenie jest w stanie reprodukować). Każde urządzenie ma swój niepowtarzalny gamut. Nawet dwa aparaty tej samej firmy zwykle mają nieznacznie różne gamuty (nie ma dwóch takich samych matryc, filtrów itp, zużycie, wiek też mają wpływ). Z drukarkami jest jeszcze gorzej. Gamut zależy od atramentu i papieru, a nawet oświetlenia, w którym będziemy oglądać zdjęcie. Ta sama drukarka będzie miała inny gamut na papierze firmy X a inny na firmy Y.
Profile ICC– (International Color Consortium). Precyzyjne i spójne zarządzanie barwami wymaga dokładnych profilów zgodnych ze standardem ICC dla wszystkich urządzeń przetwarzających barwy. Na przykład, bez poprawnego profilu skanera doskonale zeskanowany obrazek może w innej aplikacji wyglądać nieprawidłowo - po prostu z powodu różnic między przestrzenią barw skanera, a przestrzenią programu wyświetlającego ten obrazek. Takie mylące odwzorowanie może prowadzić do straty czasu na niepotrzebne, a nawet potencjalnie szkodliwe “korekty” obrazka, który już jest prawidłowy. Dzięki dokładnemu profilowi program importujący obrazek może przeliczyć wszystkie różnice w przestrzeniach barw, skonwertować je do przestrzeni barw urządzenia wyjściowego (np. monitora, którego profil też jest brany pod uwagę) i wyświetlić skan w jego rzeczywistych barwach.
Profil stanowi matematyczny opis przestrzeni barw danego urządzenia, zakresu jego dynamiki (opisuje maksymalne gęstości optyczne, odcień i jasność punktu bieli i czerni danego urządzenia). Na przykład, profil aparatu informuje system zarządzania barwą o tym, jak "widzi" barwy aparat. Profil zawiera „przepis”, w jaki sposób barwę RGB zapisaną w przestrzeni danego urządzenia odwzorować w przestrzeni LAB. Odwołując się do przykładu z językami, profil to tłumacz z języka angielskiego na esperanto i na odwrót. Ten tłumacz nawet „nie wie”, że istnieje inny język. To tłumaczenie obsługuje inny tłumacz (profil) znający esperanto i polski. Zapewnia to „zgodność w przód”, bo dzięki temu możliwa będzie obsługa urządzeń, których jeszcze nie wymyślono.
System zarządzania barwą wykorzystuje profile następujących typów:
Profile monitorów - opisują sposób odtwarzania barw przez monitory. Profil monitora jest absolutnie najważniejszy i należy utworzyć go w pierwszej kolejności. Jeżeli barwy wyświetlane na ekranie nie odpowiadają rzeczywistym barwom w dokumencie, nie uda się uzyskać spójności barw.
Profile urządzeń wejściowych - opisują barwy, które będą przechwytywane lub skanowane za pomocą urządzeń wejściowych. Jeśli aparat cyfrowy umożliwia wybór różnych profilów, zaleca się wybór profilu Adobe RGB. W przeciwnym wypadku należy wybrać profil sRGB (profil domyślny większości aparatów). Użytkownicy zaawansowani mogą pomyśleć o wyborze profilu dostosowanego najlepiej do posiadanego sprzętu (i oświetlenia) – np. w programie Capture One. Jeśli fotografujesz w RAWach, to ustawienia aparatu nie mają znaczenia. Profil jest przypisywany dopiero w momencie otwarcia pliku w Adobe Camera RAW, lub innym konwerterze (Capture One czy RawShooter). Camera RAW pozwala na konwersję tylko do czterech podstawowych profili. Capture One i RawShooter Premium praktycznie do wszystkich profili zainstalowanych w systemie.
Jak widać z zamieszczonego nieco dalej rysunku, profil np. kamery 20D obejmuje zakres większy od Adobe RGB. To jeszcze jeden punkt przemawiający za używaniem RAWów. Jeśli pstrykasz a JPEGach to aparat dokonuje konwersji do mniejszej przestrzeni barw.
Profile urządzeń wyjściowych - opisują przestrzenie barw urządzeń wyjściowych, takich jak drukarki, minilaby. System zarządzania barwą wykorzystuje je, dokonując prawidłowego przekładu barw wejściowych na barwy z przestrzeni urządzenia wyjściowego. Profil wyjściowy powinien uwzględniać również specyfikę warunków przyszłego drukowania, na przykład rodzaj papieru i tuszu. Większość sterowników drukarek zawiera wbudowane ogólne profile barwne papierów (ang. generic). Przed ewentualnym nabyciem profili niestandardowych (ang. custom), warto je wypróbować. Zwykle producenci przygotowują takie profile generyczne dla swoich własnych produktów (papieru, atramentu itp.). Użycie oryginalnych profili daje zazwyczaj przyzwoite rezultaty, jeśli używamy oryginalnych materiałów. Użycie, niejednokrotnie lepszych, papierów innych wytwórców często nie daje zadowalających wyników na profilach generycznych i wówczas koniecznym jest przygotowanie takiego profilu w dobrze wyposażonej firmie specjalistycznej.
Profile dokumentów - określają konkretne przestrzenie RGB lub CMYK dokumentów. Przypisując profil do dokumentu, co nazywa się również jego znakowaniem, aplikacja informuje o rzeczywistym wyglądzie barw w dokumencie. Na przykład, same przypisania typu "R=127, G=12, B=107" mogą być różnie interpretowane przez różne urządzenia. Jeśli jednak dokument zostanie oznakowany jako dokument z przestrzenią AdobeRGB, wymienione wartości zostaną zinterpretowane właściwie, w tym wypadku jako konkretny odcień purpury.
Jeśli zarządzanie barwami jest włączone, to we wszystkich aplikacjach firmy Adobe nowe dokumenty uzyskują profile zgodne z opcjami przestrzeni roboczej (określanymi w oknie dialogowym Ustawienia kolorów). Dokumenty bez profilu są nazywane nieoznakowanymi i zawierają same wartości barw. W przypadku dokumentów nieoznakowanych aplikacje Adobe wyświetlają barwy na podstawie profilu bieżącej przestrzeni roboczej.
Typy plików - oj dużo tego: tiff, giff, jpeg.... Niektóre formaty plików pozwalają na osadzanie profili i korzystanie z nich w zarządzaniu barwą: PSD, EPS, Jpeg, PDF i Tiff – inne niestety nie. Pamiętajmy, że RAW to czarno-biały obraz więc i o profilu tam mowy nie ma, ale za to ma w sobie informację o matrycy, więc program typu Capture One, czy Adobe Camera RAW może mu automatycznie taki profil przydzielić. Zwykle przydzielany jest profil generyczny, ale łatwo to zmienić (w przypadku Capture One). O pliku z profilem mówimy, że jest on oznakowany (z angielska „tagged”). Wysyłając taki plik znajomemu wysyłamy mu jednocześnie informację o tym w jakim profilu został on zpisany.
Robocze przestrzenie barw – Adobe Photoshop
Przestrzeń robocza, czasem nazywana również przestrzenią wirtualną, to wewnętrzna przestrzeń aplikacji firmy Adobe (lub innego programu do obróbki grafiki np. Gimp’a), która służy do definiowania i edycji barw. Z każdym modelem barw jest skojarzony profil przestrzeni roboczej.
Profil przestrzeni roboczej pełni funkcję profilu źródłowego wszelkich nowych dokumentów, które korzystają z odpowiadającego mu modelu barw. Na przykład, jeśli profilem przestrzeni roboczej RGB jest profil Adobe RGB ( 1998 ), to każdy nowy dokument RGB będzie zawierał barwy z zakresu Adobe RGB ( 1998 ). Przestrzenie robocze określają również wygląd barw w dokumentach nieoznakowanych
sRGB - opracowana jako standard opisujący uśredniony gamut monitorów CRT (przez Hewlett – Packard i Microsoft). Obecnie monitory potrafią ją w pełni wykorzystać, lecz często i przekroczyć. Laptop (za wyjątkiem paru modeli Apple) to ledwo 1/3 sRGB. Jeśli będziemy TYLKO publikować zdjęcia w sieci to ta przestrzeń jest wystarczająca.
Adobe RGB ( 1998 ) – Najpopularniejsza wśród użytkowników PSa. Powoli staje się za mała, choć jeśli celem jest wywołanie odbitki w laboratorium na np. Frontierze w zupełności wystarczy. Po zainstalowaniu programu Capture One pojawi się w Photoshopie, w Edycja/Ustawienia koloru/Ustawienia/ opcja „Phase One Workflow” z wybraną przestrzenią Adobe RGB jako domyślną. Podobne ustawienia można automatycznie przypisać wybierając w tym samym menu zestaw „Ustawienia koloru dla przygotowania do druku w Europie 2”.
Apple RGB – opracowana przez Apple – trochę więszy gamut od sRGB ale mniejszy od Adobe RGB.
ProPhoto – bardzo duża. 13% poza tym co możemy zobaczyć. Jeśli używamy to MUSIMY pracowac tylko w 16 bitach.
BetaRGB – Opracowana przez Bruce’a Lindblooma ( http://www.brucelindbloom.com/ ). Coś pośredniego pomiędzy Adobe i ProPhoto. Pokrywa swoim zasięgiem chyba wszystkie drukarki. Nieco mniejszy od gamutu najnowszych kamer – np. 350D. Chyba najlepszy do obróbki, jeśli mamy zamiar drukować nasze zdjęcia na sprzęcie wysokiej klasy.
To oczywiście tylko niektóre z istniejących przestrzeni wirtualnych. Jest tego dużo, nawet „dużo za dużo”. ECI-RGB (Euroscale Coated Iso RGB) czy ISO Coated dla CMYK używany w przygotowaniu drukowanych wydawnictw możemy sobie tutaj darować. Fachowcy od drukarstwa i tak wiedzą jak tego używać i to pewnie lepiej od nas.
Poniżej przykładowe gamuty niektórych urządzeń i przestrzeni roboczych (przedstawione jako wycinek z bryły barw dla L=50):
Konwersja z jednej przestrzeni barw do drugiej
Jeśli musimy odwzorować barwy zapisane w przestrzeni np. Beta RGB na przestrzeń drukarki, potrzebny jest mechanizm konwersji (w Photoshopie standardowo rolę tę spełnia Adobe ACE).
Cel renderingu określa, w jaki sposób system zarządzania barwami przeprowadza konwersję barw z jednej przestrzeni na inną. Różne cele renderingu są realizowane za pomocą różnych reguł dostosowywania barw; na przykład, barwy przypadające wewnątrz zakresu przestrzeni docelowej mogą być pozostawiane bez zmian, albo modyfikowane w celu zachowania oryginalnego zakresu relacji wizualnych po konwersji na mniejszą przestrzeń docelową. Rezultat wyboru celu renderingu zależy od zawartości graficznej dokumentów oraz profilów określających przestrzeń barw. Niektóre profile dają identyczne rezultaty dla różnych celów renderingu.
Na ogół najlepiej jest używać domyślnego celu renderingu, który został przetestowany przez Adobe Systems pod kątem zgodności ze standardami przemysłowymi. Na przykład domyślny cel renderingu dla ustawienia Ameryka Północna lub Europa to Względny kolorymetryczny. Natomiast domyślny cel dla ustawienia Japonia, to Wizualny.
Cel renderingu można określić w następujących sytuacjach: podczas ustawiania opcji konwersji barw przez system zarządzania barwą, podczas prób ekranowych barw, podczas drukowania kompozycji.
Wizualny – (Perceptual) Program kładzie nacisk na zachowanie wizualnych relacji między barwami, tak aby oko ludzkie postrzegało je jako naturalne, pomimo zmiany samych wartości liczbowych barw. Cel ten nadaje się do zdjęć zawierających wiele barw spoza danej przestrzeni.
Ogólny algorytm rzutowania przedstawia sie następująco: jeśli gamut oryginału jest większy od docelowego, to wszystkie barwy są kompresowane tak, żeby zmieściły się w przestrzeni docelowej. To powoduje zwykle mniejsze nasycenie barw i podniesienie jasności, ale ich relacje pozostają niezmienione. Zachowane są proporcje pomiędzy barwami i „ogólne wrażenie” pozostaje niezmienione. Jeśli źródło jest mniejsze od przestrzeni docelowej, to konwersja odbywa się na zasadzie jeden-do-jeden, czyli bez zmian.
Względny kolorymetryczny – (Relative colorimetric) Program porównuje maksymalne światła przestrzeni źródłowej z maksymalnymi światłami przestrzeni docelowej i odpowiednio przesuwa pozostałe barwy. Barwy poza zakresem są przesuwane na najbliższą barwę, jaką można oddać w przestrzeni docelowej. Metoda względna kolorymetryczna zachowuje więcej oryginalnych barw niż metoda wizualna. W Ameryce Północnej i Europie jest to standard drukarski.
Jeśli gamut oryginału jest większy od docelowego, to barwa źródłowa jest zamieniana na „najbliższą” oryginałowi – zwykle barwę z granicy mniejszego gamutu. W tym sposobie transformacji dwie barwy, których nie można przedstawić w przestrzeni docelowej MOGĄ być rzutowane na jedną barwę wynikową. To może powodować wycinanie wartości barw („clipping”), lub „paskowanie” na wydruku („banding”). Punkt bieli jest rzutowany z jednej przestrzeni do drugiej i dalsze transformacje odbywają się względem punktu bieli – stąd nazwa „relativ”
Absolutny kolorymetryczny – (Absolute colorimetric) Program pozostawia bez zmian te barwy, które znajdują się wewnątrz przestrzeni docelowej. Barwy poza zakresem przestrzeni docelowej są przycinane. Metoda ta nie obejmuje skalowania barw względem docelowego punktu bieli. Taki cel renderingu kładzie nacisk na zachowanie wierności barw kosztem zachowania relacji między nimi; nadaje się do przeprowadzania prób z symulacją druku na konkretnym urządzeniu. Cel ten jest szczególnie przydatny, gdy trzeba sprawdzić wpływ barwy papieru na wygląd barw na wydruku.
Nasycony – (Saturation) Program kładzie nacisk na uzyskanie żywych barw kosztem ich wierności. Jest to cel dostosowany do tworzenia grafiki firmowej, takiej jak np. wykresy lub grafy, gdzie ważniejsze jest uzyskanie jasnych, nasyconych barw, a nie zachowanie dokładnych relacji między nimi (tak jak to ma miejsce w przypadku zdjęć).
Kalibracja
Jeśli chcemy mieć pewność, że na każdym z etapów pracy w systemie zarządzania barwą to, co widzimy na monitorze, czy wydruku jest podobne, wszystkie te urządzenia muszą być skalibrowane.
Monitor – chyba najważniejszy element wymagający precyzyjnej kalibracji. Na monitorze obrabiamy zdjęcia i od tej obróbki zwykle najwięcej zależy. Najprostszym sposobem kalibracji jest użycie Adobe Gamma, albo innego podobnego programu do kalibracji „na oko” (np. Quick Gamma). To nie jest szczyt marzeń, ale nawet taka kalibracja jest lepsza niż żadna. Ważne jest, żeby monitor przed kalibracją był „wygrzany” – min. 30 minut bez „screen savera”. Drugim i zdecydowanie lepszym sposobem kalibracji jest kalibrator sprzętowy. Najczęściej polecany jest „GregtagMacbeth Eye One Display 2”. Nie bez racji - to zdecydowanie najlepsze rozwiązanie. Ale nie jedyne. Jest na rynku sporo tanich kalibratorów i co rusz pojawiają się nowe. Kalibrację monitora trzeba powtarzać zwykle minimum co dwa, trzy tygodnie. Kalibracja to przywracanie urządzenia do z góry określonego stanu i dbanie o jego niezmienność. To jest pierwszy etap użycia kalibratora - w drugim dokonuje on pomiaru wzornika barwnego i na podstawie odczytu określa "gamut" monitora opisując go w tworzonym profilu. Dzięki profilowi monitora zainstalowanemu w systemie, Photoshop (Gimp, Corel czy inny program uzywający zarządzania barwami) jest w stanie przewidzieć jak barwy będą wyświetlone.
Przy korzystaniu z profili generowanych sprzętowo – koniecznie należy usunąć z autostartu „Adobe Gamma Loader”!
Drukarka – jak już pisaliśmy tu problem jest duży, bo potrzebny jest profil dla każdego używanego papieru. Nawet więcej, bo dla każdej kombinacji: ustawienia sterownika – papieru – tuszu i oświetlenia w jakim wydruk będzie oglądany. Poważniejsi producenci papieru udostępniają profile generyczne dla poszczególnych drukarek. Z naszych doświadczeń z Canonem Pixma ip5000 i papierami Ilford’a wynika, że warto zrobić profil „custom”. Producenci tańszych papierów mają klienta w... wiadomym miejscu i wszystko odbywa się na zasadzie „martw się sam”. Na szczęście sytuacja nie jest tragiczna. Można taki profil zrobić i u nas bez kupowania spektrofotometru za minimum 5000 PLN i programu Profile Maker za około 12000 PLN. W USA jest serwis www.drycreekphoto.com pobierający za to ok 50 USD. Kolega Duty robi to za naprawdę niewielkie pieniądze.
Balans Bieli, czyli WB
Temat rzeka. I to duża. Prawidłowe ustawienie WB niejednokrotnie przyprawia o ból głowy zawodowców, zwłaszcza jeśli oświetlenie sceny jest mocno mieszanie. Bardzo istotne jest zrozumienie jednej i ważnej prawdy: prawdziwy WB jest potrzebny niezmiernie rzadko. Bardzo wierne oddanie barw na zdjęciach nocnej Pragi nie wyglądałoby ciekawie. Ścisłe i wierne oddanie barw jest ważne przy reprodukcjach obrazów, w katalogach farb i wielu zastosowanich technicznych. W fotografii większość fotografików zgadza się z poglądem, że ważniejszy jest „przyjemny odbiór” często nawet „wyraziste barwy” niż przesadzona wierność barwy. Nasze oczy światło żarówki odbierają jako „ciepłe” i poprawienie zdjęcia tak, że barwy wyglądaja jak w świetle dziennym najczęściej pozbawia zdjęcie pewnego „klimatu”.
Co to jest WB? – coś, co jest szare w rzeczywistości powinno być szare na zdjęciu. Właściwe ustawienie szarości powoduje, że i pozostałe barwy ulegają drobnym przesunięciom i bardziej zbliżają się do tych prawdziwych. Biały i czarny to „szczególne przypadki” szarości. W modelu LAB szary to L= dowolne (0,100) i a = b = 0. W RGB to R=G=B. Ustawienie balansu bieli zależy od temperatury barwowej światła. O różnych porach dnia temperatura barwowa może byc bardzo różna. Dla przykładu żarówka halogenowa to ok 2700-3000°K, normalny dzień ok. 5000-7000°K, w pochmurny dzień może sięgać nawet 12000°K. To jest trochę odwrotnie jak w samolocie kolor cieplejszy w odbiorze ma niższą temperature barwową. W starszych aparatach i kamerach video na przedniej części ustrojstwa był taki „mały, biały” kawałek plastiku. To właśnie było „to coś” do określenia WB. W nowych kamerach zwykle jest to realizowane programowo ale w obydwu przypadkach efekt często bywa żałosny. Jak sobie z tym radzić? Jeśli oświetlenie sceny jest w miare jednorodne, to nie jest to trudne. Dużo łatwiejsze w RAW, ale i w JPEG też się da.
Korekta WB – sposobów na poprawę WB jest dużo. Skupimy się na tych najtańszych. Nie będziemy polecać zakupu tablicy GregtagMacbeth za 300 USD. Jak ktoś „dojrzeje” do zakupu, to i będzie wiedział wystarczająco dużo, jak tego używać
Jednym ze sposobów zarówno dla RAWów, jak i JPEGów jest tzw. Custom WB. Wykonujemy zdjęcie białej kartki papieru. Najlepiej nadaje się do tego papier fotograficzny albo biała strona karty Kodaka. Zwykły papier „gazetowy” nie jest dobry. Z reguły jest podżółcony. Ważne jest, żeby żaden z kanałów RGB nie był „przepalony”. Światłomierz w aparacie zakłada, że obiekt odbija tylko 18% światła, tymczasem biała kartka odbija aż 90%. Zdjęcie trzeba niedoświetlić. Białe trochę zszarzeje i o to chodzi. Zwykle, jeśli aparat jest na „auto” nic nie trzeba robić – światło zmierzone od białej powierzchni automatycznie spowoduje niedoświetlenie kadru o około 2 f-stopy. Biała strona karty Kodaka naświetlona w „auto” będzie bardzo zbliżona odcieniem do szarej strony karty naświetlonej poprawnie. Tak naświetloną kartke ustawiamy według instrukcji aparatu jako „custom WB” i mozna pstrykać dopóki warunki się nie zmienią. To lepsze niż auto WB, ale są lepsze sposoby.
RAW – najprostszym sposobem jest znalezienie miejsca o neutralnej szarości i kliknęcie pipetka WB w Camera RAW, C1, czy RawShooterze. Miejsce niekoniecznie musi byc wizualnie szare. To może być białko oka, czarna źrenica, szary kamień, kawałek betonu, czy cokolwiek, co w naturze jest szare. Zęby się nie nadają! Większośc europejczyków ma je lekko podżółcone a kolornik u dentysty liczy kilkadziesiąt odcieni – żaden nie jest biały lub szary. Lepszym sposobem jest posiadanie wzorca. Nawet niedoskonały wzorzec jest lepszy niż nic. Ostatnio popularność uzyskał WhiBal Michela Tapesa. Instrukcja co to za zwierzę i jak używac jest tu: http://www.rawworkflow.com/ koszt to ok. 40 USD plus wysyłka. Proste i skuteczne.
WhiBal’a można próbować „podrobić”. Podróba będzie kaleka i ułomna ale może trochę pomóc. Papier fotograficzny zadrukowujemy czarnym tuszem z wypełnieniem około 15-20% (można przygotowac w PS fill 20%) i uzywamy jak WhiBal’a. Papier powinien być zadrukowany bo żaden z kanałów nie może zostać prześwietlony. Biała kartka w scenie prawidłowo naświetlonej niebezpiecznie zbliża się do granicy przepalenia któregoś z kanałów. Papier foto też ma swoje tajemnice. Jedne papiery lepiej odbijają UV inne gorzej. Z reguły papiery matowe są nieco lepsze. Próby z Ilford Smooth Pearl dały przyzwoite rezultaty. Ale i tak WhiBal wypada zdecydowanie lepiej.
Mozna też samemu pojeździć suwakami, ale to często zadanie karkołomne i wymagające sporego doświadczenia.
JPEG - musisz tego używać ? naprawdę ? No dobra, jak koniecznie chcesz, to podobnie jak w RAWach. W PSie włącz levele, kilknij na pipetkę czarną lub białą i spróbuj klinkąć odpowiedni element na zdjęciu – czarny lub biały. Na końcu spróbuj środkowej pipetki (szarej) i kliknij na czymś neutralnie szarym. Efekt? No cóż – cudów się nie spodziewaj, histogram będzie szczerbaty jak obszczymurki spod budki z piwem Można używac z WhiBal. Instrukcja jak wyżej. Tyle, że jako wzornika używasz tej ciemniejszej kartki WhiBal.
Jest jeszcze wiele sposobów korekcji WB. Adobe zalecał kiedyś użycie Leveli i obcięcie histogramu dla poszczególnych kanałów RGB – dla każdego z osobna, tak, żeby usunąć „puste” nieużywane częsci „z góry” i „z dołu”. Nie rób tego na wspólnym RGB tylko dla kazdego kanału z osobna. To raczej sposób z gatunku „tonący brzytwy się chwyta”. Ogólnie mało skuteczne, no i co zrobić jak histogram jest od 0 do 255 bez pustych miejsc? Inny sposób nazwany 90% można znaleźć tu: http://www.photoworkshop.com/registe.../adobecs2.html trzeba kliknąć w Adobe PhotoShop CS i potem Eddie Tapp i dalej „90% Method”. Obejrzeć warto, bo przy okazji jest tam trochę na temat korekty poszczególnych, nazbyt wysyconych barw. (może być konieczne zarejestrowanie się – wystarczy podać adres mailowy)
Zasady zarządzania barwą w Photoshopie – czyli to, co już częściowo było tylko bardziej precyzyjnie
1. Każdy dokument (zdjęcie ) musi mieć profil!
Każde urządzenie ma swoją charakterystykę, a co za tym idzie – własny profil. Więc każde zdjęcie pochodzące z tego urządzenia musi posiadać profil. To jest pierwszorzędna zasada w Photoshopie (i ogólnie w systemie zarządzania barwą).
Profil „podłącza” dane urządzenie do PCS (Profile Connection Space) i pozwala pracować nad danym zdjęciem w zarządzanym kolorystycznie „przepływie pracy” (workflow). Gdy Photoshop otwiera zdjęcie - sprawdza, czy ma ono osadzony profil – jeśli nie, program pomaga go znaleźć. Po zakończonej obróbce zdjęcie także musi mieć profil – np. jeśli ma być drukowane na drukarce wielkoformatowej, powinno być skonwertowane do jej profilu (najlepiej zrobić to wykonując skonwertowaną kopię a oryginał zachowując dla siebie).
2.Każda konwersja w Photoshopie wymaga dwóch profili - wejściowego i wyjściowego ( poprzez PCS )!
Profil >> PCS (Profile Connection Space) >> Profil
Zdjęcie jest zawsze konwertowane z jednej przestrzeni barw do innej. Potrzebny jest profil „źródłowy” (który mówi skąd pochodzi zdjęcie) i profil „docelowy” (który mówi, gdzie wynikowo się znajdzie). Te terminy opisują sposób użycia danego profilu, a nie jego właściwości (wejściowy, wyjściowy). Oznacza to, że np. profil drukarki, albo monitora może być raz użyty jako profil źródłowy, a innym razem jako docelowy. W każdym okienku Photoshopa dotyczącym konwersji barw znajdziemy opis: „przestrzeń źródłowa” i zapytanie „przestrzeń docelowa”? (dodatkowo opcję wyboru celu konwersji).
3.Prawdziwe i symulowane konwersje – unikajmy tych pierwszych do ostatniego etapu pracy!
Zasada 3 mówi o tym, że należy unikać konwersji barw . Ale czyż nie o to chodzi w Photoshopie? Jakże inaczej mamy się przekonać co wyjdzie na wydruku, jeśli nie skonwertujemy zdjęcia z RGB do np. CMYK? W Photoshopie, i w zarządzaniu barwą ogólnie, kładzie się silny nacisk na unikanie zbędnych konwersji i opóźnianie ich do ostatnich stadiów obróbki.
Podczas każdej konwersji, np. z AdobeRGB do RGB drukarki, istnieje realne zagrożenie nieodwracalnej straty barw na zdjęciu, a co za tym idzie degradacja jego jakości. Photoshop jest oczywiście w stanie dokonać optymalnie takiej konwersji, co zmieni wartości RGB każdego piksela na zdjęciu. Ale Photoshop ma także o wiele lepsze rozwiązanie – potrafi zasymulować efekt wynikowy konwersji bez jej dokonywania (próba ekranowa, ang. softproofing) . Dzięki temu możemy zobaczyć na ekranie monitora symulację wydruku bez degradującej operacji na samym zdjęciu. Jeśli efekt nas nie zadowala – możemy kontynuować pracę na pełnym zakresie barw.
Zakończenie - Naprawdę dobrnąłeś aż tutaj? Szczere gratulacje i dzięki, że zechciałeś nas wysłuchać. Jeśli chcesz wiedzieć więcej, to szczerze polecamy książki wymienione na początku. Jeśli czegoś nie rozumiesz, lub masz wątpliwości, to proszę pytaj. Postaramy się odpowiedzieć na każde pytanie. Oczywiście w miarę naszej wiedzy.
Zamierzamy napisać drugą część poruszającą nieco szerzej zagadnienia związane z obróbką barwną w Photoshopie. Mamy nadzieję, że ukaże się niebawem.
Janusz Body & Duty