Tomku, trochę zakręciłeś mi w głowie, napisałeś:

'Monitory (takie normalne) nie wyświetlają 16bitowych dokumentów, tylko je przybliżają do 8bitowych (większość nawet dobrze nie wyświetli pełnych 8 bitów). Jakkolwiek poziomy jasności w tym dokumencie są wyrażone liczbami od 0 do 65535. (2^16-1)'
Nie rozumiem w jakim sensie monitory nie wyświetlają 16tu bitów. Czyli "czego" z owych 16tu bitów nie widać na monitorze? Ponieważ różnicy między 8 a 16 upatrywałem nie w tym co jest na ekranie a czego niema, ale w subtelności przejść tonalnych. Jeśli się mylę, to proszę o sprostowanie.

Piszesz że JPEG może mieć teoretycznie 16,7 mln kolorów, co wynika z ~256 poziomów na kanał? Czy dobrze rozumiem?

Ponadto strata jakości w JPG jest spowodowana samym algorytmem - to jest po prostu kompresja stratna, lekko zniekształca obraz. Ustaw niską jakość jpg to zobaczysz to wyraźnie.
Tu uściślam, chodziło mi o JPEGi najwyższej jakości, czy taki plik już zawiera stratę jakości, czy jest ona niewidoczna, do momentu w którym bierzemy się za obrabianie? Piszesz że jest to poprostu kompresja stratna, no właśnie, czyli co powoduje tą stratę? Przejście z 12 na 8 bitów (przypominam chodzi o najcięższe JPEGi), czyli porzucenie takiej ilości poziomów, które i tak są nierozpoznawalne dla ludzkiego oka?

Dzięki za odpowiedź. Mam nadzieję że doczekam się następnej. Pozdrawiam.