A do jakich?!? Oczywiście, że powstał!
Przykładowo: możesz w nim zapisać, że jedna składowa zaczyna się od 0,0 (lewy górny róg), druga od 0,1, trzecia od 1,0, ponadto, że dwie ostatnie są 2x rzadsze niż pierwsza i już masz Bayera.
Spójrzmy na to tak: 1D MkIII - RAW - 30 klatek do zapchania bufora, JPEG - 100 klatek. Czyli mimo, że obrabiasz dane w torze JPG, masz nadal 10kl/s ale 3x więcej klatek w serii. Robiąc lepszego RAWa (dajmy już spokój samemu J2K - alergenny jakiś ten standard) dostałbyś - zaryzykuję - 60 klatek. Spytasz dlaczego tak nie robią? Do powodów podanych w poprzednich postach dodałbym jeszcze jeden - nie ma aż tylu chętnych, żeby opłaciło się wprowadzać dużym kosztem R&D baardzo nowy standard, skoro można, korzystając z ulepszanej wciąż technologii produkcji układów scalonych, pykać po dwie, trzy klatki więcej w każdym nowym Mkxx, a ludziska i tak będą z zachwytu piać. Tak zresztą piszesz sam poniżej:
Gdzie byłeś jak wprowadzali JPG?! Na pewno by go nie było przy takim nastawieniu (ja mam coś i mi to wystarcza, i koniec).
Poza tym można mieć ciastko i je zjeść: mieć szybsze pamięci, procesory, karty i większe matryce, i jednocześnie jeszcze więcej zdjęć (zrobionych i zapamiętanych). Przecież nie napiszesz, że "imho bez sensu jest wprowadzać nowy Digic IV, czy Extreme V, tylko dlatego, że działają 10% szybciej", nie?
Oczywiście, że niebo kompresuje się lepiej niż - nie przymierzając - trawa na boisku albo drzewa na tle tegoż nieba; to był przykład na to, żeby nie kompresować jak leci, tylko wykorzystać to, że wiemy, gdzie i jak umieszczone są filtry. Tak jak JPG umiejętnie kompresuje YCC a nie RGB.
No i spójrz teraz na to jeszcze z punktu widzenia archiwisty... albo gości od HCS w astronomii, czy biologii...