Trochę nieświeży temat, ale zawsze warto wyjaśnić: z tego co czytałem wynika, że pomijanie brzegowych pikseli matrycy pozwala uprościć logikę przetwarzania informacji z nich czerpanych.
W algorytmach przetwarzania obrazów (np. filtrach splotowych, jakimi sa np. rozmycie, wyostrzenie) istnieje problem traktowania obszarów brzegowych, maska filtra (a więc obszar obrazu z którego informacji filtr korzysta dla obliczenia nowej wartości danego piksela) może wychodzić poza obraz. Problem ten w programach graficznych rozwiązuje sie na wiele sposób, np. powiela brzegowe piksele, dokleja się lustrzane odbicie krawędzi obrazu, zmienia dynamicznie rozmiar maski, etc.
Takie podejście, choć skuteczne, jest skomplikowane. W aparatach dla szybkości przetwarzania stosuje sie specjalizowane układy logiczne, które przetwarzanie obrazu realizują sprzętowo. Powierzchnia układu scalonego kosztuje, do tego im prostszy algorytm tym prostsza a zatem równiesz szybsza będzie jego realizacja sprzętowa. Z tego powodu problem krawędzi rozwiązuje się w najprostszy (w programach graficznych nie stosowany z oczywistych względów) sposób - pominięcie pikseli znajdujących się na krawędziach matrycy. Matryca ma zapas pikseli, te na krawędziach na ostateczny obraz same w sobie nie trafią, ale zagwarantują prawidłowe działanie algorytmu interpolacji. Ileż to upraszcza! Lecimy tymi samymi obliczeniami po wszystkich "efektywnych" pikselach, nie ma żadnych specjalnych przypadków przy krawędziach obrazu, żadnych alternatywnych wariantów i rozróżnień. Nigdy nie zdarzy się, że dla któregoś przetwarzanego piksela mamy dane tylko o jego otoczeniu z prawej dolnej strony, czy też tylko na prawo od niego.
Komputery nie muszą przerabiać materiału z matrycy w błyskawicznym tempie, a i procesor może robić wszystko, stąd twórcy wywoływaczy RAWów mogą sobie pozwolić na przetwarzanie danych z całej matrycy, a nie tylko dla "efektywnych" pikseli. Rozpatrywanie brzegów po prostu nie kosztuje tyle na komputerze, co w aparacie.