Poprawnie wskazana odpowiedź dotyczy najważniejszej zalety fotografowania w formacie RAW: aparat zapisuje maksymalnie możliwą ilość informacji z matrycy, w możliwie surowej postaci. RAW to w praktyce „cyfrowy negatyw” – plik zawiera dane bez agresywnej kompresji stratnej, bez trwałego narzucenia balansu bieli, kontrastu, wyostrzania czy mocnej redukcji szumów. Oznacza to, że masz dużo większą swobodę w późniejszej obróbce w programach takich jak Adobe Lightroom, Camera Raw, Capture One czy nawet darmowy RawTherapee. Z technicznego punktu widzenia RAW zwykle przechowuje więcej bitów na kanał (np. 12 lub 14 bitów, czasem 16), podczas gdy JPEG ma standardowo 8 bitów na kanał. Przekłada się to na znacznie większą rozpiętość tonalną – łatwiej odzyskać szczegóły w cieniach i światłach, skorygować prześwietlenia, podnieść ekspozycję o 1–2 EV bez natychmiastowego pojawienia się paskudnych artefaktów. Z mojego doświadczenia, przy reportażu ślubnym czy fotografii krajobrazowej RAW dosłownie ratuje ujęcia, które w JPEG-u byłyby już „spalone” albo kompletnie zbyt ciemne. W praktyce zawodowej przyjmuje się zasadę: jeśli zdjęcie ma iść do poważnej obróbki, druku, publikacji komercyjnej – fotografuj w RAW (albo RAW+JPEG). JPEG zostawia się raczej na szybkie zdjęcia do internetu, dokumentację, sytuacje, gdzie liczy się głównie mały rozmiar pliku i szybkość. W branży foto RAW jest standardem w fotografii reklamowej, modowej, produktowej, a także w pracy retuszerów. Pozostałe odpowiedzi opisują zjawiska niezależne od samego formatu zapisu: głębia ostrości wynika z parametrów optycznych i ekspozycji, aberracja chromatyczna z konstrukcji obiektywu, a odbitki z negatywu dotyczą technologii analogowej, nie cyfrowej.
W tym pytaniu łatwo dać się złapać na skojarzenia, które brzmią sensownie, ale nie mają związku z samym formatem RAW. Najważniejsze jest zrozumienie, że RAW to sposób zapisu danych z matrycy, a nie magiczne ustawienie poprawiające cechy optyki czy właściwości fizyczne obrazu. Głębia ostrości zależy głównie od trzech czynników: ogniskowej obiektywu, wartości przysłony i odległości od fotografowanego obiektu. Format zapisu pliku (RAW, JPEG, HEIF itd.) w ogóle nie ingeruje w to, jak wygląda rozmycie tła czy jak szeroki jest obszar ostrości. Aparat najpierw rejestruje obraz na matrycy przy zadanych parametrach ekspozycji, a dopiero potem decyduje, w jakim formacie dane zostaną zapisane. Więc oczekiwanie, że RAW „zwiększy głębię ostrości”, to typowy błąd myślenia: mylenie procesu rejestracji optycznej z procesem zapisu cyfrowego. Podobnie jest z aberracją chromatyczną. To wada optyczna obiektywu, wynikająca z tego, że różne długości fal światła są inaczej załamywane w szkłach. Format pliku nie powoduje jej powstania. Co najwyżej, przy RAW łatwiej ją potem skorygować w programie graficznym, bo mamy więcej informacji o kolorach i tonach. Ale sam fakt fotografowania w RAW nie sprawi, że aberracja się nagle pojawi albo zniknie – ona jest już obecna na obrazie padającym na matrycę. Ostatnie skojarzenie, czyli konieczność wykonywania odbitek z negatywu, pochodzi z epoki fotografii analogowej. Tam pracowało się na filmie (negatywie), z którego w ciemni wykonywało się odbitki na papierze światłoczułym. RAW bywa nazywany „cyfrowym negatywem”, ale to tylko metafora. Nie robimy z niego klasycznych odbitek chemicznych – zapisujemy go na dysku, obrabiamy cyfrowo, a potem ewentualnie wysyłamy do labu lub drukarki. Pomylenie RAW z fizycznym negatywem prowadzi do błędnego wniosku, że obowiązkowo trzeba przechodzić przez jakieś analogowe etapy. W rzeczywistości RAW to po prostu najbogatsza, najmniej przetworzona forma cyfrowego zapisu danych z matrycy, dająca największą elastyczność w postprodukcji, i tylko o to w tym pytaniu chodziło.