Prawidłowo – opis dotyczy interpolacji. W grafice rastrowej interpolacja to właśnie proces wyliczania wartości nowego piksela na podstawie sąsiadujących pikseli. Mówiąc po ludzku: program „zgaduje” kolor brakującego piksela, patrząc na to, co jest obok, ale robi to według określonych, matematycznych reguł, a nie na chybił trafił. Najczęściej spotkasz interpolację przy skalowaniu obrazów – na przykład kiedy powiększasz zdjęcie w Photoshopie, GIMP‑ie czy w programie do obróbki zdjęć w aparacie lub telefonie. Standardowe metody to interpolacja najbliższego sąsiada (nearest neighbor), dwuliniowa (bilinear) i bikubiczna (bicubic). Każda z nich inaczej liczy wartości nowych pikseli i daje trochę inny efekt: od ostrego, ale „pikselowego” obrazu, po bardziej wygładzony, miękki. W praktyce, przy powiększaniu fotografii do druku czy na stronę www, wybór metody interpolacji ma duże znaczenie dla jakości – branżowym standardem w edycji zdjęć jest zazwyczaj interpolacja bikubiczna, bo daje najbardziej naturalne przejścia tonalne. Interpolacja pojawia się też przy obracaniu, perspektywie, korekcjach geometrii, a nawet przy zmianie rozdzielczości w kamerach i skanerach. Moim zdaniem warto kojarzyć, że wszędzie tam, gdzie zmieniasz rozmiar lub kształt obrazu rastrowego i pojawia się potrzeba „dorysowania” nowych pikseli, w tle działa właśnie jakiś algorytm interpolacji. To jest jedna z podstawowych technik w przetwarzaniu obrazu cyfrowego i absolutny fundament w pracy z grafiką rastrową.
W tym pytaniu łatwo pomylić kilka pojęć z grafiki komputerowej, bo wszystkie są w jakiś sposób związane z obrazem cyfrowym, ale tylko jedno dotyczy dokładnie tworzenia nowego piksela na podstawie sąsiadów. Kompresja kojarzy się wielu osobom z „przeliczaniem” obrazu, bo podczas zapisu do JPG czy PNG dane są analizowane i zmieniane. Jednak celem kompresji jest zmniejszenie rozmiaru pliku, a nie wyliczanie nowych pikseli w przestrzeni obrazu. Kompresja może usuwać informacje (kompresja stratna, jak JPEG) albo je tylko efektywniej zapisywać (bezstratna, jak PNG), ale sama w sobie nie zajmuje się wstawianiem dodatkowych pikseli pomiędzy istniejące. Rasteryzacja z kolei to przekształcenie grafiki wektorowej (linie, krzywe, obiekty) na siatkę pikseli. Czyli przejście z opisu matematycznego do obrazu rastrowego. W tym procesie też powstają piksele, ale nie są one liczone „na podstawie sąsiadów”, tylko na podstawie równań opisujących kształty. To inny etap pracy – najpierw rasteryzujemy, a dopiero potem, przy zmianie rozmiaru czy obracaniu, wchodzi w grę interpolacja. Digitalizacja natomiast to zamiana sygnału analogowego na cyfrowy, na przykład skanowanie zdjęcia papierowego albo przechwytywanie obrazu z kamery. Podczas digitalizacji czujnik odczytuje natężenie światła i zamienia je na wartości liczbowe. Owszem, w bardziej zaawansowanych systemach mogą pojawiać się dodatkowe algorytmy poprawy jakości, ale sam podstawowy proces digitalizacji to próbkowanie i kwantyzacja, a nie dokładanie nowych pikseli na bazie sąsiednich wartości. Typowym błędem myślowym jest wrzucanie do jednego worka każdej operacji, gdzie obraz jest „przeliczany” albo „zmieniany”. Warto oddzielić pojęcia: kompresja dotyczy rozmiaru pliku, rasteryzacja – przejścia wektor→raster, digitalizacja – analog→cyfra. Dopiero interpolacja ma w definicji to, o co chodziło w pytaniu: tworzenie nowych pikseli na podstawie istniejących w sąsiedztwie, szczególnie przy skalowaniu, obracaniu czy innych transformacjach obrazu rastrowego.