To jest właśnie ten wzór, który funkcjonuje jako standard w branży IT oraz elektroniki użytkowej. Parametr PPI (czyli pixels per inch) pozwala określić, jak szczegółowy będzie wyświetlany obraz – innymi słowy, ile pikseli przypada na jeden cal przekątnej ekranu. Wzór bierze się z geometrii prostokąta: szerokość (a) i wysokość (b) ekranu w pikselach tworzą prostokąt, więc przekątną w pikselach liczymy z twierdzenia Pitagorasa jako pierwiastek z (a^2 + b^2). Potem tę długość przekątnej w pikselach dzielimy przez długość przekątnej ekranu w calach (x), co daje nam liczbę pikseli na cal – czyli właśnie PPI. Praktycznie dzięki temu wskaźnikowi możemy porównywać ostrość obrazu między różnymi monitorami, laptopami czy smartfonami. Moim zdaniem warto to znać, bo w codziennej pracy czy przy zakupie sprzętu łatwiej wtedy ocenić, czy obraz będzie wystarczająco ostry, czy może jednak piksele będą widoczne gołym okiem. Z mojego doświadczenia producenci sprzętu często podkreślają wysokie PPI jako atut, zwłaszcza w kontekście wyświetlaczy Retina czy AMOLED. Dobrze też wiedzieć, że im wyższe PPI, tym więcej szczegółów zobaczymy, co jest ważne np. dla grafików, fotografów czy po prostu miłośników technologii. Przy projektowaniu interfejsów użytkownika, znajomość PPI pozwala unikać błędów z nieostrymi ikonami albo zbyt małą czcionką. Branżowe normy, np. Apple, uznają za 'Retina' wyświetlacze powyżej 300 PPI – to daje wyobrażenie, jak realnie stosuje się ten parametr.
Wzory zawierające samo dodawanie lub dzielenie a^2 i b^2 bez pierwiastka mają pewną intuicję z geometrii, ale nie odzwierciedlają rzeczywistego pomiaru przekątnej w pikselach. Wynika to z tego, że liczba pikseli na przekątnej ekranu, która jest kluczowa do wyznaczenia PPI, obliczana jest zawsze przez zastosowanie twierdzenia Pitagorasa. Próba podzielenia sumy kwadratów szerokości i wysokości przez długość przekątnej (czy to w calach czy w calach podniesionych do kwadratu) nie ma sensu fizycznego – jednostki się wtedy nie zgadzają, a wynik nie oddaje rzeczywistego zagęszczenia pikseli. Często spotykany błąd to myślenie, że wystarczy podzielić liczbę pikseli w poziomie lub pionie przez odpowiedni wymiar, ale przecież ekrany mają różne proporcje i to przekątna jest jedynym sensownym punktem odniesienia. Zdarza się też, że ktoś myli wzór na pole prostokąta (gdzie mnożymy długość i szerokość) z długością przekątnej – a do PPI liczy się właśnie przekątna, bo to na niej opiera się calowa miara. Użycie wzoru bez pierwiastka sugeruje brak uwzględnienia zależności geometrycznych, co prowadzi do zupełnie błędnych wartości. W praktyce, ignorowanie pierwiastka oznacza, że otrzymany wynik nie odzwierciedli rzeczywistej liczby pikseli przypadających na cal długości przekątnej. W branży przyjmuje się wyłącznie wzór wykorzystujący pierwiastek z sumy kwadratów liczby pikseli w poziomie i pionie, aby dokładnie wyliczyć rozdzielczość przestrzenną. Tak naprawdę, tylko stosując tę metodę, można porównywać komfort pracy czy jakość obrazu pomiędzy różnymi urządzeniami bez ryzyka błędnych wniosków. Warto wyrobić sobie nawyk sprawdzania i rozumienia tego wzoru, bo w świecie sprzętu komputerowego czy nawet podczas projektowania grafiki komputerowej, prawidłowa interpretacja PPI jest kluczowa do uzyskania optymalnego efektu wizualnego.