Wybrałeś właściwą odpowiedź, bo rzeczywiście – im wyższy stopień kompresji stosujemy na materiale dźwiękowym, tym bardziej pogarsza się jego jakość. To jest taki typowy kompromis, z którym każdy kto pracuje z dźwiękiem musi się liczyć. Kompresja – szczególnie ta stratna, jak w formatach MP3, AAC czy OGG – polega na usuwaniu części informacji dźwiękowych, które uznawane są za mniej istotne dla ucha ludzkiego. Jednak w praktyce, jeśli mocno „przyciskasz” bitrate, to zaczynają pojawiać się artefakty, szumy albo dźwięk staje się taki „płaski” i mniej wyrazisty. Z mojego doświadczenia, różnicę da się usłyszeć już przy słuchaniu muzyki na lepszych słuchawkach albo głośnikach – nagle brakuje przestrzeni czy detali. Dlatego w profesjonalnych studiach używa się formatów bezstratnych, jak WAV czy FLAC, żeby zachować pełną jakość. Oczywiście, kompresja ma sens, jeśli chodzi o oszczędność miejsca na dysku czy szybki transfer w sieci, ale zawsze trzeba pamiętać, że coś za coś. W praktyce branżowej standardem jest dobieranie takiego stopnia kompresji, żeby znaleźć złoty środek między jakością a wielkością pliku – np. dla streamingu muzyki często stosuje się 128–320 kbps, chociaż już dla archiwum czy masteringu lepiej używać plików bez kompresji. Jeżeli zależy nam na najwyższej jakości, to im mniej kompresji, tym lepiej dla końcowego brzmienia.
Wielu osobom wydaje się, że wyższy stopień kompresji może mieć różne skutki dla dźwięku, ale w rzeczywistości chodzi tutaj głównie o relację między kompresją a jakością. Zacznijmy od kwestii liczby kanałów – kompresowanie pliku audio nie wpływa na ilość kanałów (mono, stereo, 5.1 itd.), tylko na to, jak bardzo dane audio jest „upakowane” i ile informacji zostaje zachowanych. Zwiększenie stopnia kompresji absolutnie nie powoduje, że nagle audio robi się np. wielokanałowe – to zupełnie inne zagadnienie, wynikające z procesu miksowania i masteringu, a nie z kompresji pliku. Z kolei pomysł, że rośnie liczba kanałów lub że kompresja poprawia jakość, też jest mylący. Często spotykam się z opinią, że skoro mamy nowe, bardziej „zaawansowane” formaty, to kompresja powinna poprawiać dźwięk, ale w praktyce jest odwrotnie – kompresja stratna polega na celowym usuwaniu pewnych informacji, co zawsze odbywa się kosztem jakości. To trochę jak kopiowanie zdjęcia w niskiej rozdzielczości – niby widać obrazek, ale tracisz ostrość i detale. Tak samo w audio: mniej danych oznacza ubytek detali, subtelności, przestrzenności. Branżowo uznaje się, że pliki skompresowane stratnie powinny być używane tam, gdzie liczy się rozmiar, szybkość transferu czy oszczędność miejsca – np. w streamingu lub telefonii. Jeśli jednak priorytetem jest jakość – do masteringu, archiwizacji, produkcji muzyki – zawsze korzysta się z formatów bezstratnych albo minimalnie kompresowanych. Moim zdaniem największym błędem jest myślenie, że kompresja może polepszyć brzmienie – to raczej kwestia inżynierii dźwięku, a nie algorytmów kompresji. Prawidłowe zrozumienie tych zależności jest bardzo ważne w praktyce zawodowej i pozwoli uniknąć typowych błędów przy pracy z plikami audio.