Reverb to procesor, który zdecydowanie kojarzy się z przekształcaniem przestrzeni w nagraniu dźwiękowym. Tak naprawdę, pogłos, czyli właśnie reverb, pozwala symulować akustykę różnych pomieszczeń – od małego pokoju, przez salę koncertową, aż po ogromną katedrę. W miksie muzycznym czy postprodukcji dźwięku, stosuje się go po to, żeby nadać nagraniu głębię, przestrzeń i pewnego rodzaju naturalność. Często, gdy słuchasz wokalu, który wydaje się być "blisko" lub "daleko" – to właśnie zasługa odpowiednio ustawionego reverbu. Moim zdaniem, reverb to jedno z najważniejszych narzędzi inżyniera dźwięku, bo bez tego wszystko brzmiałoby nienaturalnie, sucharowo, bez atmosfery. W branży istnieje nawet powiedzenie, że "bez pogłosu nie ma emocji". Ważne jest też to, że reverbu używa się nie tylko do wokali, ale też do instrumentów – perkusji, gitar, smyczków, praktycznie wszystkiego. W profesjonalnych studiach stosuje się najróżniejsze algorytmy pogłosowe – od sprężynowych przez płytowe, po cyfrowe typu convolution. Sztuką jest nie przesadzić, bo zbyt dużo reverbu może zamulić miks, ale odrobina – często robi robotę. Praktycznie każdy DAW oferuje kilka rodzajów reverbów, a niektóre klasyczne urządzenia pogłosowe stały się wręcz legendarne w brzmieniu muzyki. Branżowym standardem jest używanie różnych typów reverbu w zależności od sytuacji – czasem krótkiego, czasem długiego, czasem tylko na jeden instrument. Moim zdaniem reverb to totalna podstawa jeśli chodzi o budowanie przestrzeni w muzyce czy filmie.
Często spotyka się pewne nieporozumienia odnośnie działania różnych procesorów audio, bo ich nazwy brzmią dość technicznie i mogą się mylić, zwłaszcza gdy ktoś dopiero zaczyna przygodę z produkcją dźwięku. Pitch correction, czyli korekcja wysokości dźwięku, służy do poprawiania intonacji – np. jeśli wokalista fałszuje, to taki procesor potrafi, że tak powiem, "wyprostować" melodię. Zdarza się, że ludzie mylą pitch correction z efektami przestrzennymi, bo czasami podczas korekcji wysokości powstają artefakty, które mogą brzmieć nienaturalnie, ale to nie ma nic wspólnego z przestrzenią w sensie akustycznym. Time stretch to natomiast narzędzie do zmiany długości fragmentu audio bez wpływania na wysokość dźwięku albo na odwrót – zmiana tempa, nie zmieniając tonu. Często używany przy edycji wokali, loopów albo podkładów perkusyjnych. Ktoś może pomyśleć, że jeśli wydłużamy dźwięk, to jakoś "rozciągamy przestrzeń", ale to raczej zmiana czasu trwania, a nie środowiska akustycznego. Invert phase (odwrócenie fazy) brzmi bardzo technicznie i faktycznie jest używane – głównie w sytuacjach, gdy trzeba rozwiązać problemy z zanikiem dźwięku lub niepożądanymi efektami fazowymi, na przykład przy rejestracji perkusji mikrofonami stereo. Jednak nie ma to żadnego związku z kreowaniem przestrzeni – to czysto techniczne narzędzie. Najczęstszy błąd myślowy tu polega na tym, że osoba początkująca szuka słowa, które "coś zmienia" w dźwięku i automatycznie kojarzy takie procesory z przestrzenią, choć ich faktyczna rola jest zupełnie inna. W rzeczywistości, tylko reverb daje możliwość symulowania pomieszczeń i akustyki, co jest podstawą budowania przestrzeni w miksie audio. To taki trochę niewidzialny aktor – nie zawsze go słychać bezpośrednio, ale jak go zabraknie, wszystko brzmi płasko i sztucznie. W branży muzycznej i filmowej reverb uznaje się za podstawowe narzędzie, jeśli chodzi o manipulację przestrzenią, a pozostałe wymienione tu procesory mają zupełnie inne funkcje.