Efekt AutoDuck dokładnie robi to, co opisuje poprawna odpowiedź: automatycznie ścisza dźwięk w tle (np. muzykę), gdy pojawia się dźwięk pierwszoplanowy, zwykle głos lektora lub prowadzącego. W praktyce wygląda to tak, że masz dwie ścieżki: na jednej mówiony komentarz, na drugiej muzykę w tle. AutoDuck „podgląda” poziom głośności ścieżki z głosem i gdy wykryje, że ktoś zaczyna mówić, automatycznie obniża poziom głośności ścieżki z muzyką o zadaną liczbę decybeli. Kiedy mówienie się kończy, muzyka wraca płynnie do poprzedniego poziomu. To jest klasyczny przykład tzw. duckingu, bardzo często stosowany w radiu, podcastach, vlogach, prezentacjach wideo, a nawet w prostych materiałach szkoleniowych. Z mojego doświadczenia to jedna z tych funkcji, które naprawdę oszczędzają czas – zamiast ręcznie rysować obwiednię głośności, ustawiasz próg zadziałania, czas narastania i opadania (attack/release) oraz głębokość tłumienia. Dobre praktyki mówią, żeby nie przesadzać z tłumieniem tła – zwykle wystarcza w okolicach 10–18 dB, tak żeby głos był czytelny, ale muzyka nadal była słyszalna. Ważne jest też ustawienie odpowiednio długiego „release”, żeby muzyka nie „podskakiwała” nerwowo pomiędzy pauzami w mowie. W narzędziach typu Audacity, Adobe Audition czy Reaper AutoDuck (lub sidechain ducking) jest standardowym narzędziem w pracy z multimediami na potrzeby internetu: spoty reklamowe, intro do kanałów YouTube, kursy e-learningowe – wszędzie tam, gdzie chcesz, żeby głos był zawsze na pierwszym planie, a tło samo się grzecznie cofa, gdy ktoś coś mówi.
W obróbce dźwięku łatwo pomylić różne efekty, bo większość z nich w jakiś sposób wpływa na głośność lub charakter brzmienia. AutoDuck jednak ma bardzo konkretne zastosowanie: automatyczne ściszanie tła, gdy pojawia się dźwięk pierwszoplanowy, najczęściej głos. To nie jest efekt „upiększający” czy „naprawiający” brzmienie, tylko typowo użytkowy mechanizm sterowania poziomem głośności między dwoma ścieżkami. Częsty błąd myślowy polega na tym, że wszystko, co „robi coś z głośnością”, wrzuca się do jednego worka. Ocieplenie głosu kojarzy się raczej z korekcją barwy (equalizer – podbicie niskich i niższych średnich częstotliwości) albo z delikatną kompresją, ewentualnie z efektami typu saturacja czy emulacja lampowa. AutoDuck niczego nie „ociepla”, on tylko zmniejsza poziom innej ścieżki, reagując na sygnał pierwszoplanowy. Podobnie z wyrównywaniem głośności całej ścieżki – od tego są kompresory, limitery, normalizacja czy tzw. loudness matching zgodny z normami EBU R128 lub ITU-R BS.1770. Te narzędzia analizują lub przetwarzają pojedynczą ścieżkę, żeby jej poziom był bardziej równy w czasie. AutoDuck działa relacyjnie: jedna ścieżka kontroluje głośność drugiej. Jeśli chodzi o eliminację szumów, tym zajmują się zupełnie inne algorytmy: redukcja szumów, bramki szumów (noise gate), filtry dolno- lub górnoprzepustowe, narzędzia typu DeNoise. Szum się tam analizuje i usuwa lub tłumi, najczęściej w oparciu o profil szumu albo próg głośności. AutoDuck nie rozpoznaje szumu ani nie czyści nagrania, tylko mechanicznie ścisza tło, gdy pojawia się ważniejszy sygnał. W produkcji multimediów na strony WWW czy do e-learningu dobrą praktyką jest łączenie kilku technik: najpierw oczyszczenie głosu z szumów i ustawienie jego stałego poziomu kompresją, a dopiero potem zastosowanie duckingu na muzyce w tle. Dzięki temu materiał brzmi profesjonalnie, a słuchacz nie musi walczyć z niedosłyszalnym komentarzem przykrytym za głośną muzyką.