Prawidłowa odpowiedź to „Bandwidth control”, bo właśnie ta funkcja w przełącznikach zarządzalnych służy do precyzyjnego sterowania przepustowością pojedynczych portów. Mówiąc prościej: możesz każdemu portowi „przykręcić kurek” albo go trochę poluzować, ustawiając maksymalną prędkość, z jaką host może wysyłać lub odbierać dane. W praktyce robi się to np. w Mbps albo kbit/s, często osobno dla ruchu wychodzącego (egress) i przychodzącego (ingress). W porządniejszych switchach jest to realizowane jako traffic shaping lub rate limiting z wykorzystaniem kolejek i token bucket, zgodnie z typowymi mechanizmami QoS. W prawdziwych sieciach to nie jest teoria z książki. Na przykład w sieci szkolnej albo firmowej ograniczasz porty, do których podpięte są komputery uczniów lub zwykłych pracowników, żeby jeden użytkownik ściągający gry czy filmy nie zajął całego łącza. Możesz ustawić, że porty biurowe mają np. 10 Mb/s, a porty serwerowe 1 Gb/s bez ograniczeń. Często ustawia się też limit na portach przeznaczonych dla gości (guest VLAN), żeby ruch gościnny nie „zabił” krytycznych aplikacji. Z mojego doświadczenia bandwidth control jest jednym z podstawowych narzędzi do realizacji polityki QoS na brzegu sieci, szczególnie tam, gdzie nie ma zaawansowanych routerów. Dobrą praktyką jest łączenie kontroli przepustowości z VLAN-ami i klasyfikacją ruchu, tak żeby ważne usługi (np. VoIP, ERP) miały priorytet i odpowiednie pasmo. W dokumentacjach producentów (Cisco, HP, Mikrotik, TP-Link) ta funkcja może się nazywać np. „Rate Limit”, „Ingress/Egress Bandwidth Control” czy „Traffic Shaping”, ale idea jest ta sama: kontrola maksymalnej przepustowości na poziomie portu. Warto też pamiętać, że jest różnica między samą prędkością fizyczną portu (np. 1 Gb/s) a limitem nałożonym programowo. Port może fizycznie być gigabitowy, a logicznie ograniczony do 50 Mb/s. To właśnie daje elastyczność zarządzalnego przełącznika i pozwala dopasować sieć do polityki firmy, a nie odwrotnie.
W tym pytaniu łatwo się pomylić, bo wszystkie wymienione funkcje faktycznie występują w przełącznikach zarządzalnych, ale pełnią zupełnie inne role niż kontrola przepustowości pojedynczych portów. Dobrym podejściem jest zawsze zadać sobie pytanie: czy ta funkcja realnie ogranicza lub przydziela pasmo na danym porcie, czy raczej robi coś „obok” tego tematu. IP Security kojarzy się z bezpieczeństwem i często z IPsec, więc intuicyjnie można pomyśleć, że skoro coś jest związane z bezpieczeństwem, to może też kontrolować ruch. W praktyce IPsec dotyczy szyfrowania, uwierzytelniania i integralności pakietów IP, głównie na routerach i firewallach, a nie precyzyjnego ustawiania limitów przepustowości na portach switcha. Nawet jeśli ruch jest szyfrowany, jego prędkość dalej trzeba kontrolować innymi mechanizmami, typowo QoS i bandwidth control. Port Mirroring to z kolei funkcja diagnostyczna. Służy do kopiowania ruchu z jednego lub kilku portów na inny port, do którego podłączony jest analizator, np. Wireshark albo sprzętowy sniffer. Używa się tego przy debugowaniu problemów w sieci, analizie bezpieczeństwa czy monitoringu wydajności. To, że ruch jest kopiowany, nie oznacza, że mamy nad nim kontrolę przepustowości. Port Mirroring niczego nie ogranicza, tylko duplikuje pakiety, co w skrajnych przypadkach może nawet zwiększyć obciążenie przełącznika. Link aggregation (LACP, port trunking) wygląda pozornie jak coś od przepustowości, bo faktycznie zwiększa łączną przepustowość między urządzeniami, łącząc kilka portów fizycznych w jeden logiczny kanał. Ale to jest skalowanie przepustowości na łączu między urządzeniami, a nie limitowanie pojedynczego portu wobec podłączonego hosta. Dobre praktyki mówią, że agregację stosuje się głównie między przełącznikami, przełącznikiem a serwerem lub macierzą, żeby uzyskać większą redundancję i sumaryczne pasmo. Nadal jednak nie masz tam mechanizmu typu „ten port maksymalnie 10 Mb/s”. Typowym błędem myślowym jest wrzucanie do jednego worka wszystkiego, co „jakoś dotyczy ruchu”: bezpieczeństwo, monitorowanie, agregacja i QoS. Tymczasem kontrola przepustowości portu to bardzo konkretna funkcjonalność, która realizuje się przez bandwidth control/rate limiting, często w ramach polityk QoS. Jeśli pytanie mówi wprost o „kontroli przepustowości każdego z wbudowanych portów”, to chodzi o możliwość ustawienia limitu pasma na poziomie pojedynczego portu, a nie o szyfrowanie, kopiowanie ruchu czy łączenie kilku portów w jeden logiczny kanał.