Rozwój platformy SPACEHUB Producer od CODA Audio

4 godzin temu

CODA Audio, jako europejski producent zintegrowanych systemów nagłośnieniowych, od lat konsekwentnie rozwija rozwiązania, w których mechanika, akustyka i przetwarzanie sygnału tworzą spójny, kontrolowalny ekosystem. Naturalną konsekwencją tej filozofii jest procesor immersyjny SPACE HUB – serce systemu przestrzennego, który łączy obiektowy miks 3D, zaawansowane algorytmy renderowania oraz ścisłą integrację z infrastrukturą audio over IP. Wokół tego urządzenia zbudowano kompletne środowisko systemu SPACE HUB, obejmujące zarówno warstwę silnika przetwarzania, jak i rozbudowany interfejs sterujący.

Najnowszym elementem tej rodziny jest SPACEHUB Producer – wersja software’owa silnika, działająca na komputerze użytkownika i oferująca praktycznie identyczne możliwości kreowania sceny dźwiękowej, co procesor hardware’owy, przy ograniczeniu liczby kanałów wyjściowych. Różnica pomiędzy procesorem SPACE HUB, a nowym SPACEHUB Producer sprowadza się w praktyce do fizycznej warstwy systemu: SPACE HUB to procesor immersyjny z matrycą do 128 obiektów × 128 wyjść i redundantnym Dante, natomiast Producer jest uruchamianym na komputerze środowiskiem software’owym, opartym na dokładnie tym samym silniku i interfejsie, ograniczonym jedynie do 128 obiektów × 16 wyjść. To oznacza, iż wszelkie funkcje związane z obiektowym miksem 3D, algorytmami panoramowania, zaawansowanym pogłosem, downmixem i integracją z systemami sterowania są w obu przypadkach takie same – różni się tylko skala i obecność hardware’u w szafie rack.

SPACEHUB Producer – pełna wersja silnika immersyjnego w wersji software
SPACEHUB Producer został opracowany jako „software first”: to pełny silnik SPACE HUB przeniesiony do komputera użytkownika, podzielony na dwa główne komponenty – SPACE HUB Engine (przetwarzanie audio) i SPACE HUB Control (interfejs sterujący). Engine obsługuje do 128 obiektów wejściowych, a następnie renderuje je na maksymalnie 16 kanałów wyjściowych – na interfejs audio, system odsłuchowy, małe nagłośnienie czy uczelniane laboratorium. W realnych projektach oznacza to możliwość przygotowania kompletnego miksu przestrzennego w studiu, na próbie stolikowej albo w małej sali – z pełną świadomością, iż później ta sama sesja będzie mogła zostać odtworzona na procesorze hardware’owym w dużej sali, bez zmiany filozofii pracy. Interfejs SPACE HUB Control w wersji Producer jest identyczny jak w pełnym systemie: widoki Objects, Snapshot, Orbits, Processing, Control, Groups, Reverb, Downmix, Speakers, okno 3D, mierniki i mikser – wszystko działa tak samo i operuje na tych samych parametrach.

Obiektowy miks 3D: pełna kontrola nad każdym źródłem – podstawą filozofii SPACE jest miks obiektowy. Każdy sygnał mono lub stereo staje się obiektem, opisanym nie tylko przez audio, ale również przez metadane: pozycję w przestrzeni, szerokość, odległość, wysyłki do LFE, udział w pogłosie.

Dostępne są m.in. następujące parametry obiektu:
– Azimuth – położenie w płaszczyźnie poziomej (–90° / +90° itd.),
– Elevation – wysokość (0° na poziomie uszu, do +90° nad głową),
– Distance – odległość obiektu od słuchacza, liczona w sferycznym układzie współrzędnych,
– Spread – regulowane rozmycie źródła,
– Stereo Width – niezależne poszerzanie bazy stereo dla sprzężonych obiektów,
– wysyłki LFE (LFE 1 i LFE 2),
– przypisanie do Orbit (trajektorie ruchu itd).

Taka struktura sprawia, iż w miksie nie myślimy w kategoriach „busów lewy/prawy”, ale „aktor, sekcja smyczków, ambience widowni, efekt przejazdu, głos lektora na balkonie” – każdy z własną logiką zachowania się w przestrzeni.

Algorytmy panoramowania – DBAP, VBAP, KNN i warstwowe „smaczki”
Jednym z najbardziej charakterystycznych elementów SPACEHUB Producer jest bogaty zestaw algorytmów renderowania przestrzennego, wybieranych osobno dla wszystkich obiektu. To nie jest jeden „uniwersalny algorytm, a użytkownik ma do dyspozycji cały zestaw narzędzi, które można dopasować do roli danego źródła.

Lista dostępnych algorytmów obejmuje:
– DBAP (Distance-Based Amplitude Panning) – domyślny algorytm, rozdzielający sygnał na wszystkie głośniki w zależności od odległości obiektu od poszczególnych zestawów. Doskonale skaluje się na nieregularnych i asymetrycznych układach, zapewnia płynny ruch bez „skoków” między głośnikami.
– VBAP (Vector Base Amplitude Panning) – klasyczny algorytm wektorowy, wykorzystujący trójki najbliższych głośników (azymut/elevacja). Świetnie sprawdza się przy gęstych, regularnych konfiguracjach; parametr Spread aktywuje dodatkowe wirtualne obiekty, poszerzając obraz.
– VBIP (Vector Base Intensity Panning) – odmiana zoptymalizowana pod kątem pasma wysokiego (powyżej ok. 700 Hz), z tą samą geometrią doboru głośników, ale innym sposobem liczenia wzmocnień.
– LBDBAP (Layer-Based DBAP) – autorski algorytm warstwowy, dostępny wyłącznie w SPACE HUB. Umożliwia zastosowanie DBAP w obrębie wybranej warstwy wysokości; dzięki temu można np. śledzić śpiewaka po scenie bez niezamierzonego „skakania” wokalu na głośniki sufitowe przy przejściu przez środek widowni.
– LBVBAP (Layer-Based VBAP) – VBAP budowany z poziomych warstw 2D, precyzyjnie interpolowanych w pionie pomiędzy sąsiednimi warstwami głośników.
– LBVBIP (Layer-Based VBIP) – warstwowa wersja VBIP, również zoptymalizowana dla pasma wysokiego.
– KNN (K-Nearest Neighbours) – algorytm oparty na koncepcji „K – najbliższych głośników”, z dwoma parametrami:
– K (per obiekt) – liczba głośników użytych do renderowania,
– KNN Max Distance (globalnie) – maksymalna odległość głośnika od obiektu, przy której pozostało brany pod uwagę.
– KNN, w zależności od ustawienia K, pozwala przejść płynnie od „skaczącego punktu” (K = 1) do zachowania zbliżonego do DBAP (K równy liczbie głośników) – co daje ogromny potencjał kreatywny i pozwala świadomie „rysować” charakter ruchu dźwięku w przestrzeni.

W praktyce daje to realizatorowi możliwość bardzo precyzyjnego dopasowania algorytmu do zadania: inny algorytm dla dialogu, inny dla efektów przelotowych, jeszcze inny dla ambientu czy chórów. Część popularnych systemów immersyjnych ogranicza użytkownika do jednej logiki panoramowania dla całej sceny – tutaj każdy obiekt może „myśleć” inaczej.

Orbits – trajektorie i kontrolowany „chaos” ruchu
Widok Orbits pozwala tworzyć i przypisywać obiektom trajektorie w pełnym 3D – zarówno deterministyczne, jak i losowe. Można zdefiniować konkretny tor ruchu (np. okrążenie widowni, spirala nad sceną), jak i strefę, w której system wprowadza delikatne, randomizowane zmiany położenia w czasie.

W efekcie:
– ambience może subtelnie „oddychać” w przestrzeni,
– efekty specjalne mogą wiarygodnie „krążyć” wokół widza, a to wszystko bez manualnego rysowania skomplikowanej automatyki w DAW.

To jest typ funkcji, która najczęściej w ogóle nie występuje w procesorach o mocno „konsoletowym” rodowodzie.

Zaawansowany silnik pogłosu 3D
Reverb w SPACEHUB Producer nie jest zwykłym, stereo-insertowym dodatkiem, ale dedykowanym silnikiem 3D, który uwzględnia zarówno położenie głośników, jak i obiektów. Dokumentacja opisuje go jako system, w którym można niezależnie kształtować trzy składowe ogona pogłosowego: Early, Cluster i Late diffuse, z pełnym zestawem parametrów czasowych i barwowych.

Do dyspozycji realizatora są m.in.:
– Decay oraz Decay Frequency Response – długość pogłosu z niezależnymi mnożnikami w czterech pasmach,
– Predelay,
– niezależne HPF / LPF dla części Early/Cluster i Late,
– Diffusion, Size, Modulation,
– balans przód–tył (FB Balance) i góra–dół (UD Balance) dla ogona pogłosowego,
– niezależne poziomy: Direct, Early, Cluster, Late.

To pozwala nie tylko dopasować charakter pogłosu do akustyki sali, ale też traktować go jako narzędzie kreacyjne: np. celowo „przenieść” ogon bardziej nad głowę słuchacza, zostawiając źródła bezpośrednie w warstwie frontowej. Warto zwrócić uwagę, iż pogłos jest integralnie związany z silnikiem obiektowym oraz z systemem downmixów. W odróżnieniu od rozwiązań, gdzie reverb pozostaje zewnętrznym procesorem stereo, tutaj scena z pogłosem pozostaje spójna w całym łańcuchu – również podczas konwersji do innych formatów.

Downmix: stereo, mono, LFE, PFL i binaural z head-trackingiem
Strona Downmix Page wprowadza koncepcję inteligentnych downmixów. Producent opisuje m.in.:
– Stereo Downmix wszystkich wyjść głośnikowych, z regulacją Focus (akcent na przód lub tył sceny),
– Mono Downmix wszystkich wyjść – łącznie z pogłosem,
– dwa mono bus’y Aux/LFE 1 i 2 z wysyłkami definiowanymi per obiekt (zapisywanymi w snapshot’ach),
– PFL Left / Right,
– Binaural Downmix – z dedykowanym korektorem słuchawkowym oraz obsługą head-trackingu poprzez MIDI (np. czujnik Supperware Head Tracker 1).

To zestaw funkcji, który w praktyce rozwiązuje kilka typowych problemów integracyjnych:
– równoległy feed na streaming/archiwum,
– osobne, świadomie kontrolowane zasilanie subwooferów i dogłośnień,
– binauralne demo miksu immersyjnego z możliwością ruszania głową i „blokowania” sceny w słuchawkach.

Wiele systemów wymaga do tego osobnych procesorów, wtyczek czy wirtualnych matryc – tutaj jest to część natywnej architektury.

Integracja: pluginy, MIDI, OSC, systemy śledzenia
W obszarze integracji SPACEHUB Producer wykorzystuje dokładnie to samo zaplecze, co pełny procesor:
– Pluginy VST3, AU, AAX – umożliwiają sterowanie pozycją obiektów z poziomu DAW;
– obsługę MIDI Timecode (MTC) i MIDI Program Change (MPC) – do wiązania snapshotów i ruchów z timecode’em spektaklu;
– rozbudowaną tabelę komend OSC – od sterowania pojedynczymi obiektami, przez grupy i VCA, po reverb i downmix;
– natywną integrację z systemami śledzenia (Stagetracker, zactrack) oraz wszystkimi systemami wysyłającymi dane pozycyjne w formatach PSN lub RTTrPM.

Obiekt może mieć włączone sterowanie z trackera, a system – w zależności od zastosowanego rozwiązania – może choćby automatycznie wyciszać lub odciszać obiekty w zależności od tego, czy tag aktora znajduje się w określonej strefie. Tego typu „drobne automatyzmy” przekładają się na bardzo wysoką wiarygodność lokalizacji – w szczególności w teatrze dramatycznym i musicalu, gdzie widz oczekuje, iż słyszy aktora tam, gdzie go widzi, niezależnie od ruchu po scenie.

Co z tego wynika dla integratora i inwestora?
Dla integratora systemów AV i dla zamawiającego w sektorze kultury praktyczna konkluzja jest prosta: SPACEHUB Producer to w pełni funkcjonalne środowisko projektowe i produkcyjne, które można wdrożyć od razu – na istniejącej infrastrukturze komputerowej, z interfejsem audio i ewentualnie z wirtualnym loopbackiem. Ten sam projekt, te same snapshoty, algorytmy i ustawienia reverbu można później przenieść do hardware’owego SPACE HUB, zachowując ciągłość workflow i oszczędzając czas zespołu realizatorskiego. W świecie, w którym wiele rozwiązań immersyjnych jest „przypisanych” na stałe do konkretnej konsolety lub jednego, niezmiennego sposobu renderowania przestrzeni, SPACE HUB Producer wyróżnia się otwartością, bogactwem algorytmów i bardzo głęboką integracją narzędzi kreatywnych – od warstwowych DBAP/VBAP, przez precyzyjnie modelowany pogłos 3D, po wbudowany binaural z head-trackingiem. To w praktyce daje realizatorowi i projektantowi taki sam poziom kontroli, jaki zapewnia pełny procesor immersyjny – z tą różnicą, iż pierwsze kroki można zrobić wyłącznie w oprogramowaniu.

Idź do oryginalnego materiału