Co będziemy equalizować?

“Wykorzystujemy equalizer dla korekcji akustyki pomieszczenia”. Jak często nam należało słyszeć podobne frazy?

Jest rzeczą pewną, że inżyniery dźwięku korzystają filtrami equalizeru dla otrzymania potrzebnego brzmienia akustycznego systemu na sali. Wiele sal wpływają na dźwięk nie najlepszym sposobem, a equalizery są najdostępnymi «lekami» i pogotowiem ratunkowym. Jak właśnie korzystać equalizacją − na tę temat istnieje masa rekomendacji i myśli. Można skorystać się generatorem szumu i analizatorem, albo prosto poruszać śpiochy, “dopóki nie zadźwięczy”, przesłuchując znajomy muzyczny materiał. W każdym razie, warto stawić sobie pytanie: Cóż naprawdę wyrównujemy? Czy staje dźwięk po tym lepszym?

Jak często equalizery wykorzystywały się dla decyzji problemów, które nie mogą zdecydować według określenia!..

Mówiąc o własną charakterystyce amplitudowej akustycznego systemu, mamy na myśli częstotne właściwości dźwiękowego pola AS, które mierzą się w bezechowych umowach. Charakterystyka amplitudowa cechuje jakość przekazania, że zabezpiecza system, a mianowicie, jakość przekształcenia sygnału z elektrycznego rodzaju do akustycznego, − na ile otrzymany dźwięk będzie podobny do wyjściowego elektrycznego sygnału za tembrem? Jeśli rozmieścić tę AS w akustycznie «żywe» środowisko, gdzie są obecne odbicia, «bezechowa» charakterystyka amplitudowa zaznaje zmian, − pojawią się doły i podniesienia, wywołane różnymi rezonansami i odzwierciedleniami od powierzchni sali. Więc, zmieniły się przesyłowe właściwości systemu.

Pod systemem tu dalej rozumie się system przekazania dźwięku, a mianowicie, mikser − AS (albo klaster) − powietrze − pomieszczenie − pomiarowy mikrofon. Zadamy pytanie – czy można skorygować equalizerem zmiany, które zaistniały przy przenoszeniu AS z bezechowej kamery w «żywą» salę i w ogóle, gdzie znajduje się ta granica, za którą equalizer już nie może dać dodatnich wyników przy nastawianiu dźwięku w pomieszczeniu?

Co “wyrównują” equalizerami?

Wyobrazimy sobie jakąś AS z równomierną (albo inną pożądaną nam) własną charakterystyką amplitudową, czyli ona samodzielnie nie potrzebuje jakiejkolwiek korekcji i w całości zadowala nasze dźwiękowe wymagania. Istnieją trzy rodzaje współdziałania, które zniekształcają pożądaną charakterystykę amplitudową, robią ją, jakby to lepiej powiedzieć, “nie equalizowanej”, nierównomiernej.

Rysunek 1. Częstość 1 kHz, 1/3-oktawy: a) charakterystyka ukierunkowania jednego AS, b) charakterystyka ukierunkowania klasteru, który jest zawarty z dwóch takich samych systemów, ustalonych jeden do jednego pod «optymalnym» kątem. Odpowiednie charakterystyka amplitudowa dźwiękowego pola w dwóch punktach: 1) na osie systemu i klasteru 2) dowolny rozkład. Trzy płatki i dwa doły wykresy ukierunkowania, które są skutkiem współdziałania dźwiękowych fal. Ich szerokość i ilość będzie zależeć od częstości

Pierwszy rodzaj współdziałania to współdziałanie między dwoma i więcej akustycznymi systemami. Gdy dodaje się druga AS, stwarzane oboma systemami fale współdziałają między sobą. Taka kombinacja rozniesionych źródeł dźwięku doprowadziła do pojawienia dużej nierównomierności charakterystyki amplitudowej dźwiękowego pola w obszarze. To jest prawdziwie dla wszystkich rodzajów AS i również dla jakichkolwiek konstrukcji masywów, bez względu na zapewnienia w przeciwległym z boku działów marketingowych firm-producentów. Rysunek 1 ilustruje, jak wykres ukierunkowania klasteru z dwóch systemów różni się od wykresu ukierunkowania jednego analogicznego AS.

Podczas zmiany częstości doły w wykresie ukierunkowania będą przesuwać się. Wzajemnie przenikanie dwóch dźwiękowych fal doprowadzi do odrębnego «grzebieniowego filtrowania» charakterystyki częstości w każdym oddzielnym punkcie powietrznego obszaru, przy czym grafik tej charakterystyki zmienia się zależnie od różnicy odległości między dwoma AS. Przy dodaniu nowych AS w ten klaster nierówności charakterystyki amplitudowej proporcjonalnie rosną. Druga kategoria − to współdziałanie AS z pomieszczeniem. Spotykają się takie nazwy tej kategorii, jak połączenie (coupling), odbicie, echo, rewerberacja. Mechanizm powstających aberracji jest na ogół podobny do współdziałania wśród AS, który jest opisany powyżej: proste fale ze źródła współdziałają z odpartymi falami, a powierzchnie, które odbijają, występują tu wtórnymi źródłami dźwięku. Brzmienie systemu na sali zaznaje grzebieniowej filtracji i zmienia się w zależnści od miejsca rozkładu, ponieważ przy przesuwaniu stale zmienia się różnica chodu prostego i odpartego dźwięku.

Oba powyżej zaznaczonych fenomeny są wynikiem podsumowania mnóstwa akustycznych fal, które rozpowszechniają się w różnych kierunkach i z różnym czasem spóźnienia. Dlatego, metody diagnostyki problemów, które powstają od tych rodzajów współdziałania, nawołują się między sobą.

Rysunek 2. Ilustracja współdziałania akustycznego systemu i odzwierciedleń w pomieszczeniu: obraz dźwiękowego pola na częstości 500 Hz i jego charakterystyka amplitudowa: a) przy nieobecności odzwierciedleń, bezechowa kamera, b) przy obecności jednej odbijającej ściany, c) w otoczeniu czterech odbijających ścian, Obserwujcie za zwiększeniem nierównomierności charakterystyk przy dodaniu odbijających powierzchni

Trzeci typ współdziałania jest związany z zmiennymi atmosferycznymi zjawiskami: zmienną różnicą temperatur, wilgocią, wiatrem i wchłanianiem dźwięku w powietrzu. Wpływ tych faktorów w porównaniu z pierwszymi dwoma jest niewielki, dlatego nie będziemy dotykać ich w tym artykule.

Co dotyczy pierwszych dwóch − czy można wyrównać te nierównomierności charakterystyki amplitudowej dźwiękowego pola za pomocą equalizeru? Odpowiedź na to pytanie będzie i «tak», i «nie». Wpływ wyżej wymienionych problemów można częściowo zmniejszyć dzięki equalizacji, która pozwoli tylko zbliżyć się do odtworzenia wyjściowej, pożądanej charakterystyki amplitudowej naszego idealnego systemu. Rzeczywiście, jeśli equalizer był by zbędny − dlaczego wówczas jest to jeden z najwięcej zażądanych przyrządów za półwiekową historię wzmacniania dźwięku? Ale w praktyce, udana korekcja charakterystyki amplitudowej jest możliwa przy wykorzystaniu equalizeru razem z innymi nie mniej ważnymi środkami − takimi jak modernizacja architektury, dokładny wybór akustycznych systemów i kierunek ich promieniowania, regulacji wzajemnych zwłok i poziomu.

Na ile poddaje się equalizacji problem współdziałania AS i pomieszczenia? Dyskusje z tego powodu trwają już blisko 20 lat. W tej sprzeczce spotykali się zwolennicy dwóch różnych metodyk akustycznych wymiarów. Chodzi o to, że, poza innym, korygujemy wpływ pomieszczenia na dźwiękowy system. AS i pokój stają się jednym całym, i wszystko to razem jest już nowy, o wiele bardziej skomplikowany system! Dlaczego to pytanie wywołuje stałe sprzeczki? Podobnie, że przyczyna leży w historycznym związku wzajemnym między equalizerem i analizatorem spektrum. Otwórzmy kurtynę przeszłości i spróbujemy zorientować się.

Spektralna analiza przeszłości: RTA

W dawne czasy (do lat 70-ch) nastawianie dźwiękowego systemu polegało na urządzenie z nazwą RTA (ang. real time analyzer, analizator spektrum realnego czasu), który przeznaczał się dla diagnostyki problemów częstotnych charakterystyk i odpowiednie jemu urządzenie do rozstrzygnięcia tych problemów, z nazwą «graficzny equalizer». W skład analizatora, poza innym, wchodził generator różowego szumu − przypadkowego sygnału, w którym energia równomiernie jest rozdzielona po oktawach. Jeśli do wejścia analizatora podać taki elektryczny sygnał, to na jego ekranie odbije się pozioma prosta linia. Dla wymiaru charakterystyki akustycznego systemu na jego podawały różowy szum, a do wejścia analizatora podłaczał się pomiarowy mikrofon. Na ekranie odbija się grafik poziomu dźwiękowej presji zależnie od częstości z krokiem w 1/3 oktawy, a equalizer proponuje się wykorzystywać dla stworzenia przeciwległej krzywej. Przy czym na analizatorze musi odbić się prosta linia. Wszystko to w ogóle musi było doprowadzić brzmienie dźwiękowego systemu do stanu przejrzystości i neutralności.

Rysunek 3. Błąd przy ocenie szerokości pasma w 1/3 oktawnych analizatorach: oba procesy − faly sinusoidalne, pierwsza na częstości 1 kHz, druga − na częstości 1110 Hz. Jeśli wierzyć temu RTA, drugi proces za swoim spektrum jest dwukrotnie szerzej

Nie trzeba mieć dużego doświadczenia i wiedz, żeby szarpać rączki equalizeru dopóki diody elektroluminescencyjne na ekranie nie ustawią się do jednego równego prążku. Na tyle prosto, że nawet nowicjusz mógł by to zrobić, ale, najczęściej, brzmienie okazywało się niedostatecznym− «doprowadzenie» za pomocą «pary doświadczonych uch» zawsze zostawało obowiązkowym i rozstrzygającym. Chociaż to wyposażenie było w swój czas industrialnym standardem, w gruncie rzeczy swojej ono ma niektóre ograniczenia, które mogą doprowadzić do poważnych nieporozumień zaznaczonych zjawisk. W wyniku, brzmienie wielu koncertowych systemów po nastawianiu życzy lepszego, albo, przynajmniej, nie dosyć przekonujące.

Jedno z takich ograniczeń − to ten fakt, że RTA jest ślepy do dorywczych aspektów częstotnej charakterystyki systemu. Wyznaczmy przyrodę powyżej zaznaczonych problemów współdziałania – ona leży na osie czasu. Różne częstotne porcje dźwiękowej energii przychodzą w punkt mianowania z różnym czasem zwłoki, nie synchronicznie.

Najpierw przychodzi prosty sygnał od źródeł odpowiednio do ich rozkładu, potem − wczesne odbicie od powierzchni, potem − melanż rezonansów pomieszczenia i późnych odzwierciedleń. RTA zwali wszystko to do jednej kupy, pokaże uogólnioną za czasem sumę wszystkich tych rat, poprzednio potłukłszy ich na częstotne pasma. Ani kropli informacji o zmianie różnych częstotnych składników w czasie, czyli ignorują się ważne wiadomości o tym, jak system reaguje na krótkie impulsowe sygnały. W praktyce to oznacza, że RTA nie może rozróżnić prosty sygnał od rewerberacyjnego “ogona” i nie w siłach wyznaczyć, przez co powstają nierównomierności w charakterystyce, przez współdziałanie kilku AS między sobą albo przez współdziałanie AS z pomieszczeniem. Wam należy znaleźć najlepsze położenie (pozycjonować) AS dla optymalnego udźwiękawiania? Wam należy znaleźć czas zwłoki dla czasowej kompensacji między różnymi promiennikami? Analizator okazuje się bezradnym przy próbie rozwiązania podobnych zadań, tak samo jak i przy rozwiązaniu pytań architektonicznej akustyki, na przykład, przy optymalizacji odzwierciedleń.

Po drugie, RTA nie pozwala wyznaczyć, czy ma przedstawiana krzywa choć jakiś stosunek do sygnału, który nadchodzi na dynamiki systemów. On prosto składa sprawozdanie o stan akustycznej energii w pustce mikrofonu, nie dając pojęcia o możliwych przyczynach dołow i podniesień w świadectwach. Te doły mogą być wywołane wczesnymi odzwierciedleniami albo współdziałaniem systemów, że, pewną miarą, poddaje się equalizacji. Jednak, przyczyną nierównomierności mogą okazać się późne odbicia, szum silnika albo wibracja dekoracyjnych boazerii, nieliniowe aberracje albo tło w złym kablu mikrofonu. Equalizer nie będzie mieć powodzenia w walce z przeszkodami takiego rodzaju, ale nie burzcie się, RTA nawet nie da do zrozumienia na podejrzenie o ich istnienie. Dwa różne dźwiękowe systemy mogą okazać się całkiem jednakowymi według wskaźników na ekranie analizatora, ale jeśli sądzić po brzmieniu, jeden z ich może być absolutnie niewyraźnym i niemuzycznym, a inny − arcydziełem sztuki i nauki.

Rysunek 4. Wykorzystanie analizatora z bardziej wysoką rozdzielczoścą (1/12 oktawy) pozwala bardziej wyznaczyć parametry dźwiękowego sygnału. Lekko wyjaśnić, że oba sygnały są jednakowe za szerokością, ale drugi prosto ma osuwisko na 110 Hz stosunkowo pierwszego

Po trzecie, częstotny podział w 1/3 oktawy jest niedostateczny dla przyjęcia decyzji co do nastawianiu dźwiękowego systemu. Istnieje mit, że analizator i filtry muszą zbiegać się za częstością i po szerokości pasm. Naprawdę, oczywiście, żeby wizualnie wyznaczyć parametry anomalii, takie jak jej centralna częstość, szerokość i amplituda, jest potrzebny analizator spektrum z rozdzielczością do 3 razy większym (ściślejszym), aniżeli samy wąski filtr z tych, które są w obecności. Wychodzi, że 1/3-oktawny analizator podchodzi maksimum dla ujawnienia anomalii szerokością do oktawy i więcej. «Podniesienie», które wygląda jak wzbierający pik na jednym 1/3-oktawnym pasmu, może naprawdę okazać się o wiele węższym. To, co odbija się jak 2/3-oktawny pik (2 pasma wyodrębniają się), może okazać się wąskim pikiem, który przebywa wśród 1/3-oktawnymi znaczeniami częstości (Rys. 4). Co graficzny equalizer z tym zmoże zrobić?

Na żal, nieobecność cienkich detali w mierzonej częstotnej charakterystyce doprowadziła wielu użytkowników w stan ślepej pewności w tym, że equalizacja – to jest jedyny krytyczny parametr w nastawianiu dźwiękowych systemów. Dosyć często equalizery wykorzystywały się do rozstrzygnięcia takich problemów, które nie mogą być zdecydowane według określenia, a robią tylko goreje! Graficzny equalizer nie pozwala stworzyć częstotną charakterystykę, powrotną otrzymanej przy wymiarze AS w pomieszczeniu, że odbija. Prościej mówiąc, “nie ma drogi wstecz”, jak ty nie poruszaj rączki, otrzymana sumaryczna charakterystyka amplitudowa equalizeru nigdy nie przywróci brzmieniu bezechową charakterystykę.

Skutki nieprawidłowego wykorzystania archaicznego tandemu analizator + graficzny equalizer, najwiarygodniej, i doprowadziły do negatywnego stosunku do analizatorów spektrum na ogół. Wiele inżynierów przychodziło do sprawiedliwego wniosku, że «para doświadczonych uch», wykorzystana w ogóle z zdrowym rozsądkiem, może podpowiedzieć o wiele lepsze decyzje, aniżeli ślepe zaufanie przyrządu. Ich prawość jest oczywista i tym można objaśnić następny fakt – chociaż zapytania na RTA często spotykają się w riderach turowych zespołów, w moment nastawiania aparatu oni służą tylko do uspokojenia sumienia. Na wzmiankę przychodzi koncert grupy Metallica, na którym zdarzyło się popracować. Przychodzi ich technik, podłacza pilota grupy, podaje szum i dawaj «wyrównywać» tańczące słupki analizatora – to jest jego obowiązek. Przed początkiem koncertu pojawia się stały operator dźwięku grupy, «Znakomity» Mik Hughes, i pod potężne gruchoty beczki basowej wszystko wraca i wraca filtry do zerowego położenia…

Współczesna spektralna analiza

Technologiczny postęp doprowadził do rozwoju i ogólnego uznania na początku lat 80-ch dwóch metod analizy – Spektrometria Dorywczych Zwłok (Time Delay Spectrometry, TDS) i Analiza (Dual channel FFT, 2-kanalne szybkie przekształcenie Fourier). Obie koncepcje wniosły z sobą nowe możliwości, takie, jak wymiar amplitudowych i fazowych częstotnych charakterystyk, przydatność rozróżniać odbicie i wysoka rozdzielczość po częstości i amplitudzie. Od tej pory bardzo złe brzmienie «kupy drew» nigdy nie wyglądało na grafikach tak samo, jak i system-arcydzieło, a dla uświadomionego wykorzystania wszystkich realnych przewag nowych pomiarowych środków potrzebne były poważne wiedze, wysoka kwalifikacja i praktyczne przyzwyczajenia użytkownika.

Rysunek 5. Komputerowy analizator, który może wymierzać i wszechstronnie określać impulsową charakterystykę akustycznego systemu. Dla rozumienia akustycznych procesów jest ważnie widzieć nie tylko spektrum dźwiękowej energii, ale i dynamikę jej zachowania na różnej częstości w czasie. Wyraźnie widać dominujące odbicie w szerokim spektrum częstości, powstające w przybliżeniu przez 170 ms po odtworzeniu prostego sygnału

Zwolennicy obu metodyk nalegają na tym, że dla usunięcia anomalii charakterystyki brzmienia trzeba wykorzystywać nie tylko equalizer, a także wszyscy obecne w rozporządzeniu inżyniera dźwięku instrumenty. Zawsze, gdy można, muszą wykorzystywać się linie zwłoki, poprawny rozkład AS, optymalizacja nastawiań krossoweru i architektoniczne/akustyczne decyzje. Tym więcej teraz, gdy do naszych rąk trafił instrument dla dokładnego wymiaru różnych akustycznych zjawisk. Ale w głównym pytaniu, stosunkowo «equalizacji sali», jedynej myśli osiągnąć tak i nie udało się. Wszyscy godzili się, że współdziałanie «AS-AS» do pewnego poziomu poddaje się equalizacji. Rozbieżność dotyczy tego, czy poddaje się equalizacji i do którego poziomu, współdziałanie rodzaju «AS-Pomieszczenie».

Zwolennicy TDS uważają, że fenomen «AS-Pomieszczenie» nie można zkorygować, a dlatego pomiarowy system musi odrzucać dane o odzew pomieszczenia, odbijając na ekranie tylko podporządkowujący się korekcji odrzut samego dźwiękowego systemu. «Potem inwersja otrzymanej częstotnej charakterystyki dodaje się do sygnału za pomocą equalizeru i nam nie trzeba iść dalej tego» − mówią oni.

Odpowiednio do tego system TDS został opracowany tak, by z wymiarów wyłączała się informacja o częstotnych właściwościach odzwierciedleń. W skład takiego systemu wchodzi generator sinusoidalnego sygnału zmiennej częstości (sweep) i schemat obróbki, który włącza u siebie filtr i zmienną zwłokę. Sygnał podaje się na system, zapisuje się jego odzew, wskutek obróbki którego otrzymujemy bezechową charakterystykę AS. Taka metoda wymiarów zdolna jasno pokazać anomalie, które powstają przez współdziałanie kilku AS w klasterze, a te dane mogą okazać się bardzo pożytecznymi dla optymalizacji systemu. Podejście TDS okazuje się bardzo efektywnym na średniej i wysokiej częstości, gdzie rozdzielczość po częstości zostaje wysoką nawet przy szybkiej zmianie częstości generatora, ale on jest mniej efektywny na niskiej częstości. Okresy niskiej częstości są na tyle duże, że otrzymać dane wysokiej rozdzielczości w tym diapazonie częstości można tylko z zwiększeniem czasu zapisu każdego wybierania, a wówczas do procesu wymiaru trafia i odzew pomieszczenia.

Na przykład, żeby otrzymać rozdzielczość w 1/12 oktawy należy zapisać mierzony sygnał długotrwałością w 12 razy więcej, aniżeli okres wahań na badanej częstości. Dla częstości 30 Hz potrzebuje się 360 milisekund. Żeby uważać bezechowymi wymiary na tej częstości, odpowiednio do tej metody, pierwsze odbicia od ścian/podłogi/sufitu muszą przyjść do mikrofonu później, aniżeli 360 ms − a to jest ekwiwalentnie odległości w setki metrów, czyli «bezechowymi» te wymiary można uważać tylko w bardzo dużym pomieszczeniu − takiego człowiek jeszcze nie zbudował. Szybka zmiana częstości sygnału podniecenia pomaga wyróżnić z ogólnego dźwięku bezechowe właściwości dźwiękowego systemu, ale ta idea jest ograniczona w praktycznym znaczeniu przez usterki rozdzielczości na niskiej częstości.

Rysunek 6. Ansambl częstotnych charakterystyk, zdjętych w różnych punktach sali − którą z ich brać za podstawę przy equalizacji? Zobaczywszy spektralne wymiary wysokiej rozdzielczości, zrobione w różnych miejscach udźwiękowienia, więcej nigdy nie wrócicie do myśli, że equalizacja globalnie wpływa na dźwięk w sali

Analizatory na zasadzie Dual FFT, z innej strony, wykorzystują zapis sygnałów zmiennej długotrwałości. W diapazonie wysokiej częstości czas analizowanego zapisu jest mały, a z stopniową obniżką badanej częstości on powiększa się, w ten sposób tworzy się w przybliżeniu stała rozdzielczość po częstości we wszystkim diapazonie. Wymiary takiego rodzaju pokazują utrwaloną współzależność prostego sygnału i wczesnych odzwierciedleń dla każdej częstości, a to jest niezastąpioną oceną subiektywnej tonalnej jakości brzmienia systemu na sali. Uważa się, ponieważ człowiek słyszy odparty dźwięk, to trzeba uwzględniać jego przy wymiarach.

Ważną jakością wielu Dual-FFT systemów jest ich stymulo-niezależność, jeśli w TDS dla podniecenia stosuje się sinusoidalny sygnał zmiennej częstości, to w tych analizatorach wzórowym może być praktycznie jakikolwiek dźwiękowy sygnał, przedstawiony we wszystkim mierzonym diapazonie częstości: różowy szum, biały szum, muzyka.

Najbardziej popularne pomiarowe systemy takiego rodzaju mają rozdzielczość w 1/24 oktawy po częstości, czyli wymiary są skupione na prostym dźwięku i odzwierciedleniach w granicach 24-ch okresów za czasem. Mając taką piękną rozdzielczość, można dokładnie dodawać equalizację filtrami z solidnością w przybliżeniu 1/8 oktawy i szerzej. W tej metodzie z obniżką częstości coraz więcej i więcej odpartej energii odbija się na grafiku otrzymanej częstotnej charakterystyki. Efekt pojawienia odbicia w wymiarach przy obniżce częstości − nie schodkowy, jak w TDS, a nosi płynny i stopniowy charakter. Dosyć dobrze, jeśli uwzględnić, że na niskiej częstości współdziałanie AS i odzewu pomieszczenia przebywa jeszcze w zasięgach praktycznej przydatności do equalizacji.

Na przykład, odbicie od tablicy stadionu przychodzą na 150 ms później prostego dźwięku. Na częstości blisko 10 kHz sąsiednie piki i doły od tego odbicia są rozmieszczone jeden od jednego na odległości 1/1500 oktawy. Na częstości blisko 30 Hz oni będą odległe jeden od jednego na 1/3 oktawy. Więc, tablica przebywa na dużej odległości stosunkowo wysokiej częstotliwości głowic głośników, dlatego equalizacja w celu kompensacji odgłosu wysokiej częstotliwości od tablicy świetlnej nie będzie mieć praktycznej treści. Architektoniczna modyfikacja, na przykład, szczelna tkanka, lepiej podejdzie do rozstrzygnięcia problemu. Dla subwooferów tablica przebywa w pobliskim polu i, jeśli odzew niskiej częstości od jego niepokoi tak mocno, to lepiej zastosować korekcję, a nie zawozić 60 ton akustycznego pochłaniacza dla przytłoczenia niepożądanego odbicia niskiej częstości.

Inny przykład dotyczy współdziałania dwóch i więcej AS. Gdy trzeba powiększać potęgę dźwięku – rośnie ilość wykorzystywanych akustycznych systemów i ich grupują w pewien sposób w klastery. Jak wiadomo, brzmienie klasteru istotnie różni się od brzmienia jednej AS. Na przykład jest poziomy blok z dwóch systemów, odległość między akustycznymi centrami których składa 45 cm (Rys. 1), a kąt między osiami − 30°. Każdy moduł ma swoje własne ukierunkowanie, w ten sposób, czym powyżej jest częstość, tym mniej jest współdziałanie między dwoma «promieniami». Bardziej wysoka częstość ma bardziej krótka długość fal i, zaczynając z częstości 700 Hz, poziomy wykres ukierunkowania klasteru staje się pokrojonym dołami i podniesieniami − «płatkami». Zależnie od położenia pomiarowego mikrofonu w obszarze, na różnej częstości będzie odbywać się dodanie i odejmowanie dwóch dźwiękowych fal i zaistnieją odpowiednie nierównomierności charakterystyki amplitudowej dźwiękowego pola. Oczywiście, że na słuch to będzie postrzegać się, jak aberracja tembru brzmienia. Ale czy jest potrzeba equalizować te anomalie, jeśli oni mocno zależą od miejsca rozkładu? Oczywiście, nie, tym więcej, że wiele dołów będą bardzo głębokimi i wąskimi. Z obniżką częstości sygnału sytuacja stopniowo przychodzi w normę. Niżej 700 Hz odbywa się tylko dodanie − w granicach kąta pokrycia klasteru nie ma lokalnych «dołów» wykresu ukierunkowania. Na słuch ten diapazon częstości okaże się trochę głośniejszym. Z reguły, ten nadmiar niskiej-średniej częstości, który zaistniał wskutek bliskiego rozkładu dwóch AS, może być pomyślnie usunięty equalizacją.

Dawno temu zwolennicy FFT śmiało oświadczały, że echo pomieszczeni można kompensować equalizerem. Na żal, te twierdzenia były zrobione w abstrakcyjnej formie, konkretne rekomendacje i parametry tak i nie zostały zaproponowane. Zaistniało wrażenie, że oni prosto znaleźli pożądanym albo praktycznym wydalać wszystkie efekty rewerberacji w obszarze elektronową equalizacją. I chociaż kompensować wpływ oddzielnie wziętego odbicia jest całkiem rzeczywiście z teoretycznego punktu wzroku, jednak to nie oznacza, że podobne praktycznie możliwe albo pożądane. Kompensacja jest możliwa tylko pod warunkiem, że odnośny poziom odbicia nie przekracza poziom prostego sygnału. Jeśli poziomy prostego dźwięku i odbicia są tożsame − końcowy doł w charakterystyce amplitudowej staje się nieskończenie głębokim, a odpowiedni filtr dla kompensacji tego dołu − nieskończenie wysokim. Gdy spotykają się dwa nieskończone przeciwieństwa, wynik spotkania będzie nieprzewidziany.

W wypadku wykonania tej umowy kompensacja wpływu jednego odbicia zażąda wykorzystanie «grzebienia» filtrów z zmienną szerokością pasma przepuszczenia/głuszenie, ta jeszcze i takiej, żeby stwarzała charakterystykę, powrotną dla każdego piku i dołu “grzebieniu” charakterystyki amplitudowej dźwiękowego pola. Jeśli ilość odzwierciedleń rośnie − trzeba mieć coraz więcej filtrów z coraz więcej ostrą charakterystyką dla equalizacji efektu rewerberacji. Żeby skorygować na częstości do 20 kHz odbicie, które przychodzi z zatrzymaniem w 1 ms, trzeba 40 filtrów: powstają 20 dołów i 20 pik z szerokością od 1 do 0.025 oktawy. Echo z zwłoką w 10 ms zażąda 400 filtrów z pasmem przepuszczenia do 1/400 oktawy!

Oczywiście, że próba usunięcia wszystkich artefaktów współdziałania prostego i odpartego dźwięku nawet w jednym punkcie obszaru wygląda obłąkaniem, przecież realny rewerberacyjny odzew może składać się z tysięcy oddzielnych odzwierciedleń! Ale oprócz tego, czy jest sens opierać się na jeden punkt obszaru, przecież cel ostateczny − równomierne udźwiękowienie niektórego placu? Nawet jeśli zastosować taką skomplikowaną equalizację dla jednego punktu, psujemy obraz we wszystkich innych punktach placu przesłuchiwania.

W praktyce nikt nie zamierza atakować filtrami każdy oddzielny cieniutki doł/pik, będzie lżejsze śledzić i neutralizować najbardziej bliskie i powtarzalne anomalie. Przecież, czym węższe są wykorzystywane filtry, tym jest mniej ich praktyczna korzyść, charakterystyka amplitudowa zmienia się do miary przesuwania po placu, który udźwiękawia się.

Praktyczne znaczenie

Jak widzimy, do pewnego stopnia całkiem możliwie usunąć efekty akustycznego współdziałania. Gdyby to było niemożliwie, wszystko było by o wiele prostsze – regulujemy system na bazie, ubieramy equalizer do metalowego karkasa (żeby nikt nic nie kręcił) i – naprzód! – wojażować po salom i stadionom, i zmieniać nic nie należy…

Dzięki powyżej zaznaczonym akustycznym zjawiskom częstotne charakterystyki dźwiękowego systemu mocno zmieniają się w zależnści od miejsca rozkładu pomiarowego mikrofonu. Dlatego, zobaczywszy spektralne wymiary wysokiej rozdzielczości, zrobione w różnych miejscach udźwiękowienia, więcej nigdy nie wrócicie do myśli, że equalizacją globalnie wpływa na dźwięk w sali.

System, w którym współdziałania są doprowadzone do minimum, będzie charakteryzować się największej równomiernością udźwiękawiania, i wykorzystanie equalizeru może przynieść praktyczną korzyść. A jeśli na każdym miejscu wszystko brzmi całkiem rozmaicie, to nic nie porobisz − większość operatorów dźwięku w takim wypadku «nastrajają» dla otrzymania możliwego do przyjęcia dźwięku na pilocie i bez szczególnego entuzjazmu przechodzą do miksingu. Rzeczywiście, żeby zmniejszyć współdziałanie AS/AS, potrzebne są stosowanie skierowanych składników, dokładny rozkład i montaż systemów. W strefach, gdzie promienie systemów kryją się, dorywcze zwłoki i nastrajanie poziomu pozwalają zmniejszyć destruktywne zjawiska. Żeby osłabić współdziałanie AS/pomieszczenia, są potrzebne globalne przedsięwzięcia dla akustycznej obróbki i skierowane składniki AS i dokładne ich pozycjonowanie. W warunkach turowej pracy wątpię czy «ręce dojdą» do tego, zwłaszcza, jeśli jest potrzebne skomplikowane pomiarowe wyposażenie i wydatkowania czasu…

Rekomendacje

Niechaj istnieje system, w którym są odbyte wszystkie przedsięwzięcia co do optymalizacji − dobrane kąty, kierunki, obróbka, czasowe parametry, zrobiono wszystko możliwe po akustyce sali − popracowali prawdziwi fachowcy swojej dźwiękowej sprawy. W takim razie jedyne, czym to można ulepszyć − to equalizer. Dla każdej grupy systemów, która funkcjonuje ze swoim equalizerem, wymierzajcie charakterystyki amplitudowej w strefie udźwiękawiania − ustalajcie mikrofon w tyle pozycji, na ile to być może. Wybierajcie pozycje z charakterystycznym brzmieniem, gdzie na słuch są odczuwalne “podniesienia”. To trzeba po to, żeby widzieć, które tendencje w funkcjonowaniu systemu są ogólne, a które − lokalne. W szczególności, jeśli przed wami klaster, zróbcie wymiary obok osi jednego akustycznego systemu − w strefie jej maksymalnej dźwiękowej presji. Starajcie się unikać stref silnego współdziałania, gdzie częstotna charakterystyka mocno zmienia się nawet przy przesuwaniu na centymetry. Na przykład, narożny sektor ruszania dwóch gabinetów w formie trapezu, albo obszar w bezpośredniej bliskości do ścian są nie najlepsze miejsca dla oceny ogólnych tendencji brzmienia.

W każdej pozycji wymiaru częstotny odzew będzie unikalny i zobaczycie na pokrojonych grafikach mnóstwo dołów/podniesień. “Dotyku” filtrami equalizeru zasługują tylko te z nich, które powtarzają się na wszystkich grafikach albo mają ogólne linie. Posprzątawszy 5-6 “systematycznych naruszających” amplitudowej płynności jak możno bardziej szerokimi parametrycznymi filtrami, możecie uważać brzmienie w tej części audytorium za adekwatne i neutralne. Dobrze, że współcześni cyfrowi kontrolerzy akustycznych systemów nadają dla tego wszystko potrzebne, otrzymawszy crossower i parametrik w jednym spoistym korpusie.

Na koniec

Współczesne programowe analizatory spektrum zdolne odbijać masę częstotnych parametrów i charakterystyk, które ujawniają wszystką prawdę o jakość brzmienia dźwiękowych systemów, ale to nic nie da, jeśli będziemy przedłużać myśleć w duchu 1/3-oktawy mentalności przeszłości. Częstotna korekcja była, jest i będzie atrybutem wzmacniania dźwięku, ale otrzymać maksymalny pożytek od equalizeru można tylko ze zrozumieniem akustycznych mechanizmów, które stoją za nierównościami na grafikach i wykorzystując prawidłowe instrumenty dla ich usunięcia. W szczególności, «para pięknych uch» jest nie ostatni punkt w tym spisie.

Tłumaczenie z rosyjskiego – Andrzey Baszmakow

«Шоу-Мастер» №36 (2004− 1)

Popularity: 17% [?]

Share this Page:
Digg Google Bookmarks reddit Mixx StumbleUpon Technorati Yahoo! Buzz DesignFloat Delicious BlinkList Furl

Comments are closed.