Cechy masteringu w muzyce akademickiej. Typowe błędy inżynierów dźwięku podczas nagrywania i miksowania fonogramów Przetwarzanie dźwięku i miksowanie fonogramów od do
Typowe błędy realizatorów dźwięku podczas nagrywania i miksowania fonogramów
Określenie jakości nagranego fonogramu to dość trudne zadanie. Dla profesjonalistów kryterium „lubię to albo nie lubię” nie wystarcza. aby określić swoje kolejne kroki, musisz poznać szczegółowe zalety i wady tworzonego obrazu dźwiękowego. powstały dźwięk musi zostać podzielony, rozmontowany na jego składowe elementy.
Tak postępują na przykład artyści oceniając rysunek, kolor, perspektywę, fakturę pędzla, dopracowanie szczegółów itp. w obrazie. Narzędzie do takiej analizy jest znane - jest to „Protokół testu OIRT”. Pomaga realizatorowi dźwięku w szybkiej i uporządkowanej ocenie mankamentów swojej pracy podczas formowania obrazu dźwiękowego i dokonywaniu odpowiednich poprawek.
Dlatego wygodnie jest usystematyzować typowe błędy początkujących inżynierów dźwięku na podstawie tego dokumentu.
Wstępnie należy zauważyć, że wszystkie parametry zawarte w protokole są ściśle od siebie zależne, a zmieniając jeden z nich, nie można nie zmienić pozostałych. Na przezroczystość wpływa zatem połączenie przestrzenności i barwy: poprawia się ona w obecności jasnych i czystych barw, a pogarsza się wraz ze wzrostem właściwości przestrzennych. Kontury zależą od kombinacji przestrzenności elementów dźwiękowych i ich muzycznego balansu, a ich obecność z kolei wpływa na przezroczystość. wieloletnia praktyka sugeruje, że źle wykonany utwór nigdy nie zabrzmi w nagraniu efektownie i pięknie. Bo nieharmonijne granie wykonawców nieuchronnie prowadzi do niewystarczającej przejrzystości, a jeśli wykonawca nie w pełni opanuje instrument, piękna barwa nie zadziała.
Pierwszym parametrem oceny jest wrażenie przestrzenne, czyli przestronność. Tak wygląda pokój, w którym odbywało się nagranie. Przestrzenność charakteryzuje obraz dźwiękowy w szerokości (wrażenie stereo) i w głąb (obecność jednego lub kilku planów).
Przestrzenność tworzy poczucie dystansu do instrumentu lub grupy instrumentów. Dobrze, jeśli odległość do wykonawców w nagraniu wydaje się naturalna i łatwa do ustalenia. Na przestrzenność nagrania mają wpływ wczesne odbicia sygnału i pogłos, synchronizacja i poziom.
Optymalne, najwygodniejsze dla słuchacza poczucie przestrzenności zależy od gatunku muzyki. W związku z tym można wskazać następujące cechy materiału muzycznego: skala (tj. kameralność lub odwrotnie wielkość, masowy charakter) dramatu muzycznego zakreślona przez kompozytora; przynależność muzyki do dowolnej warstwy czasu, na przykład średniowiecznego chorału gregoriańskiego, muzyki barokowej czy współczesnych konstrukcji muzycznych.
Zastosowanie głównego „instrumentu” przestrzennego – pogłosu – nadaje głośność, lekkość, zwiększa głośność fonogramu i niejako zwiększa liczbę wykonawców. Jednak ta spektakularna farba dźwiękowa, stosowana nieumiejętnie, prowadzi do utraty przezroczystości: atak kolejnych dźwięków jest „rozmazany”. Dodatkowo ginie barwa, ponieważ pogłosowi ulegają tylko tony średnie. Jeśli barwa sygnałów dalekiego i bliskiego strzału jest zbyt różna, dźwięk może rozszczepić się zgodnie z planem. Szczególnie nienaturalne jest mieszanie sztucznego pogłosu z sygnałem z pobliskiego mikrofonu. Jednocześnie wszystkie szybko płynące procesy dźwiękowe (spółgłoski wokalisty, pukanie akordeonu czy zaworów klarnetu) pozostają bardzo blisko, a sam dźwięk (samogłoski, długie nuty) cofa się, „lata”.
Następny parametr według której oceniane jest nagranie dźwiękowe, jest przejrzystość. Przezroczystość oznacza klarowność faktury muzycznej, rozróżnialność linii partytury. Pojęcie „przezroczystości” obejmuje również czytelność tekstu, jeśli jest to utwór wokalny ze słowami.
Przejrzystość to jeden z najbardziej odczuwalnych przez słuchacza parametrów dźwięku. Jednak klarowność i przejrzystość nagrania może nie zawsze być wymagana ze względu na pewne cechy gatunku. Na przykład podczas nagrywania chóru należy unikać rozróżniania głosów poszczególnych chórzystów w partiach. Zwykle osiąga się to poprzez poświęcenie pewnego stopnia przejrzystości, odsunięcie refrenu i uczynienie nagrania bardziej zwiewnym, przestrzennym. O jednym z nagrań XV symfonii D. Szostakowicza, gdzie wszystkie składowe orkiestry zostały pokazane zbyt plastycznie, niektórzy realizatorzy dźwięku mówili, że nie jest to nagranie symfonii, a podręcznik instrumentacji kompozytora.
Transparentność to papierek lakmusowy dla inżyniera dźwięku. aktywna praca z przestrzenią przy zachowaniu pełnej czystości dźwięku to najtrudniejsza rzecz w inżynierii dźwięku. Jak już wspomniano, degradacja przezroczystości następuje w wyniku utraty barwy oraz w wyniku błędów przestrzennych. Na przykład duży poziom pola rozproszonego („duży pogłos”). Oznacza to, że zbyt wiele sygnałów z „sąsiednich” instrumentów jest podawanych do mikrofonów lub inżynier „dogonił” dużo sztucznego pogłosu, który maskował słabsze składowe sygnałów bezpośrednich. A utrata barwy następuje głównie przez nieprecyzyjne ustawienie mikrofonów (o czym później).
Dynamiczne przetwarzanie sygnału jest również obarczone utratą przejrzystości. Zacznijmy od tego, że jednym z najważniejszych parametrów barwy jest proces generowania dźwięku, jego atak. Jeśli wybierzemy czas reakcji kompresora krótszy niż czas ataku instrumentu, otrzymamy jego barwę ociężałą, wciśniętą i pozbawioną wyrazu. A jeśli jednocześnie wszystkie sygnały fonogramowe zostaną skompresowane, to generalnie dostaniemy „bałaganu” – w końcu sekret dobrego grania zespołowego tkwi właśnie w uleganiu sobie nawzajem.
Bardzo ważnym parametrem jest równowaga muzyczna, czyli stosunek pomiędzy partiami zespołu lub orkiestry. W niektórych przypadkach przy nagrywaniu dużego instrumentu, takiego jak fortepian czy organy, można mówić o równowadze między jego rejestrami. Równowaga muzyczna powinna pochodzić z partytury, odpowiadać intencji kompozytora lub dyrygenta i być zachowana ze wszystkimi niuansami od pp do ff.
Dobra równowaga w nagraniu nie jest trudna do osiągnięcia, zwłaszcza gdy mamy do czynienia z sygnałami niepowiązanymi akustycznie (np. miksowanie nagrań wielościeżkowych). Ale i tutaj zdarzają się porażki. Poza zwykłą niedbalstwem, istnieje wiele obiektywnych przyczyn złej równowagi.
Po pierwsze brak kultury muzycznej i rozwój gustu realizatora dźwięku. Często nie rozumie stopnia ważności danej partii. Wydaje mu się, że wszystko grane przez muzyków powinno brzmieć równie głośno. Nagranie staje się „płaskie”, dudni. Ten rodzaj równowagi nazywamy „mieszaniem inżynieryjnym”.
Po drugie, nadmierna (ponad 92 dB) głośność podczas miksowania może być okrutnym żartem dla inżyniera dźwięku. Słuchając takiego nagrania w domu, zwłaszcza przez tanią „mydelniczka”, wszystkie składowe średniotonowe sygnału staną się głośniejsze. dotyczy to przede wszystkim partii solowych – śpiewaków, instrumentów dętych, gitar elektrycznych. Talerze, przeróżne shakery, dzwonki i co najważniejsze bas i wielki bęben znikną w cieniu. W sumie cały akompaniament ukryje się za wokalem i zniknie narzucane przez aranżera dramatyczne „wsparcie” partii solowej, echa i kontrapunkty.
Po trzecie, są oczywiste wady, które mogą wynikać z niedoskonałości „lustra” realizacji dźwięku – sterowników i pomieszczenia odsłuchowego. Szczególnie trudno jest zbalansować sygnały wąskopasmowe, takie jak hi-hat, klawesyn (zwłaszcza taki, który ma nagrane tylko jedno „żelazko”, bez rezonansu korpusu), flet podłużny. Do takich sygnałów zalicza się również bas, „strzał” bez alikwotów oraz stopa perkusji, nagrana bez charakterystycznego uderzenia perkusji. Na inna akustyka a w różnych pomieszczeniach, z nieuniknionymi przeregulowaniami charakterystyk częstotliwościowych, balans takich instrumentów będzie inny. Często na płycie nie wiadomo, w którą parę jednostek sterujących wierzyć, zwłaszcza że słuchawki pokazują trzeci wynik. Ponadto użycie samych słuchawek daje radykalną poprawę przejrzystości i bardzo trudno jest przewidzieć, jak fonogram zabrzmi podczas normalnego słuchania.
Niektóre dźwięki dają inżynierowi dźwięku „efekt tykania zegara” z biegiem czasu. Wtedy przestaje zauważać powtarzające się dźwięki hi-hatu, „automatycznej” perkusji itp. To również stale prowadzi do nierównowagi, ponieważ inżynier dźwięku po prostu przestaje kontrolować takie sygnały podczas procesu miksowania.
Następny najważniejszy parametr nagrania dźwiękowe - barwa instrumentów i głosów. Transmisja dźwięku powinna być naturalna, instrument powinien być łatwo rozpoznawalny przez słuchacza.
Jednak w wielu przypadkach naturalny dźwięk instrumentu jest celowo konwertowany przez realizatora dźwięku, na przykład w celu skompensowania zniekształceń wprowadzanych podczas odbierania sygnału przez mikrofon lub w przypadku niedoskonałości brzmienia samego instrumentu . Na przykład często trzeba „poprawić” barwę fletów, domras, bałałajek. Aby to zrobić, możesz podnieść obszar głównych tonów w obszarze pierwszej oktawy. W gitarze dwunastostrunowej zwykle wyróżnia się korektorem „srebrzystym”, a brzmieniu klawesynu można nadać efektowne „nosowe” brzmienie za pomocą filtru parametrycznego. Bardzo często celowe przekształcanie barwy jest wykorzystywane do tworzenia nowych barw – np. przy nagrywaniu, bajkach, muzyce do filmów itp.
Na barwę wpływają wszystkie urządzenia wchodzące w skład ścieżki. Jeśli to przeanalizujesz, możesz znaleźć „pułapki”, które zagrażają pojawieniu się małżeństwa. na przykład mikrofon. Wiadomo, że zbliżając się do źródła dźwięku, uzyskuje się jaśniejszą barwę dzięki percepcji jego pełnego spektrum częstotliwości. Jednak prawie wszystkie akustyczne źródła dźwięku mają redundancję składową barwy. Rzeczywiście, w drodze do słuchacza w zwykłej, pozbawionej wzmocnienia sali, część z nich nieuchronnie się gubi. Dlatego umieszczając mikrofon blisko miejsca, z którego słuchacz nigdy nie słucha instrumentu, można uzyskać dźwięk, który nie jest do końca podobny do zwykłego. Skrzypce nagrane przez mikrofon, który znajduje się w pobliżu instrumentu i skierowany prostopadle do górnego pokładu, zabrzmią szorstko, szorstko, szorstko, jak mówią muzycy, z „kalafoniowym” odcieniem. W dźwięku głosu rejestrowanego z bliskiego mikrofonu skierowanego bezpośrednio na usta śpiewaka lub czytelnika syczące spółgłoski są wzmacniane, a podczas nagrywania wokalu akademickiego – wysoki formant śpiewu o częstotliwości ok. 3 kHz, bardzo skuteczny w odbiorze z dwóch i dalszych metrów i nieznośnie ostry na 40 centymetrach.
Korektor powinien wzbogacać i upiększać dźwięk. Ale jego nadmierne użycie często prowadzi do odwrotnego rezultatu: dźwięk staje się „wąski”, z dźwiękiem „gramofonowym”, zwłaszcza jeśli używany jest niedrogi pilot z jedną częstotliwością filtru parametrycznego na wszystkich linijkach. Kiedyś takie rekordy nazywaliśmy „obecnymi” (od filtra obecności „filtr obecności”). Ponadto nieumiejętna korekcja może prowadzić do zwiększonego szumu w mediach lub w studiu.
Następnym parametrem jest wykonanie. Być może ma to pierwszorzędne znaczenie dla jakości nagrania. To właśnie wykonanie jest decydującym czynnikiem dla słuchacza. Równie ważne są tu zarówno cechy techniczne (jakość wykonania dźwięku, struktura zespołu, czystość intonacji itp.), jak i artystyczno-muzyczne (interpretacja utworu, jego zgodność ze stylem epoki, kompozytor ).
Rola realizatora dźwięku jest tutaj również bardzo duża, ponieważ wpływa on zarówno na techniczną, jak i artystyczną stronę spektaklu. Musi znaleźć wspólny język z muzykami wszystkich rang i stworzyć owocną twórczą atmosferę podczas procesu nagrywania. Tylko to pozwala artyście w pełni ujawnić swój talent. Potrzebna jest atmosfera zaufania między realizatorem a artystami: muzycy powinni bez obaw zdradzać mu swoje słabości, wiedząc, że na pewno im pomoże i zrobią wszystko, aby sesja nagraniowa była kompletna, z dobrym wynikiem artystycznym. Jednocześnie nigdy nie należy wybaczać wykonawcy, który jest wyraźnie nieprzygotowany do nagrywania. Żadne nagranie nie powinno wychodzić z rąk realizatora dźwięku, za który wykonawca musiałby się w końcu rumienić i żadne natychmiastowe korzyści nie powinny zmniejszyć tej dokładności.
Szczególnie chcę ostrzec początkujących realizatorów dźwięku z często zajmowanego stanowiska: „Cóż oni mogą beze mnie zrobić ci artyści! Zawsze grają fałszywie, nie razem, ratuję ich, gdyby nie ja…” To jest nic poza przejawem mojej własnej złożonej niższości. W rzeczywistości relacja z wykonawcą powinna opierać się na zasadach: szacunku dla artysty, szacunku dla samego siebie i wzajemnej życzliwości. Do takiego specjalisty, jak mówią teraz „klient pójdzie”, ludzie o różnych osobowościach chętnie z nim będą pracować.
Jak teraz ocenić parametr „wydajność” w bardzo modnej muzyce komputerowej? Słyszałem sporo płyt nagranych na syntezatorach rytmicznie, efektownie w barwie i… nudno po pierwszych dziesięciu minutach odsłuchu. Wrażenie bardzo pięknie grającej muzycznej tabakiery z martwą metronomią. Dźwiękom tym brakuje jednej z głównych cech występów na żywo – „czynnika ludzkiego”, fizycznej pracy przy grze na instrumentach muzycznych. Kompozytor Eduard Artemyev, nakładając partię trąbki na fonogram zwrócił naszą uwagę na to, że żaden syntezator, nawet bardzo dokładnie odwzorowujący barwę instrumentu, nie jest w stanie „przedstawić” napięcia mięśni słuchawki muzyka grając wysokie nuty. To napięcie jest zawsze w dźwięku, oddziałuje na słuchacza, zmuszając go do empatii.
A o metronomii – kiedy właśnie pojawiły się syntezatory-rytmboxy, powiedziałem do nieżyjącego już VB Babushkina: „Teraz śmierć przyjdzie do muzyków!” Na co mądrze odpowiedział: – „To jest śmierć labukhama…”.
Parametr „jakość techniczna” jest prawdopodobnie najbardziej niestabilny ze wszystkich. Nagrania sprzed dziesięciu lat są dziś niedoskonałe technicznie i muszą zostać odrestaurowane. Do tradycyjnych zakłóceń (szum, buczenie, kliknięcia elektryczne), zniekształcenia dźwięku, zakłócenia Pasmo przenoszenia, dodano rezonanse na poszczególnych częstotliwościach: obecność szumu kwantyzacji, jitter, efekty różnych komputerowych tłumików szumów i wiele innych.
W fonogramach przygotowanych do wydania na CD, audycji radiowych itp. zakłócenia elektryczne są niedopuszczalne. Z kolei odgłosy akustyczne dzielą się na odgłosy studyjne: szum działającej wentylacji, wtargnięcia z zewnątrz oraz odgłosy występów (oddech muzyków, skrzypienie mebli, stukanie pedału fortepianu czy zaworów instrumentów dętych drewnianych itp.). Stopień dopuszczalności wykonywania dźwięków w warunkach technicznych dla fonogramów magnetycznych określa się następująco: „Wykonywanie dźwięków jest dozwolone, jeśli nie zakłócają odbioru muzyki”. I to jest absolutnie słuszne, bo to standardy estetyczne, które należy zastosować do szumu wykonawczego, leżą w kompetencjach realizatora dźwięku prowadzącego nagranie.
Jest też odwrotnie – należy bezlitośnie walczyć z hałasem, który zaburza percepcję artystyczną. Jest nagranie bardzo szanowanego gitarzysty, na którym oprócz serdecznego wykonania wyraźnie słychać… sapanie. Realizator dźwięku, a także montażysta, producent i inni, którzy wydali takie nagranie na masową sprzedaż, popełnili, szczerze mówiąc, nadużycie!
Być może najczęstszą wadą jakości technicznej jest przeciążenie. Mikser to dość podstępna pułapka na drodze do dobry dźwięk... Naturalnie inżynier dźwięku chce usłyszeć swoje nagranie tak głośno, jaśniej i efektywniej, jak to tylko możliwe. Ale tę efektowność osiąga się dzięki połączeniu kilku parametrów. Najważniejsze z nich to barwa i przejrzystość. Podczas głośnego słuchania wady tych parametrów są do pewnego stopnia kompensowane przez naturalny mechanizm percepcji słuchowej znany jako „efekt Fletchera-Mansona” (lub „krzywe jednakowej głośności”). Oczywiście lepiej słuchać na głos niż pisać na najwyższym poziomie. Wtedy zaczyna się przesterowanie analogu lub zupełnie niedopuszczalne „powyżej” na cyfrowym. Ale to, że nie ma sensu podkręcać głośności, by poprawić nagranie, jest oczywiste nawet dla początkujących, ale „powolne ciągnięcie” suwaków z kolei zawsze wydaje się rozsądniejsze. W efekcie rozpoczyna się walka z przeciążeniami typu „pojedynczy fader porusza się w górę, a master – w dół”.
Tak naprawdę w realizatorze dźwięku często działa prawo „odwrotnego działania”: chcesz podgłośnić – usunąć to przeszkadzające, chcesz podbić bas – podświetlić środek…
Jeśli nagranie jest stereofoniczne, określa się w nim jeszcze jeden parametr - jakość obrazu stereofonicznego. Rozważamy tutaj szerokość i pełnię bazy stereo, brak „dziury w środku”, jednolitą zawartość informacyjną lewej i prawe strony, brak zniekształceń.
Podstawowa zasada tworzenia obrazu stereofonicznego - "powietrze jest szersze niż dźwięk" - oznacza, że sygnał mono zabrzmi "stereofonicznie" tylko wtedy, gdy towarzyszy mu szeroko brzmiące pole rozproszone. Na tej zasadzie zbudowane są wszystkie sztuczne pogłosy, które z reguły mają jedno wejście i dwa wyjścia.
Częstym błędem przy tworzeniu obrazu stereofonicznego jest niepotrzebne zwężanie podstawy za pomocą kontrolek panoramicznych. Należy pamiętać, że efekt „ping-ponga” wygląda nienaturalnie tylko w klasyce, a nawet wtedy nie zawsze. W nagraniu pop „apel imprez” działa tylko na korzyść i nie trzeba się go bać.
Kilka słów o pojęciu „treści informacyjnej”. Tkanina muzyczna podzielona jest na istotne, definiujące, dobrze zlokalizowane komponenty oraz pomocnicze, wypełniające fakturę. Do tych pierwszych zalicza się np. melodię, akcenty-"riffy" wypełniające pauzy itp., wszystko, na co słuchacz zwraca uwagę w pierwszej kolejności. Składnikami pomocniczymi tkaniny muzycznej są różnego rodzaju pedały (długie nuty lub akordy), powielanie głosu głównego (z innym instrumentem lub opóźnieniem - wszystko jedno), ciągła figuracja teksturowo-harmoniczna. To ta sama informacyjność lewej i prawej strony bazy stereo stwarza komfortowe odczucie dla słuchacza prawidłowego balansu stereo, a nie ten sam poziom sygnałów prawego i lewego kanału, co zwykle pokazują wskaźniki . Oznacza to, że jeśli melodia brzmi dla jednego instrumentu, to powinna znajdować się w centrum. Jeżeli melodia pojawia się naprzemiennie w dwóch głosach, to powinny one znajdować się po bokach bazy. Przykładem nieudanej aranżacji instrumentów jest tzw. „amerykański” obsadę koncertową orkiestry symfonicznej, gdzie wszystkie partie melodyczne i dobrze zlokalizowane – skrzypce, flety, trąbki, perkusja, harfy – znajdują się po lewej stronie dyrygenta . Po prawej stronie wśród najczęściej granych instrumentów są tylko oboje i wiolonczele.
Być może uda nam się na tym poprzestać. Często pada pytanie: - co jest najtrudniejsze w nagrywaniu dźwięku? Odpowiedź jest prosta: trzeba rozwijać umiejętność pokonywania stresu, zawsze panować nad sytuacją i stale kontrolować powstający dźwięk. Zwykle zajmuje to około dziesięciu lat samodzielnej pracy, kiedy specjalista samouk zgłębia tajniki mistrzostwa metodą „prób i błędów”. Bardzo zależy mi na tym, aby nasz artykuł nieco skrócił ten okres dla czytelników…
Potrzebujesz masteringu w muzyce akademickiej? Dlaczego słowo „mastering” słyszymy w klasyce znacznie rzadziej niż na scenie? Jeśli spojrzysz na płyty z muzyką akademicką, to często wskazuje się, kto nagrał płytę (nagranie), kto ją zredagował (montaż), ale o masteringu – nie zawsze… A jeśli nadal „majstrujesz” – to co robić? Klasyka nie potrzebuje takich poziomów RMS jak na scenie, a przede wszystkim naturalność – po co więc ta osobna procedura?
Takie pytania niepokoją wielu inżynierów dźwięku i zaawansowanych słuchaczy, ponieważ biorąc pod uwagę bardzo różne podejścia do nagrywania, miksowania i ogólnie kształtowania się dźwięku w gatunkach akademickich i popowych, fonogramy okazują się radykalnie odmienne pod względem dynamiki, barwa, charakterystyka głośności. Co zrobić – pozostawić klasykę naturalną, ale „cichą” i super dynamiczną, czy zbliżyć ją do sceny, ryzykując utratę ważnych niuansów dynamicznych? Spróbujmy to rozgryźć.
O ograniczeniach
Mastering można z grubsza podzielić na dwa elementy. W trakcie techniczny częścią procesu, inżynier dźwięku zwykle ustala kolejność ścieżek, dostosowuje przerwy między ścieżkami, w razie potrzeby zmniejsza pliki audio za pomocą ditheringu i, jeśli wyjście wymaga formatu CD-Audio, „tnie” płytę główną w zgodnie z Czerwonym Standardem Książki (bardziej trafnie nazwać ten proces pre-masteringiem – przyp. red.).
Te procesy mają oczywiście swoje subtelności, ale w tym artykule porozmawiamy twórczy części masteringu. wspólny cel podobna praca- wpływ na gotowy zmiksowany fonogram w celu jego bardziej udanej publikacji - odtwarzanie na różnych systemy akustyczne, rotacja radiowa, sprzedaż komercyjna itp. To świeże spojrzenie nowej osoby na fonogram w nowych (zwykle lepszych) warunkach, ostateczny szlif w obrazie muzycznym, dodanie czegoś, co zdaniem realizatora masteringu nie wystarczy, aby uzyskać jak najlepszy dźwięk istniejący tor lub usunięcie niepotrzebnych i przeszkadzających.
W tym artykule zajmiemy się również masteringiem jako pracą montażową. różne rekordy w jeden album. W takim przypadku, w celu wyrównania różnych fonogramów, zakres działań i stopień ingerencji inżyniera mogą znacznie różnić się od działań omówionych poniżej.
Uszy i aparaty
Na wszelki wypadek przypomnijmy, że masteringowiec i realizator dźwięku, który stworzył fonogram w studiu, nie powinni być tą samą osobą. Uważa się, że słuch inżyniera masteringu musi być specjalnie dostrojony do percepcji i analizy fonogramu. Np. mniej skupia się na balansie instrumentów, przestrzeni, planach, a bardziej na ogólnym wrażeniu, jakie fonogram wywiera na słuchaczu – na ogólnym balansie barwy, dynamice. Tu niewątpliwie wpływa na najbogatsze wrażenia słuchania gotowych fonogramów.
Studio masteringowe
Ponadto sprzęt i akustyka pomieszczeń masteringowych jest znacznie bardziej wymagająca niż studia nagraniowe i mikserskie. Ponieważ masteringowiec jest ostatnim ogniwem w łańcuchu prac nad fonogramem, warunki jego pracy powinny być jak najbardziej uczciwe – akustyka pomieszczenia jest jak najbardziej neutralna, bardzo pożądane jest posiadanie najwyższej klasy środka - lub głośniki dalekiego pola w celu kontrolowania jak najszerszego zakresu częstotliwości. Środki oddziaływania na fonogram w studiach masteringowych to zazwyczaj najwyższej klasy urządzenia zewnętrzne (Outboard) – cyfrowe, analogowe, lampowe urządzenia do obróbki dynamiki i częstotliwości.
O różnicach gatunkowych
Tak więc kreatywny mastering jest wszechobecny (a przynajmniej powinien być) w muzyce pop. Co więcej, w tym gatunku masteringu zwykle zajmuje się indywidualna osoba. Porównując sytuację z muzyką akademicką, spróbujmy zrozumieć, dlaczego w tym obszarze jest inaczej.
Na scenie, przed masteringiem, w większości przypadków następuje osobny proces miksowania, podczas którego realizator dźwięku mocno, a miejscami dramatycznie wpływa na barwę, dynamikę i inne cechy sygnałów, oddalając je od naturalny ze względu na ogólne brzmienie miksu. Dokonując tak głębokich interwencji, inżynier dźwięku nieuchronnie staje się zależny od warunków panujących w studiu mikserskim – monitorów sterujących, akustyki sterowni, urządzeń przetwarzających…
W dodatku, gdy wielokrotnie słuchasz fonogramu podczas miksowania (a wcześniej – podczas nagrywania i montażu), słuch nieuchronnie się rozmywa, przyzwyczajasz się do dźwięku, a szanse na poprowadzenie przez lokalne warunki akustyczne i sprzętowe rosną. I tu właśnie przydaje się świeże spojrzenie realizatora masteringu – słuchając tej nowej muzyki dla siebie w swoich warunkach, jest w stanie wyłapać i wpłynąć na szczegóły, do których inni uczestnicy projektu byli od dawna przyzwyczajeni, aby ostatnie poprawki oparte na jego bogatym doświadczeniu ze słuchania gotowych fonogramów.
Ponadto funkcja masteringu zwiększająca gęstość i głośność fonogramu (RMS) jest szczególnie pożądana na scenie, aby utwór brzmiał korzystnie w porównaniu z innymi fonogramami i nie tracił poziomu, na przykład podczas transmisji na radio.
A w muzyce akademickiej? Tutaj jednym z głównych celów jest wręcz przeciwnie, przekazanie naturalności barw. Co więcej, proces miksowania jest często nieobecny – do tej pory muzyka akademicka jest często nagrywana od razu w stereo i nie jest poddawana dalszej obróbce – zarówno ze względów twórczych, jak i technicznych (np. w I i V studiu GDRZ, możliwość nagrywania wielościeżkowego za pomocą środków lokalnych, obecnie nie).
Pierwsza pracownia GDRZ
A jeśli jest miksowanie, to balansowanie różnych mikrofonów i systemów mikrofonowych, panoramowanie, stosowanie sztucznego pogłosu i w znacznie mniejszym stopniu wyrównanie częstotliwości i przetwarzanie dynamiki.
Jeśli chodzi o głośność, sytuacja jest niejednoznaczna. Z jednej strony logiczne jest dążenie do oddania dynamiki występów na żywo w całym jej bogactwie. Ale zakres dynamiczny orkiestra symfoniczna osiąga 75-80 dB. Jednocześnie poziom hałasu w tle, na przykład w cichym pokoju wiejskim, może wynosić 20-25 dBA, aw mieszkaniach miejskich - do 40 dB i więcej. Przejdźmy teraz do stołu.
![](https://i0.wp.com/prosound.ixbt.com/recording/mastering/table.jpg)
Tabela głośności
Pokazuje zgodność faktycznie zmierzonych poziomów ciśnienia akustycznego w pokoju z dźwiękiem orkiestry symfonicznej i poziomami głośności wskazanymi w partyturze.
Okazuje się, że w przeciętnym hałaśliwym mieszkaniu w mieście słuchacz, po ustawieniu odtwarzania na mniej więcej głośność „jak w hali”, po prostu nie usłyszy niuansów PPP, a pp zmiesza się z hałasem tła mieszkania. Jeśli zwiększysz głośność o 15-20 dB, sytuacja w cichych miejscach ustabilizuje się, ale głośne wybuchną w strefie nieprzyjemnych wrażeń narządu słuchu, dodatkowo mogą pojawić się problemy z sąsiadami ...
Zatem słuchanie pełnego zakresu dynamiki muzyki akademickiej wymaga pomieszczenia o niskim poziomie hałasu tła, a nie wszyscy słuchacze mają takie pomieszczenia.
Jeśli chodzi o ogólny poziom RMS fonogramu – jeśli zachowany jest naturalny zakres dynamiki, muzyka klasyczna najprawdopodobniej będzie brzmiała ciszej pod względem ogólnego poziomu głośności w bezpośrednim porównaniu ze sceną, co zmniejsza jej szanse na bycie „w całej okazałości”. postrzegane przez słuchacza...
Dlatego innym podejściem jest zawężenie zakresu dynamiki do bardziej akceptowalnych wartości, podniesienie średniego poziomu, a co za tym idzie ogólnej głośności, za pomocą przetwarzania dynamicznego. Ale są też wady – naturalny oddech muzyki zaczyna ginąć, dynamiczne niuanse zostają wygładzone…
Myśląc w ten sposób o roli masteringu w muzyce akademickiej, dochodzimy do dwóch wniosków. Z jednej strony nie jest to potrzebne, jeśli celem jest zachowanie pełnej naturalności. Z drugiej strony, na obecnym etapie rozwoju rejestracji dźwięku, taki fonogram może być słabszy w dynamice i barwie w porównaniu z innymi.
Myśl o możliwym braku masteringu jako osobnego procesu została potwierdzona przez słynnego norweskiego inżyniera dźwięku Morten Lindbergh(Morten Lindberg, www.lindberg.no) w naszej korespondencji:
„Nasza praca jest skonstruowana w taki sposób, że nie ma wyraźnie oddzielonego procesu masteringu jako takiego. Nagrywanie, edycja, miksowanie i mastering są ze sobą nierozerwalnie związane i mają bardzo rozmyte granice, gdzie każdy kolejny etap jest w dużej mierze przygotowywany podczas poprzedniego”.
Od słów do czynów!
Rozumowanie przez rozumowanie, ale co z prawdziwą nowoczesną praktyką inżynierii dźwięku? Aby poznać szczegóły tego procesu, postanowiłem zapoznać się z opiniami doświadczonych kolegów inżynierów dźwięku, którzy bezpośrednio zajmują się muzyką akademicką, inżynierów masteringu, a także dowiedzieć się, jak sprawy mają się w zagranicznej społeczności dźwiękowej.
Potrzebujesz specjalisty?
W trakcie komunikacji z profesjonalistami okazało się, że żaden z moskiewskich akademickich inżynierów dźwięku, z którymi rozmawiałem, nie oddaje swoich nagrań muzyki akademickiej do masteringu poszczególnym specjalistom, każdy do końca woli wykonywać pracę samodzielnie. Powody są różne:
- brak konieczności przenoszenia fonogramu na dodatkową osobę, dostępność wszystkiego, co niezbędne do samodzielnego masteringu;
- brak budżetu na oddzielną dodatkowo płatną operację;
- brak inżynierów z wystarczającym doświadczeniem w opanowywaniu muzyki akademickiej w środowisku zawodowym, co oznacza, że nie ma komu powierzyć tego procesu, istnieje „niebezpieczeństwo nieznanych rąk”.
W takiej sytuacji odpowiednio okazuje się, że inżynierowie masteringu mają bardzo małe doświadczenie w pracy z muzyką akademicką.
Istnieje wiele zabawnych historii na temat nieudolnego opanowania muzyki akademickiej przez osoby dalekie od tego gatunku. Kilka z nich podzielił się ze mną inżynier dźwięku ze studia dźwiękowego Mosfilm. Giennadij Papin:
„Zdarzył się przypadek wysłania gotowy dysk zespół Aleksandrov do wydania w Polsce. Po wysłuchaniu fonogramu realizatorzy dźwięku „podciągnęli” wysokie częstotliwości o 15 (!) DB, uznając dźwięk za głuchy i nieodkryty.
Innym razem amerykańscy realizatorzy włączyli tłumik szumów w naszym nagraniu chóru, aby pozbyć się szumu analogowego, dzięki czemu nagranie brzmiało jak wata.
Inny częsty przypadek, gdy inżynierowie masteringu odmiany wycinają na żywo pauzy między numerami w klasyce i wykonują szybkie przejścia, słuchacz w ten sposób nieustannie przełącza się między atmosferą sali a martwą cyfrową ciszą.”
![](https://i0.wp.com/prosound.ixbt.com/recording/mastering/papin.jpg)
Giennadij Papin
Omówienie kwestii posiadania osobnego inżyniera dźwięku masteringowego, słynnego moskiewskiego inżyniera dźwięku Aleksander Wołkow zauważony:
"W naszym kraju przy nagrywaniu klasyki w większości przypadków nie ma podziału na producenta i realizatora dźwięku, co tu mówić o osobnym masteringu realizatorze!...".
Inaczej wygląda sytuacja w akademickim przemyśle muzycznym w Stanach Zjednoczonych. Korzystając z wiarygodnego zagranicznego źródła, które chciało pozostać anonimowe, udało nam się przekonać, że opanowanie jest niezbędnym etapem w produkcji finalnego produktu: inny materiał wymaga innego podejścia, ponieważ jest przeznaczony dla innego konsumenta. Wiele zależy również od konkretnego producenta odpowiedzialnego za projekt. Mastering lokalny jest najczęściej wykonywany indywidualnie. W szczególności uważa się, że techniczna część masteringu powinna odbywać się w jak najlepszych warunkach. Na przykład dużo uwagi poświęca się żmudnemu doborowi algorytmów ditheringu i konwersji częstotliwości próbkowania; dla innej muzyki do reprodukcji wybierane są różne przetworniki cyfrowo-analogowe… i nie wspominając o rzeczywistej części twórczej.
Nietknięta częstotliwość
Korekcja częstotliwości (wyrównanie) – czy jest konieczna do opanowania w muzyce akademickiej? Według Aleksandra Wołkowa nie:
„Staram się osiągnąć żądaną barwę barwy fonogramu na nagraniu poprzez odpowiednie umieszczenie i dobór odpowiednich modeli mikrofonów. W skrajnych przypadkach mogę coś poprawić na miksie. Przy masteringu nie mam już powodu, aby stosować wyrównywacz."
Tę samą opinię podziela wybitny rosyjski inżynier dźwięku i pedagog. Igor Pietrowicz Wieprintsev poprzez dodanie:
"Między innymi ton i niuanse gry muzyków mają duży wpływ na barwę nagrania, więc realizator dźwięku, pracując z muzykami nad niuansami ich wykonania, z pewnością wpływa na barwę nagrania."
Nie wszyscy profesjonaliści są tak nieugięci w kwestii wyrównania. Słynny moskiewski inżynier dźwięku i nauczyciel Maria Soboleva uwagi:
„Nie zawsze używam korektora przy masteringu, a jeśli go używam, to w minimalnych, ledwo słyszalnych, homeopatycznych „dawkach”.
![](https://i2.wp.com/prosound.ixbt.com/recording/mastering/soboleva.jpg)
Maria Soboleva
Inżynier dźwięku Wielkiej Sali Konserwatorium Moskiewskiego i nauczyciel Akademii. Gnezyny Michaił Spasski dodaje:
„Czasami zdarza się, że chcesz nieco skorygować dźwięk. Bardzo zależy to od materiału i konkretnej sytuacji oraz zespołu: dopuszczam wyrównanie na orkiestrze symfonicznej lub chórze; znacznie rzadziej pojawia się chęć wyrównania np. , fortepian solo”.
Co może dać korekta, jeśli nadal jej używasz? Zdarzają się sytuacje, gdy akustyka pomieszczenia brzmi zbyt jasno lub wręcz przeciwnie – dudnio – całe nagranie jest odpowiednio podkolorowane. Lekkie wyrównanie w tym przypadku może poprawić akustykę i jednocześnie wpłynąć na barwę brzmiących instrumentów. Innym przypadkiem jest instrument, który początkowo nie był bogaty w barwę. Dodając trochę niskich lub niskich średnich w masteringu, możesz dodać głębi instrumentowi i jednocześnie jego echa w pomieszczeniu.
W mojej praktyce miał miejsce przypadek udziału w studenckim konkursie nagraniowym na Międzynarodowym Kongresie Audio Engineering Society (AES) w Londynie w 2010 roku. Przedstawiłem nagranie Akademickiej Orkiestry Instrumentów Ludowych Ogólnorosyjskiego Państwowego Rozgłośni Telewizyjno-Radio pod dyrekcją N.N. Niekrasowa, wykonane z koncertu w dużej sali M. Gnezyny. Nagranie zostało zmiksowane przeze mnie w Surround i zajęło drugie miejsce w odpowiedniej nominacji. Jednym z zarzutów sędziów było to, że ogólny dźwięk nagrania był nadmiernie „brzęczący” na niskim środku. Myślę, że wynikało to z barwy sali, przez co ta barwa została podkreślona w brzmieniu instrumentów orkiestry. Wtedy po raz pierwszy zauważyłem, że w tej sytuacji delikatny mastering mógłby znacznie poprawić sytuację.
Inną możliwą rolą korektora w masteringu jest próba zbliżenia brzmienia muzyki akademickiej do jasnego, nasyconego wysokim tonem nowoczesnego brzmienia sceny. Ale znowu w bardzo wąskich granicach.
Maria Soboleva:
„Przy masteringu wpływam głównie na górne i dolne rejony pasma, a jak dotykam środka, to przy miksowaniu. Ale często słuchając materiału jakiś czas po skończonej pracy, w efekcie wyłączam korektor.Jeżeli suma wprowadzonych zalet nie przekracza wad, które się pojawiły. , podejmuję decyzję o odmowie korekty.Tu główna zasada brzmi „nie szkodzić!””.
Jakie jest niebezpieczeństwo korektora w klasyce? Poczucie nienaturalności, nadmiernej jasności lub odwrotnie, dudniącego dźwięku. Dobre instrumenty na żywo, brzmiące w dobrych warunkach akustycznych i z powodzeniem nagrane, są zazwyczaj harmonijne i zrównoważone w barwie, dlatego po raz kolejny podkreślamy potrzebę niezwykle delikatnego obchodzenia się z korektorem przy opanowywaniu muzyki akademickiej.
Znany inżynier masteringu Wim Bilt(Wim Bult, Inlinemastering) dzieli się swoim doświadczeniem:
„Nie mam dużo pracy przy masteringu klasyków. Pracowaliśmy nad kilkoma nagraniami na żywo i użyliśmy trochę korektora analogowego dla ostrego i kompresora.Weiss DS1 dlakierownictwodynamika ”.
![](https://i0.wp.com/prosound.ixbt.com/recording/mastering/wim-bult-inlinemastering.jpg)
Wim Bult, studio Inlinemastering
Z ppp przed fff
Przetwarzanie dynamiki jest wykorzystywane w taki czy inny sposób w muzyce akademickiej przez wszystkich realizatorów dźwięku i masteringów, z którymi udało mi się porozmawiać. W takim przypadku można ustawić kilka zadań, na ogół wynikających z siebie:
- zmniejszyć zakres dynamiczny, jeśli jest zbyt szeroki;
- zwiększyć średni poziom dźwięku fonogramu;
- aby nadać fonogramowi gęstszy dźwięk.
Wiele zależy od przyszłości fonogramu. Na przykład w USA dużo muzyki klasycznej jest nagrywanych dla parafian różnych kościołów, ta publiczność słucha muzyki głównie w samochodzie, więc potrzebują wystarczająco mocnego przetwarzania dynamicznego, w przeciwieństwie do melomanów, dla których ważne jest zachowanie jak największy zakres dynamiczny.
Różne są również narzędzia wykorzystywane do osiągnięcia tych celów. Ktoś używa wyłącznie „ręcznej” metody rysowania obwiedni głośności, ktoś korzysta z urządzeń do przetwarzania dynamiki, ktoś stosuje oba podejścia. Tak mówi słynny rosyjski inżynier masteringu. Andriej Subbotin(Sobotnie studio masteringowe):
"Miałem doświadczenie w opanowaniu muzyki akademickiej, polegało to głównie na narysowaniu w niektórych momentach koperty głośności. Kompresory na klasykach wcale nie lubią, lepiej to zrobić" ręcznie ".
Morten Lindbergh:
"Mastering w naszym studiu to przede wszystkim kontrola dynamiki i eksport plików w wymaganym formacie. Nie używamy nie urządzeń przetwarzających dynamikę, a obwiedni głośności w Pyramix używamy do ręcznego powstrzymywania „wystrzeliwania” ataków, a także podkreślania i ujawniania ekspresji we fragmentach muzycznych.”
Wim Bilt:
" W klasykach jest to większa regulacja głośności – podbijanie bardzo miękkich pasaży i ewentualnie obniżanie głośności w dynamicznych.”
Rzeczywiście, formacja ręcznie obwiednia głośności jest najbardziej kontrolowanym wpływem na dynamikę utworu, ale jednocześnie jest to bardzo żmudna praca. Mając pewien gust i umiejętności można znacznie poprawić brzmienie – nieco złagodzić kontrasty dynamiczne, ale zachować dramaturgię utworu, jednocześnie czyniąc fonogram bardziej przystępnym dla słuchacza. W tej pracy ważne jest unikanie mocno słyszalnych skoków głośności wynikających z obwiedni – tego rodzaju „realizator dźwięku” jest słyszalny i niepożądany.
A wcześniej ...
Za poprzednika nowoczesnego ręcznego renderowania obwiedni głośności można uznać kompresję „ręczną” w erze analogowej (a także cyfrowej), kiedy podczas nagrywania sumy stereo realizator dźwięku, obserwując poziom mastera, często trzymał rękę w pobliżu suwaka głównego. Jeśli nastąpił gwałtowny, niebezpieczny wzrost poziomu, mistrz lekko się oczyścił, zwykle z późniejszym powrotem do pozycji wyjściowej, w cichych miejscach, wręcz przeciwnie, poziom nieznacznie wzrósł.
Warto też wspomnieć o „kablowym” (korekta) – finalnej kopii nagrania, które w efekcie trafiło do biblioteki. Powstał przez przepisanie, zwykle za pomocą konsoli analogowej, kopii naklejonej przez wydawcę na nową taśmę. Stało się tak, ponieważ za słuszniejsze uznano zachowanie w bibliotece solidnej, niesklejonej wersji – wolniej się psuła i trwała dłużej. Podczas tego przepisywania inżynier dźwięku mógł zrobić wszystko, co uważał za stosowne na konsoli, jako ostatni szlif: niewielką regulację częstotliwości, tę samą ręczną regulację poziomu głównego, a czasami, jeśli to konieczne, dodanie pogłosu. Ten proces jest bardzo podobny do nowoczesnego masteringu, prawda?
Stosowanie kompresja - jest to z jednej strony sposób wpływania na zakres dynamiczny poprzez automatyzację ręcznego rysowania obwiedni, z drugiej jest sposobem na wprowadzenie pewnej gęstości do fonogramu, co jest bardziej typowe dla fonogramów pop, ale w klasyce może się przydać również w małych dawkach. Nie wszyscy akademiccy inżynierowie dźwięku używają kompresji do masteringu, ale niektórzy to robią.
Maria Soboleva:
„Widzę rolę przetwarzania dynamiki w masteringu w ujawnianiu niuansów w muzyce, ale nie w zmianie jej charakteru. Wtedy ta muzyka ma większe możliwości otwarcia się na słuchacza.stosuneknie więcej niż 1,5-1,6. Wpływ ten nie powinien mieć decydującego wpływu na kontrasty dynamiczne.Fortepianjednocześnie pozostaje cichy, ale nie wykracza poza granice percepcji, lekko się manifestuje iFortebrzmi jasno, ale nie ogłuszając.”
Aleksander Wołkow:
"Uwielbiam efekt, jaki miękka wielopasmowa kompresja wywiera na dźwięk. Jako przykład wezmę ustawienia wstępne BK (Bob Katz) z sekcji masteringowej TC Electronic System 6000. Współczynnik i dość długie parametry Attack i Release, kompresja się obraca mają być miękkie. Nie słychać tego jako takiego, ale na pewno daje korzyść, pogrubiając fonogramy i podnosząc średni poziom.”
Michaił Spasski:
„Jeśli używam kompresji, wolę równoległą. W przeciwieństwie do konwencjonalnej kompresji, ten tryb pozwala pięknie docisnąć ciche miejsca bez wpływu na dynamikę głośnych fragmentów”.
Zbliżony do kompresji równoległej efekt daje tzw. kompresor w górę, w którym w przeciwieństwie do obniżania poziomów w miejscach głośnych, jak w konwencjonalnej kompresorze (w dół), miejsca ciche są podciągane do góry.
![](https://i1.wp.com/prosound.ixbt.com/recording/mastering/Upward%20Compressor.jpg)
Sprężarka w górę
Jeśli więc stosujemy kompresję, to powinien to być efekt delikatny i miękki, który nie szkodzi dźwiękowi. To, czy jest to konieczne, jest kwestią sporną, a wiele osób woli działania manualne, ale zdecydowanie jest to możliwe, zawsze wykazując smak i poczucie proporcji.
Bob Katz i kompresja równoległa
Amerykański inżynier Bob Katz jest wybitną postacią w dziedzinie masteringu. Oprócz wielu książek, w tym słynnego Mastering Audio, ma wiele artykułów, odpowiedzi na pytania, przydatne komentarze na forach w Internecie.
Mastering Audio Book Boba Katza
Jedną z technik, które aktywnie poleca, jest kompresja „równoległa”. Jej istotą jest zdublowanie fonogramu, w którym tylko jedna z powstałych kopii poddawana jest kompresji (co więcej, dość twardej). Ten skompresowany fonogram miesza się z nienaruszonym. W wyniku tego procesu miejsca głośne (i, co ważne, ataki dźwięku) są praktycznie nienaruszone, a ciche stają się jaśniejsze i gęstsze – wynik wydaje mi się całkiem pożądany w muzyce akademickiej. Aby uzyskać więcej informacji na temat tej techniki, odwiedź witrynę Boba Katza http://www.digido.com.
Ograniczanie - wydaje się, że ekstremalny stopień kompresji nie powinien być bezpośrednio związany z klasyką. Ale znowu to jest decydujące stopień korzystania z urządzenia. Większość profesjonalistów, którzy ze mną rozmawiali, potwierdziła, że używają ogranicznika głównie jako ostatniego elementu łańcucha do różnych celów.
Jednym z nich jest w rzeczywistości normalizacja plus dithering. Urządzenia takie jak Waves L2 / L3 z powodzeniem wykonują tę pracę. Sam limiter może być użyty po prostu do podniesienia głośności utworu do poziomu, na którym zaczyna się limitowanie. Można też pójść dalej i nastroić urządzenie na mocniejszy efekt, ale jednocześnie zadbać o to, by odcinane były tylko fragmenty przebiegu odstające od środkowego poziomu. Gdy tylko limiter zacznie stale pracować na całym materiale, już bardzo uszkadza fonogram. W ten sposób na niektórych fonogramach można uzyskać wzmocnienie rzędu 5-6 dB, co jest znaczące. Rysunek pokazuje przesadną sytuację ograniczającą, ale myślę, że ogólna idea jest jasna. Powyżej wersji oryginalnej, poniżej - limitowana.
Ograniczanie
Ogranicznik przydaje się również w przypadkach, gdy w całej ścieżce dźwiękowej występuje kilka fragmentów szczytowych, które odstają od średniego poziomu i nie pozwalają na podniesienie ogólnego poziomu. Następnie możesz skonfigurować urządzenie, aby reagowało na takie szczyty. Innym sposobem radzenia sobie z takimi miejscami jest ponowne ręczne naciągnięcie głośności i można to zrobić na określonej ścieżce wielościeżkowej, która spowodowała ten szczyt (na przykład szczególnie silne uderzenie kotłów). W tym przypadku jest mniejsza szansa na uzyskanie efektu „zatonięcia” całego fonogramu w poziomie.
![](https://i2.wp.com/prosound.ixbt.com/recording/mastering/ovchinnikov.jpg)
Władimir Owczinnikow
Inżynier dźwięku i masteringu studia dźwiękowego Mosfilm Władimir Owczinnikow:
"W muzyce klasycznej dynamika na masteringu jest dla mnie jeszcze bardziej ograniczająca niż kompresja. Kompresja powoduje poważne zmiany w dźwięku, balans muzyczny. Wzmocnienie na poziomie ogólnym jest znaczące."
Zbadaliśmy więc podstawowe techniki stosowane w opanowaniu muzyki akademickiej. Istnieją również pewne działania, które są stosunkowo częste w masteringu pop, rzadziej w masteringu akademickim.
Na przykład konwersja MS jest raczej atrybutem procesu przywracania i składania różnych fonogramów w jedną płytę. W innych przypadkach problemy z równowagą środka i krawędzi bazy stereo są zwykle rozwiązywane podczas nagrywania i miksowania.
Ogólny pogłos w sekcji master jest również rzadkością – pożądane wrażenie przestrzenne buduje się już w procesie nagrywania i miksowania oraz dodatkowa przestrzeń na mistrzu zwykle nie jest wymagane.
W końcu…
Przy potrzebie znacznie mniej oczywistej niż na scenie, potrzebie opanowania muzyki akademickiej, ten etap tworzenia produktu końcowego, jak widzimy, jest prawie zawsze obecny. Gdzieś z prawie niezauważalną różnicą przed i po, gdzieś z poważniejszą transformacją fonogramu. Zdarza się, że duzi zagraniczni wydawcy muzyki akademickiej głośno deklarują całkowitą „naturalność” wydawanych płyt i brak masteringu. Są jednak doniesienia inżynierów dźwięku, którzy porównywali opcje przed i po, o występowaniu poważnych różnic w dźwięku, co oznacza, że wciąż trwa jakiś mastering.
Sytuacja, w której na płycie, miejmy nadzieję, jest tylko muzyka akademicka, teraz się dla nas przejaśnia. Ale dzisiaj coraz częściej widzimy przypadki łączenia i przeplatania gatunków, stylów, dźwięków… Uderzający przykład- ścieżki dźwiękowe do filmów, które mogą zawierać numery czysto orkiestrowe oraz kompozycje rockowe lub popowe. Co zrobić w takim przypadku – wyprowadzić orkiestrę na scenę? Albo wyciszyć popowe numery? Czy może działać w obie strony? To pytania do dalszej eksploracji ogromnego tematu masteringu.
Autor dziękuje Marii Sobolevie, Igorowi Pietrowiczowi Veprintsevowi, Michaiłowi Spasskiemu, Aleksandrowi Wołkowowi, Giennadijowi Papinowi, Andreyowi Subbotinowi, Vladimirowi Ovchinnikovowi, Wimowi Bultowi, Mortenowi Lindbergowi za pomoc w tworzeniu tego artykułu.
Dołączamy, jako ilustracje audio, nagrania fonogramów niemasterowanych i zmasterowanych wykonane w jednym z największych moskiewskich studiów.
Chcesz nauczyć się przetwarzać dźwięk i miksować fonogramy „od i do”. Dowiesz się: co to jest sygnał dźwiękowy, moc i wysokość, ciśnienie dźwięku, faza i głośność, ile pieniędzy wydać na sprzęt studyjny, jak skonfigurować sterownik karty dźwiękowej ASIO, latencję, a także wirtualne wejścia i wyjścia, czym są analizatory, czym są, dlaczego są potrzebne i jak z nich korzystać, zapoznać się szczegółowo z zasadami i cechami wyrównywania bębnów basowych o różnych barwach, jak przebiega bramkowanie, kompresja i wyrównywanie bębna basowego praktyka, jak obrabiany jest werbel z korektorem i kompresorem, cechy przetwarzania instrumentu perkusyjnego „Oh-ho” z korektorem parametrycznym i wiele więcej. Cała ta wiedza jest Ci przekazywana w formie, która pozwoli Ci ją przyswoić i zastosować w praktyce tak łatwo, szybko i efektywnie, jak to tylko możliwe.
Kurs 1. Teoria dźwięku cyfrowego
Ten kurs teoretyczny jest mini encyklopedią wideo i został stworzony, aby pomóc początkującym zrozumieć najważniejsze pojęcia, terminy i podstawy dźwięku cyfrowego.
Kurs 2. Domowy sprzęt studyjny do miksowania fonogramów
W tym kursie wideo dowiesz się, jaki sprzęt jest potrzebny do uzyskania wysokiej jakości przetwarzania dźwięku i miksowania fonogramów i dlaczego jest to konieczne. Dowiesz się również, jak dobrać odpowiedni sprzęt, który przy takiej różnorodności jest optymalny pod każdym względem.
Kurs 3. Steinberg Nuendo 4. Strojenie, optymalizacja miksowania i podstawy dźwięku
W tym samouczku wideo poznasz wszystkie niezbędne funkcje i możliwości Nuendo 4 do efektywnej pracy z dźwiękiem. Kurs pozwoli osobom, które zetkną się z nim po raz pierwszy, nauczyć się pracy w tym programie.
Kurs 4. Urządzenia do przetwarzania dźwięku. Urządzenie i praktyczne zastosowanie
Na tym kursie skupimy się na podstawowych urządzeniach do przetwarzania dźwięku, ich konstrukcji i praktycznym zastosowaniu. Dowiesz się gdzie, dlaczego i co najważniejsze, z jakiego urządzenia korzystamy. Kurs obejmuje wszystkie podstawowe efekty i narzędzia stosowane w obróbce i miksowaniu fonogramów.
Kurs 5. Zestaw perkusyjny. Leczenie
Kurs podzielony jest na pięć części, z których każda poświęcona jest obróbce określonego narzędzia. Różne przykłady szczegółowo opisują zasady i techniki obsługi bębna basowego, werbla, tom-tomów, hi-hatu i mikrofonów overhead. Na tym kursie porozmawiamy tylko o przetwarzaniu, a nie o miksowaniu i tylko o akustyce, a nie o elektronicznym zestawie perkusyjnym.
Kurs 6. Przetwarzanie i mieszanie zestawu perkusyjnego „od i do” I
Kurs 7. Przetwarzanie i mieszanie zestawu perkusyjnego „od i do” II
Kurs 8. Przetwarzanie i mieszanie zestawu perkusyjnego „od i do” III
Kurs 9. Perkusja. Przetwarzanie i mieszanie
Na tym kursie dowiesz się o przetwarzaniu najpopularniejszych instrumentów perkusyjnych i jak miksować grupę perkusyjną.
Kurs 10. Perkusja elektroniczna. Przetwarzanie i mieszanie
W trakcie tego kursu autor pokazuje obróbkę i mieszanie sekcji perkusyjnej na jednym przykładzie. Na tym kursie porozmawiamy o perkusji elektronicznej w muzyce tanecznej, o osobliwościach ich przetwarzania i oczywiście o ich miksowaniu.
Kurs 11. Bas. Przetwarzanie i mieszanie
Kurs podzielony jest na dwie części. Pierwsza poświęcona jest przetwarzaniu i miksowaniu gitary basowej, druga dotyczy przetwarzania i miksowania elektronicznego syntezowanego basu w muzyce tanecznej. Na kursie omówione zostaną zarówno przetwarzanie, jak i miksowanie basu z sekcją perkusyjną.
Kurs 12. Przetwarzanie i miksowanie gitar
Pierwsza część kursu poświęcona jest obróbce i miksowaniu akustyki, druga - obróbce i miksowaniu gitary elektrycznej. Różnorodne przykłady badają zasady i metody przetwarzania różnych typów gitar akustycznych i elektrycznych.
Kurs 13. Przetwarzanie i miksowanie instrumentów klawiszowych
Kurs składa się z kilku części, z których każda koncentruje się na konkretnym instrumencie klawiszowym. Pomimo tego, że instrumenty takie jak marimba i wibrafon są instrumentami perkusyjnymi klawiszowymi, ich przetwarzanie i miksowanie również zostanie omówione w tym kursie.
Kurs 14. Przetwarzanie dętych i strun
Ten kurs wideo poświęcony jest obróbce instrumentów dętych i smyczkowych. Każda lekcja obejmuje obróbkę określonego instrumentu muzycznego.
Kurs 15. Miksowanie fonogramu „od i do” I
Podczas tego praktycznego kursu autor miksuje miks w stylu pop (w stylu chanson) od podstaw do końca. Ten kurs został stworzony po to, abyś mógł zobaczyć proces miksowania fonogramu „od i do”. Przez cały kurs działaniom autora towarzyszą komentarze, nie skupiając się jednak na teorii, definicjach i podstawach pracy z dźwiękiem.
Kurs 16. Miksowanie fonogramu „od i do” II
Podczas tego praktycznego kursu autor miksuje miks w stylu tanecznym „od środka i na zewnątrz”. Ten kurs został stworzony, abyś mógł zobaczyć proces miksowania fonogramu od początku do końca. Przez cały kurs działaniom autora towarzyszą komentarze, nie skupiając się jednak na teorii, definicjach i podstawach pracy z dźwiękiem.
Bonusy:
- Wsparcie praw autorskich
- Bezpłatne mastering fonogramu