Wojciech Błażejczyk SOUND DESIGN I. materiały pomocnicze



Podobne dokumenty
Wykład V. Dźwięk cyfrowy. dr inż. Janusz Słupik. Gliwice, Wydział Matematyki Stosowanej Politechniki Śląskiej. c Copyright 2014 Janusz Słupik

Przebieg sygnału w czasie Y(fL

SYNTEZA METODĄ MODULACJI CZĘSTOTLIWOŚCI (FM)

Dźwięk dźwiękowi nierówny, czyli o tym jak brzmi XXI wiek

Technika Studyjna II Wykład I i II

Elektroniczne instrumenty muzyczne. SYNTEZA TABLICOWA Cyfrowe generatory

TECHNIKI MULTIMEDIALNE

Spis Treści. Co to jest? Budowa Próbkowanie Synteza FM Synteza WT MIDI

LABORATORIUM Sygnałów, Modulacji i Systemów ĆWICZENIE 2: Modulacje analogowe

Demodulator FM. o~ ~ I I I I I~ V

Modulacja i kodowanie - labolatorium. Modulacje cyfrowe. Kluczowane częstotliwości (FSK)

M-Audio Venom. t test. Produkty M-Audio to dla mnie przede wszystkim. Syntezator

Elektroniczne instrumenty muzyczne EFEKTY BRZMIENIOWE. w elektronicznych instrumentach muzycznych

PODSTAWOWE METODY SYNTEZY DŹWIĘKU

Politechnika Warszawska

UKŁADY Z PĘTLĄ SPRZĘŻENIA FAZOWEGO (wkładki DA171A i DA171B) 1. OPIS TECHNICZNY UKŁADÓW BADANYCH

Spis treści. 1. Cyfrowy zapis i synteza dźwięku Schemat blokowy i zadania karty dźwiękowej UTK. Karty dźwiękowe. 1

Elektroniczne instrumenty muzyczne DŹWIĘK MUZYCZNY. Właściwości, analiza i resynteza addytywna

f = 2 śr MODULACJE

DJCONTROL COMPACT I DJUCED 18 PIERWSZE KROKI

Cechy karty dzwiękowej

Politechnika Warszawska

2. STRUKTURA RADIOFONICZNYCH SYGNAŁÓW CYFROWYCH

Elektroniczne instrumenty muzyczne KOMPUTEROWE NARZĘDZIA MUZYCZNE

Lekcja 20. Temat: Detektory.

Systemy multimedialne. Instrukcja 5 Edytor audio Audacity

10. Demodulatory synchroniczne z fazową pętlą sprzężenia zwrotnego

1. Modulacja analogowa, 2. Modulacja cyfrowa

Demodulowanie sygnału AM demodulator obwiedni

Politechnika Warszawska

Elektroniczne instrumenty muzyczne. SYNTEZA TABLICOWA Cyfrowe generatory

Ćwiczenie 3,4. Analiza widmowa sygnałów czasowych: sinus, trójkąt, prostokąt, szum biały i szum różowy

Dźwięk podstawowe wiadomości technik informatyk

Ćwiczenie II. Edytor dźwięku Audacity

POLITECHNIKA POZNAŃSKA

12. Demodulatory synchroniczne z fazową pętlą sprzężenia zwrotnego

Scenariusz warsztatów z dźwięku, MediaLab Junior Warszawa 2013

PL B BUP 16/04. Kleczkowski Piotr,Kraków,PL WUP 04/09

(1.1) gdzie: - f = f 2 f 1 - bezwzględna szerokość pasma, f śr = (f 2 + f 1 )/2 częstotliwość środkowa.

08 Stereodekoder, korekcja barwy dźwięku.

Politechnika Warszawska Wydział Elektryczny Laboratorium Teletechniki

SZCZECIN Telefon:

Nauka o słyszeniu Wykład IV Wysokość dźwięku

Kompresja dźwięku w standardzie MPEG-1

5 999,00 zł. Numer katalogowy 690. Kod EAN

Przełączanie źródła sygnału audio

GENERATOR FUNKCYJNY FG-2

Percepcja dźwięku. Narząd słuchu

INSTRUKCJA OBSŁUGI LOUDBOX MINI

Instrukcja obsługi programu. BlazeVideo HDTV Player v6

Synchronizacja dźwięku i obrazu. Opracował: dr inż. Piotr Suchomski

Generowanie sygnałów na DSP

Podstawy Przetwarzania Sygnałów

DJCONTROL MP3 LE I DJUCED 18 PIERWSZE KROKI

Politechnika Warszawska

Elektroniczne instrumenty muzyczne SAMPLING

Ćwiczenie 3. Właściwości przekształcenia Fouriera

Algorytmy detekcji częstotliwości podstawowej

8-Channel Premium Mic/Line Mixer MIK0076. Instrukcja obsługi

McCrypt Wielofunkcyjny mikser stereo SM 3090 Nr zam

Filtry cyfrowe procesory sygnałowe

Xelee Mini IR / DMX512

Elektroniczne instrumenty muzyczne SYNTEZA SUBTRAKTYWNA

Modulatory PWM CELE ĆWICZEŃ PODSTAWY TEORETYCZNE

EGZAMIN POTWIERDZAJĄCY KWALIFIKACJE W ZAWODZIE Rok 2019 ZASADY OCENIANIA

Nauka o słyszeniu. Wykład III +IV Wysokość+ Głośność dźwięku

LEKCJA 2 Program do zdalnego sterowania robotem

A. Prace indywidualne - dwie do wyboru z trzech: B. Prace indywidualne lub zespołowe - dwie do wyboru z trzech:

ZAŁĄCZNIK NR Cyfrowy mikser foniczny z wyposażeniem ilość 1 kpl.

Model AP 650 AP 450 AP 250. Liczba klawiszy Działanie klawiszy. Tri-Sensor Scaled Hammer Action Keyboard II

Program V-SIM tworzenie plików video z przebiegu symulacji

POLITECHNIKA POZNAŃSKA

Ustawienia ogólne. Ustawienia okólne są dostępne w panelu głównym programu System Sensor, po kliknięciu ikony

Wytwarzanie sygnałów SSB metodę filtracyjną

Autorzy: Tomasz Sokół Patryk Pawlos Klasa: IIa

1. Definicja i przeznaczenie przerzutnika monostabilnego.

BEATMIX 4 INSTRUKCJA OBSŁUGI

Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32


ANALIZA HARMONICZNA DŹWIĘKU SKŁADANIE DRGAŃ AKUSTYCZNYCH DUDNIENIA.

Przygotowali: Bartosz Szatan IIa Paweł Tokarczyk IIa

Spis treści. Format WAVE Format MP3 Format ACC i inne Konwersja między formatami

SYMULACJA KOMPUTEROWA SYSTEMÓW

Systemy i Sieci Telekomunikacyjne laboratorium. Modulacja amplitudy

TEORIA WYTWARZANIA DŹWIĘKÓW

Integracja systemu RACS 4 z generatorem obrazu CCTV

Dźwiękowa Technika Studyjna

Opis ultradźwiękowego generatora mocy UG-500

STEROWNIK TUBY LED STM-64

PROGRAMOWANIE PWM. Porty, które mogą być zamienione na PWM w każdym module RaT16 to port 3,4,5,6

Technika audio część 2

BADANIE MODULATORÓW I DEMODULATORÓW AMPLITUDY (AM)

Sztuka dźwięku : technika i realizacja / Małgorzata Przedpełska-Bieniek. Warszawa, Spis treści

Zjawisko aliasingu. Filtr antyaliasingowy. Przecieki widma - okna czasowe.

Akustyka muzyczna ANALIZA DŹWIĘKÓW MUZYCZNYCH

Rozdział 4. Multimedia

MODULACJA. Definicje podstawowe, cel i przyczyny stosowania modulacji, rodzaje modulacji. dr inż. Janusz Dudczyk

Zamień inspirację w muzyczny geniusz

Transkrypt:

Wojciech Błażejczyk SOUND DESIGN I materiały pomocnicze Spis treści: 1. Sound design wprowadzenie 2. Syntezatory 3. Tworzenie dźwięków o określonej wysokości 4. Tworzenie dźwięków o nieokreślonej wysokości 5. Inne metody syntezy 6. Tworzenie dźwięków zmiennych w czasie 7. Efekty modulacyjne 8. Morfing dźwięku 9. MIDI i sekwencer 10. Bibliografia 11. Plan zajęć

1. SOUND DESIGN WPROWADZENIE Sound design można zdefiniować jako różnego rodzaju twórcze działania z dźwiękiem (zarówno przetwarzanie, generowanie jak i montaż), których celem jest stworzenie dźwięków nowych, oryginalnych i ich wykorzystanie w muzyce i formach audiowizualnych. Sound design jest ważnym elementem dźwięku w filmie, krótkich formach audiowizualnych takich jak reklama, logo czy czołówka programu telewizyjnego, w teatrze, słuchowisku radiowym, grach komputerowych, stronach internetowych, a także w muzyce. W odróżnieniu od muzyki elektronicznej, sound design nie stanowi formy autonomicznej. Określenie sound design nie posiada oficjalnego (tzn. akceptowanego przez całe środowisko ludzi pracujących z dźwiękiem) polskiego odpowiednika. Najodpowiedniejszym określeniem wydaje się kompozycja dźwięku wprowadzili je Józef Patkowski i Krzysztof Szlifirski w odniesieniu do muzyki elektroakustycznej, skomponowanej przez nich do filmów Sposób bycia i Niebo bez słońca. W odniesieniu do sound design u określenia kompozycja dźwięku użyła Joanna Napieralska w filmie Z odzysku (2006 r.). Inne używane określenia to efekty specjalne, dźwiękowe efekty specjalne, produkcja dźwięku, projekt dźwięku. W innych krajach nieanglojęzycznych pojęcia sound design zwykle nie tłumaczy się. Pierwszy raz pojęcie sound design pojawiło się w roku 1959 na plakacie spektaklu Hammersmith w London s Lyric Theatre (w odniesieniu do Davida Collisona, twórcy efektów dźwiękowych w przedstawieniu). W przemyśle filmowym określenie sound design er w napisach końcowych pojawiło się pierwszy raz w 1969 roku w odniesieniu do Waltera Murch a, twórcy dźwięku w filmie F. F. Coppoli The Rain People. Powyższa definicja sound design u wskazuje na 2 cechy szczególne, odróżniające go od tworzenia ścieżki dźwiękowej w tradycyjnym rozumieniu oraz z drugiej strony od komponowania muzyki: 1) twórcze, kreatywne działanie, wychodzące poza ramy zwykłego rzemiosła polegającego na prawidłowym podłożeniu efektów dźwiękowych do obrazu. 2) operowanie dźwiękami raczej niemuzycznymi, pozbawionymi elementów melodii, czy harmonii. Granice te są płynne i często trudno jednoznacznie oddzielić sound designer a od kompozytora czy reżysera dźwięku w filmie, często też role te powierzone są jednej osobie. Można powiedzieć, że sound design jest kategorią pośrednią pomiędzy muzyką a dźwiękiem. Metody tworzenia sound design u można podzielić na 3 kategorie: 1) nagrywanie tradycyjnych efektów dźwiękowych i atmosfer, a następnie ich łączenie, montaż i przetwarzanie przy pomocy wszelkich dostępnych narzędzi dla osiągnięcia nowych jakości brzmieniowych. Zaletą tej metody jest żywość, naturalność, ale istotnym problemem jest trudność oderwania brzmienia dźwięku ostatecznego od brzmienia dźwięku pierwotnego; 2) generowanie dźwięków i ich kształtowanie przy użyciu instrumentów elektronicznych zaletą tej metody jest duża możliwość kształtowania dźwięku, ale wadą duża statyczność i trudna do uniknięcia sztuczność; 3) nagrywanie i przetwarzanie dźwięków akustycznych instrumentów muzycznych lub przedmiotów wykorzystanych jak instrumenty. Najczęściej wykorzystuje się nietypowe techniki, preparacje, nietypowe techniki mikrofonizacji. Zaletą tej metody jest możliwość wykreowania bogatych, dynamicznie zmieniających się, żywych dźwięków, które mogą być nagrywane synchronicznie z obrazem

GENEZA Na rozwój sound design u duży wpływ wywarły następujące zjawiska: 1) rozwój kinematografii: - coraz większe wymagania co do dźwięku w związku z rozwojem technologii, - rozwój filmów science fiction oraz animacji; - tworzenie zaawansowanych wizualnych efektów specjalnych, które muszą znaleźć odzwierciedlenie w dźwięku, - rozwój technologii 3D 2) rozwój nurtów sonorystycznych w muzyce współczesnej, nowe zastosowania instrumentów, nowe techniki gry, zdobycze bruitystów (intonarumori); akusmatyczne podejście do dźwięku (termin stworzony przez Pierre Schaeffera w odniesieniu do muzyki konkretnej, oznaczający oderwanie dźwięku od jego źródła); 3) powstanie i rozwój muzyki elektronicznej, którą można uznać za autonomiczną formąę sound design u; 4) rozwój niektórych gatunków muzyki rozrywkowej ambientu, drone music, elektroniki; 5) rozwój technologii, umożliwiający tworzenie zaawansowanych dźwięków przy pomocy komputera, a także umożliwiający implementację sound design u np. do gier komputerowych i stron WWW; 6) powstanie nowych form audiowizualnych (reklama) i mediów (internet), które zmuszają twórców udźwiękowienia do oryginalności w celu zatrzymania uwagi widza. SOUND DESIGN W FILMIE Pojęcie sound design w odniesieniu do sztuki filmowej ma 2 znaczenia: 1) sound design erem określa się osobę odpowiedzialną za artystyczną i technologiczną stronę dźwięku w filmie, co odpowiada roli reżysera dźwięku w filmie (supervising sound editor), z tą różnicą, że tytułu sound design używa się w odniesieniu do filmów, w których dźwięk jest czymś więcej niż wiernym odtworzeniem realiów dźwiękowych; pełni ważną funkcję dramaturgiczną lub zawiera elementy nierzeczywiste (efekty, atmosfery, tła) 2) w węższym znaczeniu sound design oznacza kompozycję dźwiękowych efektów specjalnych. Można tu wyróżnić 1 : - dźwięki przedmiotów, postaci i zjawisk występujących w filmie, ale niespotykanych w świecie rzeczywistym (pojazdy przyszłości, potwory, nieistniejące gatunki zwierząt, zjawiska magiczne itd.). Dźwięki te tworzy się zwykle przetwarzając efekty dźwiękowe z fonotek lub nagrane, łącząc je z innymi lub używając w zaskakującym kontekście; - dźwięki ilustrujące subiektywne przeżycia bohaterów, ich emocje i stan psychiczny (często są one używane w sposób bardzo dyskretny lub polegają na przekształceniu niektórych dźwięków otoczenia); - dźwięki związane z dramaturgią filmu zwykle są to dźwięki stanowiące tło (klastery, plamy dźwiękowe), współgrające z muzyką (powinny być tworzone w odniesieniu do muzyki), wprowadzające napięcie, poczucie grozy itd. - dźwięki w scenach odrealnionych (np. sceny wizji sennych lub halucynacji), gdzie sound design obok elementów obrazu stanowi istotny element oddzielenia tych scen od scen realistycznych - dźwięki ilustrujące wszelkie specjalne efekty w obrazie, takie jak figury montażowe, zwolnienie obrazu, przenikanie, plansza tytułowa etc. 1 por. praca magisterska Rafała Smolenia Sound design w kinie amerykańskim szczególny rodzaj reżyserii dźwięku w filmie, s. 41.

Obecnie w kinie światowym przeważa zastosowanie określenia sound designer do osób tworzących dźwiękowe efekty specjalne. W przypadku filmów o większym budżecie zwykle zatrudniany jest specjalista od tworzenia specjalnych efektów dźwiękowych. Zdarza się także (jak w filmie Incepcja Christophera Nolana z 2010 r.) że w napisach końcowych obok kompozytora muzyki pojawia się funkcja ambient music design. Jeden z czołowych amerykańskim sound design erów, David Sonnenheim, wskazując na swoje inspiracje w tworzeniu sound design u, zwraca uwagę na funkcje dźwięku analogiczne do środków poetyckich: - podobieństwo (obiektywne podobieństwo akustyczne między 2 różnymi dźwiękami, np. ryk lwa i odgłos burzy); - hiperbola (celowe wyolbrzymienie dźwięku); - metafora (sugestia dźwiękowa np. niski dudniący dźwięk sugerujący atmosferę grozy); - symbol i alegoria (reprezentacja danego dźwięku przez inny, symbolizujący go, np. bicie dzwonu oznaczające śmierć); - ironia (użycie dźwięku stanowiącego przeciwieństwo oczekiwań widza, np. śmiech dzieci w dramatycznym momencie filmu); - paradoks (zaprzeczenie, użycie dźwięku niezgodnie z logiką); - animizacja (nadanie przedmiotowi cech istoty ożywionej np. ryk zwierzęcia jako odgłos silnika); - metonimia (ukazanie szczegółu informującego o całości); - eufemizm (użycie dźwięku zastępczego dla uniknięcia pokazania właściwej sceny, np. ciągły dźwięk urządzenia monitorującego akcję serca zamiast ukazania śmierci postaci). SOUND DESIGN W MUZYCE W muzyce współczesnej część muzyki elektronicznej może być uznana za rodzaj sound design u, tyle że o charakterze autonomicznym. Warsztat kompozytora jest często zbieżny z warsztatem sound design era: programy do montażu dźwięku, zaawansowane przetwarzanie dźwięku, syntezatory, wykorzystanie dźwięku nagranego. Wielu kompozytorów posługuje się bardzo zaawansowanymi narzędziami (lub ma do tego asystentów-programistów), umożliwiającymi programowanie dźwięku lub tworzenie własnych algorytmów (np. MAX-MSP, SuperCollider, CSound, AudioSculpt). Także w muzyce rozrywkowej muzycy i realizatorzy tworzą sound design. Można tu wyróżnić kilka płaszczyzn: 1) wykorzystanie instrumentów elektronicznych (syntezatorów, samplerów) w sposób kreatywny do tworzenia nowych brzmień, na których muzycy grają w tradycyjny sposób; 2) wykorzystanie syntezatorów, samplerów i looperów do tworzenia na żywo skomplikowanych struktur dźwiękowych, stanowiących samodzielny element utworu; 3) przetwarzanie dźwięków instrumentów (np. gitary elektrycznej) oraz głosu. Zdarza się, że na płycie obok nazwisk muzyków znajduje się się nazwisko osoby określonej jako sound design er np. Michael Brook na płycie U2 The Joshua Tree, Chris Thomas na płycie Pink Floyd The Dark Side of the Moon, Brian Eno na płycie Paula Simona Surprise.

SOUND DESIGN W REKLAMIE Ze względu na krótki czas trwania oraz intensywność przekazu, film reklamowy stanowi duże wyzwanie dla reżysera dźwięku. Aby przykuć uwagę widza, często stosuje się oryginalne, pomysłowo użyte dźwięki, często działające na widza poprzez skojarzenia czy metaforę, jest tu więc sporo miejsca na sound design. Ponadto w tego typu krótkich formach często pojawia się wiele plansz z nazwami producenta czy towaru, które wymagają podkreślenia dźwiękiem, podobnie jak szybki montaż. SOUND DESIGN W GRACH KOMPUTEROWYCH Od kilku lat, w związku z rozwojem mocy obliczeniowej komputerów, dźwięk stanowi coraz istotniejszy element gier komputerowych. Dźwięk w grze od filmowego różni przede wszystkim fakt, że jest on interaktywny zależy od rozwoju wydarzeń, realizowanego przez gracza scenariusza. W związku z tym musi być przygotowany w ten sposób, żeby możliwe było jego synchronizowanie z różnymi wariantami przebiegu akcji. Pojedyncze dźwięki w grze mogą być: 1) jednorazowe (one-off sound) są wyzwalane w odpowiednim momencie zgodnie np. z ruchem bohatera (powinny być możliwie najkrótsze); 2) zapętlone (looping) ze względu na oszczędność pamięci wiele atmosfer czy dźwięków ambientowych jest zapętlonych; Muzyka i dźwięki ambientowe w grach często są dzielone na warstwy (np. tło, perkusja, melodia, smyczki), które odtwarzane są synchronicznie, ale poszczególne warstwy są wyciszane lub włączane w zależności od rozwoju akcji, co pozwala uciec od repetytywności, pomimo iż wszystkie warstwy są w pętli, oraz stworzyć wrażenie narastania muzyki. W związku z futurystycznym często charakterem scenografii gier oraz licznymi pojawiającymi się w nich potworami tudzież zombie, wiele efektów dźwiękowych i atmosfer ma charakter sound design u. Co więcej, w grze (zwłaszcza typu FPP First Persone Perspective, czyli akcja z punktu widzenia bohatera) większe niż w filmie znaczenie mają dźwięki pozakadrowe, naprowadzając gracza na odpowiednią drogę czy sygnalizując pojawienie się zagrożenia. Przy dużych budżetach dźwięk do gier (np. wybuchy) bywa nagrywany na kilka mikrofonów, co umożliwia kreowanie przestrzeni przez odpowiedni algorytm w czasie gry w zależności od odległości bohatera od danego zdarzenia dźwiękowego. W grach typu FPP ruchy gracza zmuszają oprogramowanie do ciągłej zmiany lokalizacji dźwięku otaczającego gracza. Interaktywność gry jest problemem technicznym, ale daje duże możliwości oddziaływania na gracza dźwiękiem. Z technicznego punktu widzenia do integracji dźwięku z silnikiem gry (engine) służą zwykle oddzielne oprogramowania (np. Fmod czy Wwise). Dźwięk powinien być przygotowany w bezstratnym formacie audio, ale w konsoletach jest kodowany do stratnych formatów: XMA dla Playstation 3 i MP3 dla Xbox 360. Należy pamiętać, że gracze często podłączają konsolety do odtwarzaczy DVD, dzięki czemu mogą słuchać dźwięku dookólnego.

SOUND DESIGN W INTERNECIE Coraz większa szybkość łączy umożliwia tworzenie ambitnego udźwiękowienia stron internetowych. Sound design w Internecie można podzielić na 2 kategorie: 1) dźwięki interfejsu użytkownika (kliknięcie myszką, otwarcie zakładki, whoosh przy przejściu na inną podstronę, zmiana panoramy dźwięku w zależności od położenia myszy etc.) 2) dźwięki ambientowe lub muzyka, stanowiące tło muzyczne. Często ze względu na przepustowość stosuje się pętle. Aby uniknąć męczącej repetytywności, można zastosować odpowiednie obwiednie i kilka punktów zapętlenia dźwięk będzie się powtarzał od różnych punktów, z różnym przenikaniem, dzięki czemu uzyskuje się wrażenie zmienności. Inną (ale zaawansowaną obliczeniowo) metodą jest zastosowanie zmiennej prędkości odtwarzania oraz odtwarzanie dźwięków od tyłu. SOUND DESIGN W TEATRZE W odniesieniu do teatru sound design zwykle oznacza przygotowanie efektów dźwiękowych, najczęściej realistycznych, ale zdarzają się też sytuacje, gdy potrzebne są dźwięki stworzone specjalnie na potrzeby przedstawienia. Poniższe materiały stanowią podbudowę teoretyczną dla zajęć praktycznych, które są podstawą prowadzonych zajęć.

2. SYNTEZATORY Syntezator to urządzenie służące do generowania dźwięku. Na syntezatorze gra się przy użyciu urządzenia sterującego (najczęściej klawiatury, ale rolę urządzenia sterującego może spełniać dowolny sterownik MIDI). Syntezatory składają się z modułów, które mogą być w dowolny sposób łączone. Podstawowe moduły to: VCO (ang. Voltage Controlled Oscillator) generator sterowany napięciem, stosujący określoną metodę syntezy; VCF (ang. Voltage Controlled Filter) - filtr sterowany napięciem; VCA (ang. Voltage Controlled Amplifier) wzmacniacz sterowany napięciem; LFO (ang. Low Frequency Oscillator) generator wolnych przebiegów; EG (ang. Envelope Generator) generator obwiedni ADSR; moduł kształtowania przebiegu (waveshaper) umożliwia zmianę kształtu fali, wprowadzenie przesterowania. Budowa modułowa umożliwia dowolne łączenie powyższych elementów, co daje ogromne możliwości tworzenia brzmień. Sygnały sterujące określa się mianem CV (ang. Control Voltage) napięcie sterujące. ADSR ADSR ADSR VCO (oscylator) VCF (filtr) VCA (wzmacniacz) LFO klawiatura sterująca Schemat syntezatora analogowego. Linią przerywaną zaznaczono sygnały sterujące, ciągłą sygnały audio.

VCF W syntezatorach mamy zwykle do czynienia z następującymi rodzajami filtrów: highpass HPF (górnoprzepustowy, zwykle 12 lub 24 db/oktawę) lowpass LPF (dolnoprzepustowy, zwykle 12 lub 24 db/oktawę) bandpass BPF (pasmowy, zwykle 12 db/oktawę) notch filter (wycinający) peak filter ( pikowy ) comb filter działa na zasadzie wprowadzania krótkich opóźnień do sygnału, dzięki czemu uzyskuje się filtr grzebieniowy. Comb filter o wartościach dodatnich oznacza podbicie, a o wartościach ujemnych obcięcie. Filtry posiadają zwykle 2 regulatory: frequency (częstotliwość) resonance (rezonans) w przypadku HPF, LPF i BPF zwiększenie rezonansu wprowadza podbicie częstotliwości odcięcia (środkowej). Zmiany wartości resonance w przypadku HPF Zmiany wartości resonance w przypadku BPF W przypadku filtru typu notch zwiększenie rezonansu oznacza zwiększenie dobroci filtru:

Zmiany wartości resonance w przypadku filtru typu notch. Funkcja velocity sensitive umożliwia zmianę częstotliwości filtra w zależności od szybkości naciśnięcia klawisza. Funkcja keyboard tracking umożliwia zmianę częstotliwości filtra w zależności od rejonu klawiatury. Filtr z suwakami regulującymi częstotliwość i rezonans, możliwością wyboru rodzaju filtra oraz pokrętłem śledzenia klawiatury (kbd keyboard tracking) (Syntezator wirtualny Subtractor firmy Propellerheads). LFO Generator wolnych przebiegów to oscylator wytwarzający przebiegi o częstotliwościach poniżej pasma słyszenia [0-20 Hz], o wybranym kształcie. Umożliwia uzyskanie efektu wibrato (gdy steruje częstotliwością VCO), tremolo (gdy steruje amplitudą VCO), a także wszelkich cyklicznych zmian sygnału, np. częstotliwości filtra, szerokości impulsu w przypadku PWM czy wartości saturacji sygnału w module weveshaping. Do syntezatora można podłączyć zewnętrzny LFO. LFO z regulacją częstotliwości (rate), intensywności czyli amplitudy (amount), wyborem kształtu przebiegu, miejsca przeznaczenia oraz możliwością synchronizacji z tempem utworu (Sync) (Syntezator wirtualny Subtractor firmy Propellerheads).

EG obwiednia ADSR Generator obwiedni w momencie wciśnięcia klawisza (trigger) wytwarza pojedynczy przebieg o następujących fazach: Obwiednia ADSR Odwrócona (inverted) obwiednia ADSR Obwiednia może zostać nałożona na wzmacniacz (Amp Envelope), filtr (Filter Envelope) lub dowolny inny parametr podlegający modulacji (Modulation Envelope).

ANG attack decay sustain release PL faza narastania faza opadania stan ustalony faza wybrzmiewania Amp Envelope Filter Envelope Modulation Envelope czas osiągnięcia maksymalnej wartości amplitudy [ms] czas osiągnięcia częstotliwości wyższej (niższej) od ustawionej o określoną (przez parametr envelope to filter) wartość [ms] czas osiągnięcia wartości danego parametru wyższej (niższej) od ustawionej o określoną (przez parametr amount) wartość [ms] czas przejścia amplitudy od wartości maksymalnej do określonej przez sustain [ms] czas powrotu częstotliwości od osiągniętej w fazie narastania do ustalonej dla fazy sustain [ms] czas powrotu wartości parametru od osiągniętej w fazie narastania do ustalonej dla fazy sustain [ms] wartość amplitudy dla stanu ustalonego [db] częstotliwość dla stanu ustalonego [Hz] wartość parametru dla stanu ustalonego czas wybrzmiewania po puszczeniu klawisza (note off) (osiągnięcia amplitudy =0) [ms] czas osiągnięcia na powrót częstotliwości ustalonej po puszczeniu klawisza (note off) [ms] czas osiągnięcia na powrót ustawionej wartości parametru po puszczeniu klawisza (note off) Istnieją generatory obwiedni o dodatkowych fazach: delay (czas od wciśnięcia klawisza do momentu wyzwolenia obwiedni), hold (czas przytrzymania danego parametru na maksymalnym poziomie osiągniętym w fazie narastania) Wtedy pełna obwiednia wygląda następująco: delay attack hold decay sustain release [ms] Rozszerzona obwiednia DAHDSR

Obwiednia filtru wraz z pokrętłem amount oraz przełącznikiem odwrócenia działania (invert). (Syntezator wirtualny Subtractor firmy Propellerheads). Rozszerzona obwiednia wzmacniacza z możliwością zapętlenia pierwszych 4 faz (loop), wyłączenia wyzwalania przez klawiaturę (gate trigger) w celu włączenia zewnętrznego źródła wyzwalania obwiedni przez gate input oraz możliwością synchronizacji z tempem utworu (tempo sync). (Syntezator wirtualny Thor firmy Propellerheads). FUNKCJE KLAWIATURY STERUJĄCEJ Polifonia (Polyphony) ilość głosów (voice), czyli liczba dźwięków, które mogą być równocześnie zagrane. Pierwsze syntezatory były monofoniczne, obecnie każdy syntezator ma co najmniej 16 głosów. Liczbę głosów najczęściej można zdefiniować. Każdy głos jest przez procesor syntezatora przetwarzany oddzielnie (oddzielna obwiednia). Portamento funkcja wprowadzająca płynne przejście wysokości dźwięku pomiędzy kolejnymi granymi dźwiękami. Parametr portamento określa długość czasu dojścia od wysokości poprzedniego dźwięku do wysokości aktualnie wciśniętego dźwięku. Tryby pracy klawiatury (Keyboard Mode): Mono tryb monofoniczny. Wciśnięcie drugiego klawisza powoduje wyłączenie pierwszego. Poly tryb polifoniczny. W zależności od ustawionej polifonii, odpowiednia ilość głosów może być jednocześnie odtwarzana. Legato - w trybie mono przy grze legato obwiednia (wzmacniacza, filtra itd.) jest wyzwalana (trigger) tylko przy wciśnięciu pierwszego klawisza, kolejne dźwięki zagrane legato nie wyzwalają na nowo obwiedni. Obwiednia jest wyzwalana przy każdym dźwięku przy grze staccato. - w trybie poly obwiednia jest wyzwalana przy każdym wciśnięciu klawisza, chyba że wciśnie się liczbę klawiszy przekraczającą ilość głosów w polifonii. Wtedy poprzednio zagrane dźwięki są wyłączane, a ponadliczbowe dźwięki grane są bez wyzwalania obwiedni (np. przy 3-głosowej polifonii, obwiednia jest wyzwalana przy

zagraniu legato pierwszego, drugiego i trzeciego dźwięku. Jeśli przytrzymamy te 3 dźwięki i dodamy czwarty, obwiednia nie włączy się. Wciśnięcie czwartego dźwięku spowoduje wyłączenie pierwszego). Retriger - w trybie mono obwiednia będzie wyzwalana na nowo (retrigger) po każdym wciśnięciu klawisza, staccato i legato. Jeśli przytrzymamy pierwszy dźwięk i zagramy krótko drugi, obwiednia uruchomi się w momencie wciśnięcia drugiego klawisza oraz w momencie jego puszczenia (na przytrzymywanym pierwszym dźwięku). - w trybie poly jest to normalny tryb pracy każdy dźwięk niezależnie od artykulacji wyzwala obwiednię. Release polyphony ilość głosów, które mogą swobodnie wybrzmiewać (faza release) po puszczeniu klawisza (note off). Przy ustawieniu 0 faza wybrzmienia będzie przerwana w momencie wciśnięcia kolejnego klawisza. Keyboard tracking (śledzenie klawiatury) dany parametr (np. częstotliwość oscylatora, częstotliwość LFO) może zmieniać swą wartość w większym lub mniejszym stopniu w zależności od tego jaki klawisz zostanie wciśnięty na klawiaturze sterującej. Ustawienie Keyboard tracking na minimum sprawi że każdy klawisz będzie wyzwalał taką samą wartość danego parametru, zaś ustawienie na maksimum maksymalne zróżnicowanie wartości w zależności od numeru klawisza. W przypadku gdy parametrem który ma śledzić klawiaturę jest częstotliwość (wysokość dźwięku), ustawienie keyboard tracking na maksimum sprawi że odległości między kolejnymi klawiszami będą wynosiły pół tonu (czyli sytuacja normalna); przy ustawieniu na minimum, każdy klawisz wyzwoli dźwięk o tej samej wysokości. Przy ustawieniu na połowę wartości, odległość między sąsiednimi klawiszami będą wynosić ćwierć tonu. W przypadku częstotliwości filtra, wraz z przesuwaniem się w górę klawiatury częstotliwość filtru będzie rosła i na odwrót. Pitch Bend kółko odstrojenia montowane w syntezatorach, umożliwiające płynną zmianę wysokości dźwięku. Parametr Range określa zakres zmiany wysokości w półtonach. Modulation Wheel kółko modulacji służące do płynnej regulacji modulacji wybranego parametru. Może to być częstotliwość filtru, amplituda LFO czy współczynnik modulacji FM. Synteza jedno/wielobrzmieniowa (multitimbral) synteza wielobrzmieniowa (multitimbral) umożliwia na jednoczesne wytwarzanie kilku różnych barw (np. fortepianu i smyczków). Poszczególne barwy mogą być przyporządkowane różnym rejonom klawiatury lub nakładać się na siebie. Funkcja ta jest przydatna w graniu na żywo.

3. TWORZENIE DŹWIĘKÓW o OKREŚLONEJ WYSOKOŚCI Na grupę dźwięków o określonej wysokości składają się: tony proste wielotony harmoniczne (takie, których częstotliwości tonów składowych pozostają ze sobą w stosunku 1:2:3:4 ) W przypadku tworzenia sound design u do filmu, używając dźwięków o określonej wysokości należy zwracać szczególną uwagę na obecność muzyki w danym ujęciu. Wszystkie dźwięki o określonej wysokości muszą być dostrojone do tonacji muzyki. Dlatego często sami kompozytorzy są twórcami tego rodzaju płaszczyzn dźwiękowych. METODA SUBTRAKCYJNA (subtractive synthesis) Metoda subtrakcyjna polega na wygenerowaniu przebiegu o bogatym widmie (np. piłokształtnego lub trójkątnego), który następnie poddawany jest filtracji, a więc odejmowaniu określonych składników widma z sygnału szerokopasmowego (stąd nazwa). Ta prosta metoda syntezy stosowana była już w latach 50tych XX wieku. Na swego rodzaju syntezie substrakcyjnej opiera się jest głos ludzki generatorem sygnału szerokopasmowego jest krtań, zaś jama ustna i kształt ust pełnią rolę filtra. Metoda subtrakcyjna ma dość ograniczone możliwości brzmieniowe. Dźwięki brzmią syntetycznie i kojarzą się z dawnymi syntezatorami. Aby mogły być skutecznie zastosowane, muszą być odpowiednio ukształtowane filtrowane, łączone, przekształcone przy pomocy efektów modulacyjnych lub waveshaping u, poddane fluktuacjom przy pomocy LFP lub obwiedni. Syntezatory stosujące syntezę subtrakcyjną oferują zwykle wybór kilku rodzajów przebiegów: podstawowych (sinus, trójkąt, prostokąt, piła) oraz innych, stanowiących ich pochodne. Do tej metody zalicza się także generowanie szumu, który zostanie omówiony w rozdziale Tworzenie dźwięków nieharmonicznych. Podstawowe przebiegi, oprócz zastosowania do tworzenia brzmień, mogą być także użyte jako elementy LFO. Podstawowe rodzaje przebiegów (waveform): Przebieg sinusoidalny (sine)

Przebieg trójkątny (triangle) zawiera tylko składowe nieparzyste: Przebieg trójkątny (triangle) amplituda 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 numery kolejnych składowych Kolejne składowe mają amplitudę określoną wzorem: 1 A( n ) =, gdzie n to numer składowej. 2 n

Przebieg prostokątny (square) zawiera tylko składowe nieparzyste, o mniejszym spadku amplitudy niż w przypadku przebiegu trójkątnego. Przebieg prostokątny (square) amplituda 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 numery kolejnych składowych Kolejne składowe mają amplitudę określoną wzorem: 1 A( n ) = n gdzie n to numer składowej. Przebieg prostokątny może dodatkowo podlegać Pulse Width Modulation (modulacji szerokości impulsu PWM). PWM wprowadza charakterystyczne wzbogacenie brzmienia, zbliżone do modulacji fazy lub chorusa. PWM przebieg prostokątny modulowany sygnałem sinusoidalnym.

Przebieg piłowy (saw) zawiera wszystkie składowe: Przebieg piłowy (saw) amplituda 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Numery kolejnych składowych Kolejne składowe mają amplitudę określoną wzorem: 1 A( n ) = n gdzie n to numer składowej. Wiele syntezatorów wykorzystujących syntezę subtrakcyjną oferuje dodatkowe funkcje: regulację punktu startu (start point) start przebiegu nie musi być w miejscu zerowej amplitudy; możliwe jest ustawienie punktu startu w maksymalnej wartości przebiegu (a więc po wciśnięciu klawisza generator w minimalnym czasie osiągnie maksimum dla danego kształtu przebiegu wprowadza to ostrość ataku) lub randomizacja punktu startu (generator za każdym razem rozpocznie przebieg od innego miejsca, co ożywia brzmienie); funkcja detune emulacja charakterystycznych dla analogowych syntezatorów, nieregularnych fluktuacji wysokości generowanego dźwięku. Funkcja przydatna przy tworzeniu dźwięków typu pad o analogowym brzmieniu; unison włączenie tej funkcji powoduje, że każdy głos jest dublowany (lub, w przypadku trybu mono, pojedynczy dźwięk jest zwielokrotniany tyle razy, ile jest aktywnych głosów). Przy połączeniu z funkcją detune, wprowadzającą inne odstrojenie dla każdego głosu, daje to efekt chorusa, czyli wzbogacenia i lekkiego odstrojenia dźwięku; synchronizacja oscylatorów wymuszenie synchronizacji częstotliwości dwóch lub więcej oscylatorów, z których jeden jest masterem. Pozostałe oscylatory, niezależnie od swej własnej częstotliwości, są zmuszane do rozpoczynania okresu na nowo zgodnie z częstotliwością mastera, co powoduje nagłe zmiany kształtu ich przebiegu, a przez to wzbogacenie dźwięku. Umożliwia to np. uzyskanie mocnego ataku dźwięku (typu punch).

METODA TABLICOWA (wavetable) W metodzie tej dźwięk jest generowany poprzez sekwencyjne odtwarzanie umieszczonych w specjalnej tablicy próbek. Próbki te mają długość jednego okresu (co znacznie zmniejsza objętość instrumentów wavetable) o różnym kształcie. Na każdą próbkę nakładana jest obwiednia. Różne próbki mogą być miksowane z różnymi kształtami obwiedni i różną amplitudą, dzięki czemu powstają nowe barwy. Zmianę wysokości uzyskuje się poprzez zmianę częstotliwości próbkowania. Przejścia pomiędzy kolejnymi próbkami mogą odbywać się skokowo lub z przenikaniem (płynnie). Brzmienie syntezatorów tablicowych kojarzy się z brzmieniem starych gier komputerowych, gdzie były stosowane. Z powodzeniem można je stosować przy tworzeniu dźwięków urządzeń na statkach kosmicznych etc. Poniższy rysunek przedstawia sytuację, gdzie poprzez trójkątną obwiednię z trzech kształtów fal uzyskuje się po zsumowaniu jedną wypadkową. Określenie wavetable często stosowane w przypadku kart dźwiękowych oznacza de facto wewnętrzne samplery, a nie syntezatory działające metodą tablicową.

METODA GRANULACYJNA (granular synthesis, graintable) Synteza granulacyjna polega na tworzeniu dźwięku z pewnej liczby krótkich (5-100 ms) elementów zwanych granulkami (sonic grains). Pojedyncza granulka może się składać z jednego okresu fali. Może to być fala sinusoidalna, prostokątna itd., a także krótki fragment dowolnego dźwięku (jak w samplerze). Granulka jest kształtowana widmowo oraz amplitudowo (poprzez nałożenie odpowiedniej obwiedni). Pojedyncze granulki mogą występować jedna po drugiej w różnych odstępach czasowych mogą na siebie zachodzić lub być oddzielone ciszą różnej długości. Do stworzenia danej barwy może posłużyć kilka różnych granulek, o określonej lub losowej kolejności występowania. Tak więc w przypadku syntezy granulacyjnej brzmienie możemy kształtować poprzez: - kształtowanie widma granulek, - kształtowanie obwiedni granulek, - regulację długości i fazy (startu) granulek, - regulację odstępów pomiędzy granulkami - regulację wysokości granulek poprzez zmianę częstotliwości próbkowania. Obwiednia Amp lituda Amp lituda Przykład pojedynczej granulki o sinusoidalnym przebiegu, bez obwiedni i z nałożoną obwiednią. Regulacja odstępów między granulkami

Istnieją syntezatory łączące syntezę granulacyjną i tablicową (np. Mälstrom firmy Propellerheads). Sposób działania takiego syntezatora jest następujący: Wybrana próbka dźwiękowa dzielona jest na granulki (o różne długości). Powstaje w ten sposób tablica granulek. Przy domyślnych ustawieniach parametrów, w trakcie odtwarzania pojedynczego dźwięku syntezator płynnie przechodzi pomiędzy granulkami w ustalonej kolejności, zapętlając całą sekwencję. Efekt jest analogiczny do odtwarzania całej próbki w kółko. Istnieje jednak możliwość regulacji 3 parametrów, dzięki którym można z tej samej próbki uzyskiwać bardzo różne, zmienne wewnętrznie barwy: index (punkt startu dźwięku od której granulki rozpoczyna się pętla) motion (tempo przechodzenia do kolejnych granulek) shift (regulacja wysokości granulek bez zmiany czasu trwania). Dodatkową jakość brzmieniową wprowadza możliwość zmieniania kolejności odtwarzania granulek w sposób kontrolowany lub przypadkowy. Panel oscylatorów syntezatora wirtualnego Mälstrom firmy Propellerheads. Synteza granulacyjna umożliwia tworzenie dźwięków bogatych wewnętrznie, zmiennych w czasie, o wyczuwalnej mikrostrukturze.

MODULACJA FAZY (Phase distortion) Metoda ta jest odmianą metody odkształcania. W tym przypadku mamy do czynienia z generatorem tablicowym, analogicznie do metody tablicowej, przy czym modulację fazy uzyskuje się poprzez ciągłe zmiany szybkości z jaką odczytywane są próbki z pamięci. Zmiany szybkości nie powodują jednak zmiany okresu próbki, a więc ich rezultatem jest odkształcenie przebiegu czyli dodanie harmonicznych. Metodę tą zastosowano w syntezatorze Casio CZ. Graficzny obraz modulacji fazy

4. TWORZENIE DŹWIĘKÓW o NIEOKREŚLONEJ WYSOKOŚCI Na grupę dźwięków o nieokreślonej wysokości składają się: wielotony nieharmoniczne szumy Ten rodzaj dźwięków jest szczególnie przydatny w sound design ie, ponieważ może funkcjonować niezależnie od muzyki. Umożliwia tworzenie plam, chmur dźwiękowych, wprowadzających nastrój zagrożenia, niepewności, napięcia, a także syntetycznych atmosfer. METODA ADDYTYWNA (SUMACYJNA) (additive synthesis) Metoda addytywna polega na tworzeniu dźwięku z sumowania pewnej liczby tonów prostych o określonej amplitudzie. Metoda ta pozwala na bardzo precyzyjne kształtowanie barwy, jednak jej wadą jest ogromna ilość parametrów, które podlegają kontroli. Natomiast zaletą jest wysoka wierność generowanych dźwięków z ich akustycznymi wzorcami. Odmianą metody addytywnej jest metoda addytywna grupowa, w której rolę dźwięków podstawowych mogą pełnić dźwięki o widmie złożonym. Metoda addytywna umożliwia tworzenie dźwięków o określonej i nieokreślonej wysokości dźwięku. SZUM Szum biały widmo dźwięku rozłożone równomiernie na skali częstotliwości Szum różowy amplituda maleje wraz ze wzrostem częstotliwości Pasmowy szum o wąskim paśmie, w zasadzie wysokość dźwięku jest rozpoznawalna. Metoda sample & hold (S&H) generowany jest szum, który następnie w równych odstępach czasowych jest próbkowany. Pobrana próbka jest przytrzymywana do następnego próbkowania. W ten sposób powstają przebiegi losowe, przydatne zwłaszcza w LFO. Szum pasmowy (zwłaszcza w najniższym paśmie, poniżej 100) często jest wykorzystywany do tworzenia atmosfery napięcia. Najniższe pasmo szumu jest przydatne jako dodatkowa warstwa basowa w dźwiękach takich jak eksplozje, wybuchy.

MODULACJA AMPLITUDY (AM amplitude modulation) W modulacja amplitudy mamy do czynienia ze splotem sygnału wyjściowego f1 z sygnałem modulatora F (zwykle jest to prosty przebieg, np. sinus, piła). W dziedzinie widmowej wynikiem takiej operacji jest zbiór sum i różnic wszystkich częstotliwości składowych obu sygnałów. W najprostszym przypadku mnożenia dwóch sinusów wygląda to następująco: f1*f = (F + f1) + (F f1) lub (źródło: K. Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku) W rezultacie widmo oryginalne zostaje przesunięte o wartość F oraz powstaje jego lustrzane odbicie względem F (wstęgi boczne). Sygnał oryginalny i modulujący może zostać usunięty (modulacja symetryczna) lub nie (modulacja niesymetryczna), usunięta może też zostać wstęga boczna. Rezultatem modulacji AM jest najczęściej bogaty dźwięk o charakterze nieharmonicznym. Przykładem zastosowania syntezy AM jest modulator kołowy (ring modulator). Rezultatem brzmieniowy modulacji amplitudy może być jest dźwięk o określonej wysokości, ale charczącym, mechanicznym brzmieniu, ale także dźwięk o nieokreślonej wysokości (dźwięki mechaniczne, metaliczne, zbliżony do dzwonu). Istotny wpływ na brzmienie mają: stosunek częstotliwości obu sygnałów (interwały konsonansowe będą miały łagodniejsze brzmienie od dysonansowych) odległość bezwzględna na skali częstotliwości kształt obu przebiegów obecność obu, tylko jednego lub żadnego z sygnałów zastosowanie funkcji keyboard tracking. W przypadku aktywnego śledzenia klawiatury przez oba generatory efekt modulacji jest taki sam dla różnych dźwięków. Jeśli tylko jeden z generatorów śledzi klawiaturę, a drugi ma stałą częstotliwość, stosunek częstotliwości obu generatorów (a wraz z nim efekt modulacji i charakter dźwięku) będzie się zmieniał w zależności od wciśniętego klawisza.

MODULACJA CZĘSTOTLIWOŚCI (FM frequency modulation) Modulację częstotliwości jako metodę syntezy dźwięku wprowadził John Chowning w 1973 roku. Pierwszym syntezatorem wykorzystującym tą metodę była Yamacha DX-7. W modulacji FM częstotliwość sygnału nośnego f n jest modulowana przez sygnał modulujący f m. Częstotliwość sygnału nośnego zmienia się w zakresie od f n f do f n + f, gdzie f nazywane jest dewiacją częstotliwości. Drugim oprócz dewiacji podstawowym parametrem jest indeks modulacji: Zwiększenie indeksu modulacji poszerza widmo dźwięku (pojawiają się kolejne harmoniczne sygnału): Zmiana widma w zależności od indeksu modulacji (I) wg. J. Chowninga (źródło: K. Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku) Rezultatem brzmieniowy modulacji częstotliwości są dźwięki o nieokreślonej wysokości (metaliczne, kosmiczne, także szumowe), przydatne w tworzeniu atmosfer industrialnych, futurystycznych. Istotny wpływ na brzmienie mają: dewiacja częstotliwości indeks modulacji stosunek częstotliwości obu sygnałów (interwały konsonansowe będą miały łagodniejsze brzmienie od dysonansowych) odległość bezwzględna na skali częstotliwości zastosowanie szumu jako modulatora kształt obu przebiegów obecność obu, tylko jednego lub żadnego z sygnałów zastosowanie funkcji keyboard tracking.

5. INNE METODY SYNTEZY DŹWIĘKU METODA REPRODUKCYJNA - SAMPLER Sampler to urządzenie, które po naciśnięciu klawisza odtwarza nagrany wcześniej dźwięk (próbkę sample). Nagrany dźwięk może zostać poddany filtracji, nakłada się na niego obwiednię ADSR, może także zostać na różne sposoby zapętlony. Piewszy sampler (z dźwiękami organów) powstał w 1971 r. Następnie popularne były samplery sprzętowe (hardware owe) (często o wymiarach umożliwiających zamontowanie w rack u), a obecnie stosuje się najczęściej samplery programowe (software owe). Samplery zwykle są wykorzystywane do tworzenia wirtualnych odpowiedników instrumentów akustycznych. W tym celu nagrywa się możliwie dużo pojedynczych dźwięków danego instrumentu w kilku stopniach dynamicznych. Jeśli jest taka potrzeba, tworzy się pętle (loop). Następnie w samplerze tworzy się mapę instrumentu przyporządkowuje się próbki do odpowiednich klawiszy ze względu na wysokość, a ze względu na dynamikę do odpowiedniej warstwy velocity (velocity szybkość uderzenia klawisza). Warstwy można także tworzyć dla parametrów innych niż velocity. Dobrze przygotowany instrument powinien mieć inną próbkę dla każdego dźwięku, oddzielne próbki dla różnej artykulacji i co najmniej 3 warstwy velocity. Stosuje się także layering odtwarzanie kilku warstw równocześnie (np. odtwarzanie dwóch sąsiednich warstw velocity, gdy klawisz jest wciśnięty z szybkością bliską granicy warstw w ten sposób unika się ostrego przejścia między dwiema warstwami). Samplery wyposażone są w generatory obwiedni, LFO, filtr oraz efekty, co umożliwia kształtowanie dźwięku. Dzięki temu mogą znaleźć zastosowanie do tworzenia sound design u. Ponadto można stworzyć instrument składający się z efektów dźwiękowych (np. kroków), co ułatwia synchronizowanie efektów (można je zagrać na klawiaturze sterującej synchronicznie z obrazem). Pętle w samplerach mogą być dwojakiego rodzaju: pętle dźwiękowe pętle perkusyjne lub instrumentalne Pętle dźwiękowe służą sztucznemu przedłużeniu czasu trwania dźwięku lub zaoszczędzeniu pamięci. Zwykle pętle umieszczone są w środku próbki; próbka odtwarzana jest od początku (niezapętlona faza narastania) do końca pętli, a następnie od początku pętli do końca i tak w kółko przez całą fazę ustaloną (sustain). Puszczenie klawisza może spowodować zagranie fragmentu próbki od końca pętli do końca próbki lub pozostanie w pętli i nałożenie obwiedni (faza release). Pętle perkusyjne lub instrumentalne to nagrane krótkie (1-4-taktowe) frazy instrumentalne (np. groove perkusyjny lub 1-taktowy akompaniament gitary akustycznej), które można wykorzystać przy tworzeniu aranżacji. Niektóre programy (np. Dr Rex Loop Player) umożliwiają zmianę tempa odtwarzania bez zmiany wysokości i bez utraty jakości dźwięku). Ponadto możemy wyróżnić 3 typy pętli: jednokierunkowa (pętla odtwarzania jest od początku do końca, zawsze w tym samym kierunku: forward) najczęściej używane dla pętli perkusyjnych. Początek i koniec pętli powinny przypadać w miejscach przejść przez zero (zero crossing).

dwukierunkowa (pętla odtwarzana jest od początku do końca, a następnie od tyłu, i tak w kółko: forward-backward) takie pętle brzmią bardziej naturalnie i są najczęściej używane. Punkty zapętlenia powinny znajdować się w maksimum amplitudy. pętla z przenikaniem (crossfade) (pętla odtwarzana jest jak w pętli jednokierunkowej, ale z przenikaniem).

Porównanie ważniejszych parametrów samplera hardware owego Akai S5000 i software owego Unity DS-1: Akai S5000 Studio: - możliwość nagrywania do pamięci RAM lub na dysk; - 64 lub 128 głosowa polifonia; - 32 kanały MIDI; - 2 porty we/wy/thru midi ; - 2 porty SCSI; - worldclock; - opcjonalny interfejs adat; - maksymalnie 256 MB RAM; - 26 rodzajów filtrów; - procesor efektów : reverb, echo/delay, distortion, EQ, ring modulation, chorus, phasing, flanging, pitch shifting, rotary speaker emulation. Unity DS-1 firmy BitHeadz: - polifonia 128 głosów (po dwa stereofoniczne oscylatory na głos) i - 128 kanałów MIDI. - 128 próbek na każdą nutę wybieralnych przy pomocy velocity lub innych źródeł modulacji. - dla każdej próbki definiowalne głośność, panorama, wystrojenie, obwiednia i wysyłka FX. - możliwość mieszania różnych częstotliwości próbkowania. - po dwa filtry na głos (13 różnych charakterystyk). - efekty: EQ, Reverb, Delay, Chorus, Flanger, Overdrive i Distortion). - sześciofazowa obwiednia dźwięku (delay, attack, decay, sustain, sustain decay, release). - arpeggiator, - 32 virtualne kanały audio. Unity DS-1 czyta próbki w formatach: - czyta próbki w formatach: Sound Designer I/II, SoundFont 2.0, AIFF, CD-Audio, DLS, WAVE, SampleCell II, oraz AKAI S1000 & S3000. Mapa próbek, Sampler EXS 24 w programie LogicPro firmy Apple

METODA ODKSZTAŁCANIA (waveshaping) Metoda odkształcenia polega na zmianie kształtu wygenerowanego wcześniej przebiegu (np. sinusoidalnego w trójkątny). Realizowana jest poprzez zastosowanie nielinearnych modyfikatorów dźwięku (np. wzmacniacz o nieliniowej charakterystyce), czyli przemnożenie odkształcanego przebiegu przez odpowiednią funkcję matematyczną. Przykładem takiego sposobu syntezy dźwięku są efekty typu distortion. Metoda odkształcania jest przydatna do zniekształcania głosów czy dźwięków, nadawania ostrości, krzykliwości barwom generowanym na syntezatorze, a także nadawania brzmieniu charakteru analogowego poprzez saturację czy lekkie przesterowanie. Metoda odkształcenia (źródło: K. Szlifirski, materiały pomocnicze dla studentów reżyserii dźwięku) METODA MODELOWANIA FIZYCZNEGO (physical modeling) Metoda modelowania fizycznego polega na matematycznej próbie odwzorowania fizycznych właściwości instrumentów przy pomocy modelowania falowodowego. Odmianą tej metody jest modelowanie komponentowe, polegające na matematycznym odwzorowaniu poszczególnych części instrumentów muzycznych: incytatora, wibratora i radiatora. Metoda ta ma ogromne możliwości kreacji brzmienia, nie tylko imitowania instrumentów akustycznych. Ten rodzaj syntezy zastosowali twórcy wirtualnego syntezatora Sculpture firmy Apple:

METODA RESYNTEZY - WOKODER Wokoder to urządzenie, za pomocą którego możemy zmodulować jeden sygnał audio (carrier nośny) drugim sygnałem (modulator modulujący). W odniesieniu do urządzeń analogowych mówimy o wokoderze kanałowym, w odniesieniu do cyfrowych o wokoderze widmowym, wykorzystującym analizę FFT. Wokoder posiada 2 wejścia (dla sygnału nośnego i modulującego). Sygnał modulatora jest analizowany w dziedzinie widmowej i następnie jego charakterystyka częstotliwościowa w sposób dynamiczny (zmienny w czasie) jest aplikowana do sygnału nośnego poprzez zestaw filtrów. Matematycznie mamy tu do czynienia ze splotem widma zespolonego sygnału nośnego z widmem amplitudowym sygnału modulującego. Istnieją także wokodery wykorzystujące do modulacji widmo fazowe wtedy obliczeniowo jest to splot widma zespolonego sygnału nośnego z widmem fazowym sygnału modulującego. Przy pomocy wokodera można uzyskać charakterystyczne, nietypowe efekty, takie jak śpiewający czy mówiący syntezator. Zasada działania wokoderów analogowych jest następująca: sygnał modulujący trafiający do wokodera jest dzielony na dużą liczbę wąskich pasm (przy pomocy filtrów pasmowoprzepustowych). Następnie amplituda sygnału wewnątrz każdego z tych pasm jest śledzona. Sygnał nośny jest dzielony na identyczne pasma, i na amplitudę każdego z nich nakładana jest obwiednia odpowiedniego pasma sygnału nośnego. Sygnałem modulującym ten fragment pasma sygnału nośnego jest właśnie śledzona amplituda w odpowiednim paśmie przefiltrowanego sygnału modulującego. Zwiększając liczbę pasm, zbliżamy brzmienie sygnału nośnego do charakterystyki częstotliwościowej sygnału modulującego (nie zawsze jest to pożądane ze względu na efekt brzmieniowy). Wokodery cyfrowe, w miejsce filtrów pasmowoprzepustowych, stosują szybką transformatę Fouriera (FFT). W zależności od ustawienia może to odpowiadać 512 lub 1024 tradycyjnym filtrom. Przykład wokodera wirtualnego BV512 firmy Propellerheads

6. TWORZENIE DŹWIĘKÓW ZMIENNYCH W CZASIE Słabością dźwięków generowanych syntetycznie jest ich statyczność i niewielkie możliwości ekspresji w trakcie grania na syntezatorze. Istnieje jednak wiele narzędzi i mechanizmów, których wykorzystanie pozwala uniknąć statyczności, ożywić brzmienie, wprowadzić fluktuacje dźwięku, a także umożliwiających stosowanie wyrazistej artykulacji i ekspresji w trakcie grania na syntezatorze. Umiejętne zastosowanie narzędzi do kształtowania wewnętrznej struktury dźwięku pozwala tworzyć brzmienia, których wystarczy wciśnięcie i przytrzymanie jednego klawisza dla wykreowania sound design u. LFO Low Frequency Oscillator Modulacja różnych parametrów syntezy jest podstawową metodą wprowadzania fluktuacji dźwięku. Ponieważ powtarzająca się w stałych odcinkach czasowych modulacja staje się męcząca i zdradza swą obecność, dobrze jest wprowadzić modulację co namniej 2 parametrów lub zmodulować okres modulacji. LFO posiadają następujące parametry: rate częstotliwość (w Herzach, zwykle od 0,1 Hz do 20 Hz, lub podziałce rytmicznej dostosowanej do tempa) amount / intensity zakres fluktuacji waveform wybór kształtu przebiegu (zwykle sinus, trójkąt, prostokąt, piła, przebieg losowy) delay time opóźnienie rozpoczęcia modulacji LFO polifoniczny każdy głos (każdy dźwięk w akordzie) jest osobno (niesynchronicznie) poddany modulacji LFO monofoniczny wszystkie głosy (wszystkie dźwięki w akordzie, niezależnie od momuntu wciśnięcia danego klawisza podlegają wspólnej modulacji. Key sync funkcja, której włączenie powoduje, że każde naciśnięcie klawisza powoduje rozpoczęcie okresu LFO od nowa. oscylator metoda subtrakcyjna metoda tablicowa metoda granulacyjna modulacja fazy modulacja częstotliwości modulacja amplitudy parametr podlegający modulacji szerokość pulsu (PWM) dla przebiegu prostokątnego stopień odstrojenia w trybie detune pozycja w tablicy fal wysokość poszczególnych granulek szybkość przejścia między kolejnymi granulkami punkt startu wartość modulacji fazy indeks modulacji częstotliwość jednego z sygnałów stopień modulacji

filtr częstotliwość obwiednia filtru, wzmacniacza, modulacji rezonans attack decay sustain release waveshaper wysterowanie (drive) wzmacniacz panorama poziom proporcje między oscylatorami efekty chorus, flange, phaser, delay wszystkie parametry obwiednia ADSR Drugim narzędziem umożliwiającym wprowadzenie fluktuacji brzmienia jest obwiednia. W odróżnieniu od LFO, umożliwia ona ukształtowanie fluktuacji poprzez regulację czasu narastania, opadania, wartości parametru dla stanu ustalonego oraz zmiany parametru po puszczenia klawisza. Najczęściej obwiednia może działać w pętli, dzięki czemu uzyskuje się rodzaj LFO z możliwością kształtowania przebiegu przez użytkownika. Działaniu obwiedni mogą poldegać te same parametry co w przypadku LFO. dudnienia Dudnienia występują, gdy nałożą się na siebie 2 tony proste o zbliżonej częstotliwości (np. 60 i 64 Hz). Powstanie wówczas fala wypadkowa o częstotliwości pośredniej (62 Hz), o amplitudzie zmieniającej się od 0 do sumy amplitud 2 fal składowych z częstotliwością równą różnicy częstotliwości fal składowych (4 Hz). Dudnienia są najwyraźniej słyszalne przy nakładaniu się 2 przebiegów sinusoidalnych o niskich częstotliwościach, mogą być jednak zastosowane dla przebiegów o większej ilości składowych i wdla wyższych częstotliwości. Wówczas mniej wyraźny jest efekt zmian amplitudy, a powstaje odstrojenie typu detune, zbliżone do chorusa. efekty modulacyjne Skutecznym sposobem wprowadzenia zmienności wewnętrznej jest zastosowanie efektów modulacyjnych. Ich parametry mogą podlegać zmianom sterowanym prez LFO lub obwiednię. Dokładny opis działania poszczególnych efektów zostanie omówiony w kolenych rozdziałach. modulowanie brzmienia przy pomocy sterowników Różne parametry syntezy mogą być modulowane przy pomocy klawiatury i zewnętrznych sterowników (sterownikowi przypisywany jest numer odpowiedniego kontrolera MIDI): velocity typowym zastosowaniem jest wpływ szybkości naciśnięcia klawisza (velocity) na częstotliwość odcięcia filtra LPF (duże velocity wysoka częstotliwość, małe niska, analogicznie jak w instrumentach akustycznych w przypadku gry piano i forte) aftertouch dociśnięcie wciśniętego klawisza sterowniki zewnętrzne: kontroler zadęcia (breathcontroler), pedał ekspresji, pootencjometry, suwaki, czyniki ruchu (d-beam) itd.

7. EFEKTY MODULACYJNE Porównanie zastosowań podstawowych efektów modulacyjnych: chorus flanger phaser modulator kołowy wzgobacenie brzmienia poszerzenie bazy stereo rozedrganie dźwięku efekt rozstrojenia wprowadzenie cyklicznego odstrajania dźwięku do dźwięków o bogatym i ubogim widmie wzbogacenie dźwięku wprowadzenie delikatnego cyklicznego przemiatania częstotliwości wrażenie sztuczności dźwięku do dźwięków o bogatym widmie wprowadzenie silnego cyklicznego przemiatania częstotliwości zubożenie widma dźwięku przy delikatnych ustawieniach mechanizaca dźwięku przy silnych ustawieniach zmiana widma dźwięku na nieharmoniczne całkowita zmiana charakteru dźwięku dźwięki zbliżone do dzwonu, metaliczne, mechaniczne do dowolnych dźwięków CHORUS Efekt chórowy - Chorus polega na opóźnieniu sygnału i dodaniu go do sygnału oryginalnego. Opóźnienie sygnału jest zmienne (modulowane przez LFO), przez co częstotliwość opóźnionego sygnału jest modulowana (płynne odstrajanie dźwięku). Częstotliwość zmian opóźnienia (a co za tym idzie odstrojenia) jest regulowany przez parametr rate. Typowe dla chorusa opóźnienia sygnału mieszczą się w granicach 10-35 ms, dzięki czemu inaczej niż w przypadku flangera uzyskuje się efekt zwielokrotnienia i delikatnego odstrojenia dźwięku. Do sygnału może zostać dodanych więcej sygnałów zmodulowanych. Stereofoniczny efekt chorusa osiąga się poprzez wprowadzenie różnicy w czasie opóźnienia lub fazie LFO pomiędzy lewym a prawym kanałem. Typowe parametry: - depth (głębokość) zakres zmian opóźnienia, czyli amplituda LFO - delay opóźnienie (wartość środkowa opóźnienia - rate - częstotliwość LFO - voices wybór ilości domiksowanych modulowanych głosów (od 2 nawet do 16) - mix stosunek sygnału oryginalnego (dry) do zmodulowanego (wet) Chorus w programie Logic Pro (powyżej) i Adobe Audiotion (poniżej)