• Non ci sono risultati.

Corso di Sound Design

N/A
N/A
Protected

Academic year: 2022

Condividi "Corso di Sound Design"

Copied!
55
0
0

Testo completo

(1)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Corso di Sound Design

Docente: Alessia Damiani

1- La catena Elettroacustica

Una catena elettroacustica è una serie di apparecchiature che permette di catturare un suono, amplificarlo, registrarlo e riprodurlo (anche in un luogo distante nello spazio e nel tempo). Questo avviene tramite trasduzione del segnale ovvero la trasformazione di un tipo di energia in un altro, in questo caso le variazioni di pressione atmosferica causata da

un’onda sonora vengono trasdotte in variazioni di energia elettrica.

Il microfono è un dispositivo che reagisce ai cambiamenti di pressione atmosferica generando energia meccanica che a sua volta genera variazioni del segnale elettrico.

Il segnale elettrico generato dal microfono viene inviato ad altre apparecchiature elettroniche (come, ad esempio, un mixer o una scheda audio). Prendiamo il primo esempio: il segnale può essere manipolato e gestito nel mixer, che può intervenire sulla qualità tramite

equalizzatori e/o effetti, successivamente lo distribuisce nelle sue uscite.

Il mixer è un dispositivo in grado di raggruppare una serie di segnali audio di diverso tipo, microfonici e di linea e di convogliarli verso una o più destinazioni comuni. Un mixer possiede quindi una serie di ingressi a cui vengono inviati i segnali audio e una serie di uscite verso cui vengono inviati i segnali dopo essere stati miscelati e manipolati.

(2)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Il segnale dopo essere stato manipolato dal mixer viene inviato ad un amplificatore che provvede ad un aumento della sua ampiezza tanto quanto necessario per la riproduzione e successivamente inviato agli altoparlanti (trasduttori capaci di riconvertire le variazioni di segnale elettrico in variazioni di pressione atmosferica, quello che comunemente chiamiamo segnale acustico).Il principio di funzionamento degli altoparlanti è esattamente l’inverso di quello dei microfoni: il segnale elettrico mette in vibrazione il complesso costituito dalla cupola e dal cono, provocando così delle compressioni e rarefazioni dell’aria.

Ormai da molti anni registrazione e archiviazione avvengono in formato digitale, il segnale elettrico generato da microfoni e strumenti elettronici viene convertito da appositi

dispositivi ADC (Analog to Digital Converter) in formato binario, ossia in una sequenza di numeri che rappresentano il linguaggio base dei computer e di tutte le apparecchiature digitali.

Questa conversione può essere fatta da:

- Scheda audio che poi trasferisce le informazioni attraverso porte USB e/o FireWire al Computer o altra apparecchiatura digitale.

- Registratore digitale HD recording archivia i dati direttamente su una memoria interna (solitamente SD).

- Computer riceve il segnale, dall’ingresso microfonico anche se di bassa qualità per via della connessione. Oppure come detto riceve informazioni riguardo al segnale audio già

convertite in dati del sistema binario (numeri) da una scheda audio esterna (come avviene per le registrazioni professionali o semi-professionali) attraverso le porte USB e FireWire Trasformato il segnale in sequenze numeriche questo può essere facilmente manipolato, modificato in tutti i suoi parametri con risultati di grande qualità che dipendono tutti dalla potenza di calcolo dei processori del dispositivo digitale usato. II segnale, può essere

ascoltato in tempo reale, ovvero mentre viene prodotto, grazie al processo finale della digitalizzazione ovvero la riconversione delle sequenze numeriche in segnale elettrico da inviare a amplificatori, altoparlanti, cuffie che avviene per mezzo del dispositivo DAC (Digital to Analog Converter), di cui tutte le apparecchiature digitali sono fornite.

Per chiarezza: troviamo un convertitore ADC a ogni ingresso audio delle apparecchiature digitali e un convertitore DAC a ogni loro uscita audio (cuffia, casse ecc).

(3)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

2- Il Mixer Analogico

INGRESSI: Qui si connettono i microfoni o gli strumenti.

GAIN: Aumenta il guadagno di ampiezza del canale in questione.

EQUALIZZATORI: Modificano l’ampiezza di varie porzioni dello spettro audio.

AUX: Volume delle uscite ausiliarie (generalmente spie di palco).

FX: Quantità di effetto sul singolo canale.

PAN: Gestisce la distribuzione del segnale di quel dato canale nel fronte stereo (quanto a destra e quanto a sinistra).

FADER DEI CANALI: Gestisce il “volume” dei canali.

FADER FX: Gestisce il “volume” generale dell’effetto selezionato.

MASTER FADER: Gestisce il “volume” generale di tutti i canali del mixer.

(4)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

3- Range di udibilità umana, la misura della frequenza (Hertz (Hz)) e le curve isofoniche (Phon)

L’Hertz (Hz) è l’unità di misura della frequenza, espressa come Hz [=] 1s

L’orecchio umano è in grado di percepire suoni solo entro un determinato intervallo di frequenze e pressione sonora. Il minimo di pressione sonora che l’orecchio può sopportare è detta soglia dell’udito. Le gamma delle frequenze udibili dall’uomo è compresa tra 20 Hz e i 20000 Hz. L’orecchio umano reagisce alle varie frequenze in modo diverso, infatti la zona di frequenze tra 1000 e 3000 Hz è quella più sensibile. Questo campo di udibilità è influenzato da età, occupazione e genere. Con il progredire dell’età, la sensibilità uditiva alle alte

frequenze si riduce gradualmente. I suoni che si trovano al di sopra della soglia di udibilità sono chiamati ultrasuoni, quelli al di sotto infrasuoni.

Le frequenze si definiscono gravi, medie e acute, rispettivamente a partire da 20 Hz a salire.

Qui trovate un link per un video dove potrete ascoltare una sinusoide che va dal grave all’acuto, da 20 a 20.000 Hz:

https://www.youtube.com/watch?v=qNf9nzvnd1k

Vi consiglio di usare delle cuffie e di non alzare troppo il volume!

Le curve isofoniche descrivono in che modo i suoni vengono percepiti per avere lo stesso

“volume” sonoro al cambiare della loro frequenza (o altezza) e intensità. Sono rappresentate in un grafico specifico che ha sull’asse delle x la frequenza in Hertz, sull’asse delle y la

pressione sonora in dB e diverse curve, una per ogni “volume” sonoro percepito, misurato in Phon. Osservando la Figura 1 si può apprezzare come la nostra capacità di sentire le

frequenze gravi migliori alzando il livello sonoro. Un altro aspetto interessante è la maggiore sensibilità presente tra i 1000 e i 5000 Hz (in questa regione ci vogliono meno dB per avere più Phon): in questa banda di frequenza è concentrato il parlato e il nostro udito si è

adeguato e sviluppato di conseguenza.

(5)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Figura 1

(6)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

4- Campionamento di suoni

Segnali analogici: rappresentano in maniera analoga una vibrazione continua nel tempo.

Segnali digitali: sono caratterizzati da una discretizzazione dei valori.

Campionare un segnale consiste nel prelevare i valori di un segnale analogico a intervalli di tempo finiti e generalmente uguali. L’intervallo tra due prelievi è detto periodo di

campionamento, il suo inverso è la frequenza di campionamento (Sample Rate).

Se non si riesce a ricreare la periodicità del segnale originale si parla di sottocampionamento (downsampling) ed il suono ricostruito successivamente risulta molto diverso dall’originale.

Per rappresentare correttamente la periodicità del segnale occorrono almeno 2 campioni per ogni periodo (rappresentanti la fase di massima compressione e quella di massima

decompressione), quindi, come afferma il teorema di Nyquist Shannon, la frequenza minima di campionamento deve essere almeno il doppio della massima frequenza che si vuole rappresentare.

Il numero di bit (Bit Depth) di un convertitore esprime la sua dinamica d’ampiezza. ES: 8 bit

= 256 valori possibili = 48dB. Ogni bit in più corrisponde a +6dB.

Chiaramente, maggiore sarà il valore del Sample Rate, più “frame” avremo del nostro suono (i “frame” nel campo audio si definiscono campioni). Analogamente, maggiore sarà il Bit Depth e più accurato sarà il valore del campione, come si evince dal confronto tra Figura 2 e Figura 3.

NB: lo standard dei CD audio è 44100 Hz, 16 Bit!

Conversione A/D (analogico/digitale): il valore di ogni campione viene mantenuto costante per tutto l’intervallo di tempo che intercorre fra esso ed il successivo, questo processo si chiama hold. L’unione del campionatore e dell’hold è definita sample and hold, il cui segnale in uscita è una funzione a gradini (Figura 2 e 3).

Il processo A/D approssima i gradini al valore di ampiezza più vicino, nel caso in cui il valore venga approssimato sempre per difetto si parla di troncamento, una tecnica molto utilizzata seppur meno precisa.

Conversione D/A (digitale/analogico): compie l’operazione inversa del A/D, trasformando una sequenza numerica in un segnale a gradini per poi tornare allo stato analogico. In caso di riproduzione i campioni della sequenza memorizzata vengono inviati al D/A alla stessa frequenza di campionamento con cui sono stati catturati.

(7)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Ovviamente dopo questo doppio processo la forma d’onda risultante sarà differente dalla forma d’onda originale in quanto i valori sono stati discretizzati. Nonostante ciò, se si

rispetta il teorema di Nyquist Shannon, la differenza sarà impercettibile all’orecchio umano.

Figura 2 Figura 3

(8)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

5- Produzione e propagazione del suono

Affinché un suono possa essere prodotto si devono verificare due condizioni:

1) presenza di una sorgente sonora, ovvero un corpo in grado di vibrare;

2) un mezzo di propagazione, dove le vibrazioni emesse dalla sorgente sonora siano in grado di viaggiare.

Da questo deriva il fatto che nel vuoto il suono non si può propagare.

L’elasticità è la capacità di un materiale di deformarsi e tornare al suo stato originale. L’aria è un mezzo elastico ma anche i liquidi e i solidi generalmente lo sono. Più il materiale è denso più velocemente il suono si propagherà al suo interno:

Tabella 1

Materiale Velocità di propagazione (m/s)

Aria 344 m/s

Metano 430 m/s

Piombo 1230

Acqua 1480 m/s

Cemento 3100 m/s

Vetro da 4000 a 5500 m/s

Acciaio da 5000 a 5900 m/s

Quando un corpo entra in vibrazione mette in movimento le particelle, da qui in poi chiamate molecole dell’aria (o del materiale all’interno del quale si trova/adiacente a sé stesso). Le molecole più vicine alla sorgente mettono in movimento quelle adiacenti per poi tornare in posizione, creando variazioni di pressione nell’aria. I punti di maggiore densità di molecole sono punti di compressione, i punti con minore densità sono punti di rarefazione.

L’alternanza di zone di compressione e zone di rarefazione dà origine all’onda sonora (Figura 4). NB: È fondamentale sapere che il suono si propaga sfericamente!

Figura 4

(9)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

6- Parametri di un’onda sonora

I parametri fondamentali del suono sono tre:

1) Frequenza: è il parametro che ci permette di distinguere tra acuto e grave, determina quindi l’altezza di un suono. È data dalla quantità di cicli al secondo, che si esprime in Hertz (Hz).

Figura 5

a. Ciclo: all’istante t0 la pressione dell’aria è zero, all’istante t1 raggiunge la fase di massima compressione, all’istante t2 torna a zero, all’istante t3 raggiunge la fase di massima decompressione e all’istante t4 torna allo zero. Questo è un ciclo completo (Figura 6).

Figura 6

(10)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Se il ciclo si ripete regolarmente l’onda si dirà periodica, in caso contrario si dirà aperiodica (Figura 7). L’onda periodica risulta “intonata”, cioè riusciamo a percepirla come un suono determinato (ad esempio una nota), un’onda

aperiodica verrà percepita come rumore e la sua altezza sarà difficilmente riconoscibile.

Figura 7

b. Periodo: tempo necessario a completare un ciclo.

c. Fase: posizione in cui si trova il ciclo di un’onda in un dato momento.

d. Lunghezza d'onda: è la distanza tra due creste (o fra due ventri) e viene indicata dalla lettera greca λ (lambda). Si calcola:

λ = v/f

dove v è la velocità di propagazione del suono e f è la frequenza.

2) Ampiezza: è il parametro che ci permette di distinguere tra forte e piano. La pressione sonora più debole che l’orecchio umano è in grado di percepire si chiama soglia

inferiore di udibilità, la pressione sonora massima che un essere umano può

sopportare (prima della rottura del timpano o danneggiamento del sistema uditivo) si chiama soglia del dolore.

Il valore massimo della pressione di un’onda si dice ampiezza di picco mentre il valore in un qualsiasi altro punto si dice ampiezza istantanea. I numeri dell’ampiezza sono per convenzione espressi tra -1 e 1. Se l’ampiezza supera la soglia di 1 (o di -1) il valore viene troncato, con conseguente “schiacchiamento” dell’onda e derivante distorsione.

(11)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

a. deciBel: nella maggior parte dei software di editing audio si indica l’ampiezza in dB SPL (Sound Pressure Level). Quest’unità di misura rappresenta il rapporto tra la pressione sonora in un dato istante e il livello di riferimento.

Ampiezza = 1 à 0 dB SPL

Una diminuzione di -6dB corrisponde a un dimezzamento dell’ampiezza, un aumento di +6dB a un raddoppio dell’ampiezza.

NB: È importante tenere a mente che il deciBel è una misura RELATIVA mentre l’ampiezza è una misura ASSOLUTA.

3) Forma d’onda: è il parametro che ci permette di distinguere il timbro (ovvero se quello che sentiamo è un suono emesso da un pianoforte o da un violino).

(12)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

7- Inviluppi d’ampiezza

Un suono, in natura, non va da zero alla sua massima ampiezza, gli è necessario un tempo, anche irrisorio, detto transitorio d’attacco. Ugualmente, non si estingue andando dalla sua massima ampiezza a zero, ma segue un transitorio di estinzione. Nel digitale è possibile, tuttavia, far iniziare (o finire) un suono con ampiezza diversa da zero. Se questo avviene, assistiamo al fenomeno del click digitale.

L’inviluppo (envelope) è il “disegno” dell’andamento dell’ampiezza di un suono. È composto da 4 fasi (Figura 8):

• ATTACCO (ATTACK): L’ampiezza cresce da zero fino al suo massimo;

• DECADIMENTO (DECAY): L’ampiezza diminuisce fino a un certo livello;

• SOSTEGNO (SUSTAIN): L’ampiezza rimane stabile per un certo lasso di tempo;

• RILASCIO (RELEASE): Il suono diminuisce fino a estinguersi (raggiungendo lo zero).

Dall’acronimo delle fasi dell’inviluppo otteniamo il nome inviluppo ADSR. Non tutti i suoni hanno tutte le fasi dell’inviluppo: ad esempio a volte può mancare il decay, altre volte il sustain.

Tornando al timbro, anche l’inviluppo dei suoni gioca un ruolo fondamentale nel riconoscimento di esso.

Figura 8

(13)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

8- Spettro del suono

Prima di procedere alla definizione di spettro sonoro dobbiamo avere ben chiaro cos’è un’0nda sinusoidale: essa è il mattone fondamentale del mondo sonoro, una frequenza pura, che al suo interno contiene solo sé stessa. In natura ci sono suoni che le si avvicinano ma non esiste nella sua forma pura. Tutti i suoni sono composti da una somma di sinusoidi, quindi ogni suono può essere scomposto in una serie di sinusoidi, ognuna delle quali avrà la sua frequenza, ampiezza e fase. L’insieme delle ampiezze, frequenze e fasi di queste sinusoidi che formano un determinato suono, è lo spettro sonoro.

A differenza della forma d’onda, che rappresenta il suono nel dominio del tempo (riportando dunque sull’asse verticale l’ampiezza e su quello orizzontale il tempo), lo spettro sonoro rappresenta il suono nel dominio della frequenza (riportando dunque sull’asse verticale l’ampiezza e su quello orizzontale la frequenza). Chiaramente questa rappresentazione è riferita a un singolo istante (Figura 9).

Figura 9

I suoni possono avere due tipologie di spettro:

a) Armonico: le frequenze sono in rapporto intero tra di loro, le componenti si dicono armoniche.

(Es: Fq0 = 100Hz / Fq1 = 200Hz / Fq3 = 300Hz…)

b) Inarmonico: le frequenze NON sono in rapporto intero tra di loro, le componenti si dicono inarmoniche o parziali.

(Es: Fq0 = 100Hz / Fq1 = 237Hz / Fq3 = 329Hz…)

Dicevamo che lo spettro è una rappresentazione di un suono in un dato istante ma se invece volessimo avere una rappresentazione dell’evolversi delle frequenze di un suono nell’arco di

(14)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

un dato lasso di tempo, come potremmo fare? In questi casi si ricorre al sonogramma, una rappresentazione che riporta sull’asse verticale la frequenza e su quello orizzontale il tempo, mentre il colore definisce l’intensità di ogni singola frequenza. I diversi software hanno differenti opzioni di visualizzazione, in Figura 10 sono riportati due sonogrammi realizzati con due differenti software.

Figura 10

(15)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

9- Battimenti

Il battimento è l'effetto risultante dalla sovrapposizione di suoni di frequenza vicina e il suo verificarsi si basa sul principio di sovrapposizione.

Supponiamo di avere due oscillatori che generano onde sinusoidali con la stessa frequenza e ampiezza, esse possono sovrapporsi in diversi modi (Figura 11):

• in fase: ovvero creano interferenza costruttiva. I due suoni partono esattamente nello stesso punto nello spazio e nel tempo. L'onda risultante avrà creste che sommano i valori delle due onde raddoppiando l'ampiezza dell'onda risultante;

• in controfase: ovvero creano interferenza distruttiva. I due suoni partono nello stesso punto nel tempo ma con le ampiezze invertite. L'onda risultante avrà creste che sommano i valori delle due onde annullando l'ampiezza dell'onda risultante;

• sfasate: si parla in questo caso di semplice sommatoria. I due suoni partono in punti diversi nello spazio e nel tempo. L'onda risultante avrà creste che sommano i valori delle due onde;

Figura 11

Nel caso dei battimenti le frequenze delle due onde sono lievemente differenti e la

sovrapposizione di fase e controfase avverrà periodicamente. Questo avviene perché le onde non sono perfettamente sovrapposte in quanto oscillano con un periodo diverso, quindi un'onda arriverà un po' prima dell'altra finché le creste non saranno perfettamente sovrapposte (od opposte). L'effetto risultante percepibile, se le onde hanno la stessa

ampiezza, è quello di un suono che appare e scompare ciclicamente con un ritmo regolare, a causa del susseguirsi dei periodici rinforzamenti e indebolimenti dell'intensità. Il nome del

(16)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

fenomeno è infatti legato a questa lenta fluttuazione che fa assomigliare il suono a una pulsazione regolare. Graficamente l'onda risultante avrà la caratteristica forma che mostra la

"doppia oscillazione".

Figura 11

Man mano che la differenza tra le due frequenze aumenta, anche la velocità dei battimenti aumenterà. Una volta superata una certa distanza (in frequenza) non siamo più in grado di percepire i battimenti ma solo due voci distinte. Questo limite è detto banda critica e definisce i confini all’interno dei quali i nostri sensi non riescono a separare due suoni di frequenza simile e ce li fa percepire come un singolo suono contenente battimenti. La larghezza della banda critica varia a seconda delle frequenze al di sopra dei 200 Hz la

larghezza di banda critica cresce con il crescere della frequenza intermedia, sotto ai 200 Hz la larghezza di banda critica rimane pressoché costante e occupa un intervallo sempre più grande man mano che la frequenza media scende.

Nel caso della sovrapposizione di suoni puri la percezione che abbiamo è quella di un suono di altezza intermedia tra le due frequenze caratterizzata dalla "scomparsa/ricomparsa" del suono, dovuta alla fluttuazione dell'intensità percepita, a causa della sommatoria delle due onde.

(Fq1 - Fq2) / 2 = Fqp

dove Fq1 ed Fq2 sono le frequenze delle due onde sinusoidali ed Fq0 è la frequenza percepita.

Se le due onde sono in fase possiamo calcolare la frequenza di battimento facendo un semplice calcolo:

Fq1 - Fq2 = FqB

dove Fq1 ed Fq2 sono le frequenze delle due onde sinusoidali ed FqB rappresenta la frequenza di battimento.

In altre parole se supponiamo di avere una frequenza Fq1 = 50 Hz ed una frequenza Fq2 = 40 Hz, il suono che noi percepiremo è una frequenza intermedia (Fqp) di 45 Hz caratterizzata dal una frequenza di battimento (FqB) di 10 Hz.

(17)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

10- Differenza tra Segnali Mono e Segnali Stereo

La discriminante dipende dall’origine dei suoni, ovvero dall’input del segnale.

• Nel suono mono si ha 1 solo input, quindi una singola forma d’onda; (Figura 12)

• Nel suono stereo si hanno 2 segnali di input distinti, quindi due forme d’onda differenti che rappresentano destra (R) e sinistra (L); (Figura 12)

• Esiste anche un’altra tipologia detta doppio mono, essa altro non è che un falso stereo: lo stesso segnale mono viene inviato su due canali diversi.

Da questo deduciamo che quando riprodurremo il nostro suono stereo, la nostra percezione sarà più “spaziale” rispetto a quella di un suono mono, ovvero percepiremo da ogni orecchio una forma d’onda differente, come nella realtà. È comunque necessario, per un vero ascolto stereo, trovarsi in un punto perfetto di ascolto, dove gli altoparlanti sono posizionati

correttamente e ad una distanza predefinita. Il numero di altoparlanti del nostro sistema di riproduzione non ha importanza per definire i due tipi di suoni ma, chiaramente, con una sola cassa non è possibile apprezzare la spazialità dei suoni stereo.

Figura 12

(18)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Oggigiorno il suono stereofonico è presente ovunque: Radio FM, Televisione, CD… Dalla televisione però, a meno che non si disponga di un impianto Home Theatre, difficilmente si riesce ad apprezzare la caratteristica spazialità di un suono stereo, dato che gli speaker incorporati nelle televisioni sono molto. Pur essendo stereo, in questi casi il suono non ci sembrerà molto differente a quello che udiremmo in modalità mono.

Nella pratica la registrazione mono è adatta per strumenti singoli, che hanno fronti sonori molto stretti, come ad esempio la voce, una chitarra, un flauto (Figura 13)… la ripresa stereo invece è indicata per strumenti più grandi, come ad esempio una batteria, un'orchestra, un’arpa (Figura 14)… o per le registrazioni dove vogliamo avere un’idea dell’ambiente (come, ad esempio, le soundscape recordings).

NB: All’atto del missaggio ricordiamoci che per disporre nello spazio un suono mono sarà necessario utilizzare il Pan!

Figura 13

Figura 14

(19)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

11- RIFLESSIONE, DIFFRAZIONE, RIFRAZIONE E ASSORBIMENTO DEL SUONO

Come si comporta il suono quando interagisce con degli ostacoli? Generalmente il materiale di cui è composto l'ostacolo e le sue dimensioni condizionano la natura dell'interazione al pari del contenuto di frequenze del suono che si sta considerando. Si possono verificare, spesso contemporaneamente, 4 situazioni: riflessione, diffrazione, rifrazione e assorbimento.

RIFLESSIONE

È il fenomeno acustico che si verifica quando l'onda sonora incontra un ostacolo e torna indietro, cambiando quindi direzione (Figura 15).

Figura 15

Un'onda che incide su una superficie piana con un angolo di incidenza α (tra la normale alla superficie e la direzione di propagazione dell'onda) viene riflessa con un angolo di riflessione pari ad α (quindi gli angoli di incidenza e riflessione sono uguali). Le superfici

concave vengono evitate in acustica in quanto tendono a concentrare il suono in un preciso punto (fenomeno della focalizzazione) creando distribuzioni sonore disomogenee. Viceversa le superfici convesse hanno la proprietà di diffondere il suono (fenomeno della dispersione) e dunque sono ampiamente usate per migliorare l'acustica degli ambienti. L'eco è un esempio di riflessione: onde sonore contro un ostacolo che vengono a loro volta nuovamente

percepite dall'emettitore più o meno immutate e con un certo ritardo rispetto al suono diretto. Tale ritardo non dev'essere inferiore ad 1/10 di secondo. Al di sotto di tale valore non si può più parlare di eco. Si parla propriamente di eco quando le singole riflessioni dell'onda sonora sono percepite distintamente dall'ascoltatore.

(20)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

DIFFRAZIONE

Mutamento di direzione di un’onda sonora a causa di un ostacolo, ovvero superarlo girandoci attorno (Figura16). Se l’ostacolo è più piccolo della lunghezza d'onda, la

diffrazione sarà significativa e l'onda si ricostituisce dietro l’ostacolo dopo aver perso un po’

di energia; se invece l’ostacolo è grande, l'onda viene in gran parte riflessa e si forma una zona d'ombra. Tutto dipende dalla frequenza in quanto suoni con una grande lunghezza d'onda (e dunque bassa frequenza) superano con facilità ostacoli con una dimensione minore della loro lunghezza d'onda. Questo è uno dei motivi per cui le prime frequenze che vengono attenuate sono quelle alte mentre quelle basse si propagano a distanze molto maggiori.

Figura 16

RIFRAZIONE

Fenomeno secondo il quale un'onda che attraversa due mezzi di diversa densità cambia direzione nel passaggio dall'uno all'altro (Figura 17). Tale comportamento è facilmente spiegabile se teniamo presente che il suono viaggia più velocemente in mezzi più densi.

Figura 17

(21)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

ASSORBIMENTO

Può essere descritto come la conversione di energia acustica in energia termica da parte di una superficie. In altre parole, quando un suono viene a contatto con un ostacolo, gli trasferisce energia che viene dissipata sotto forma di calore. Il coefficiente di assorbimento esprime il rapporto tra energia assorbita ed energia incidente.

(22)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

12- RIVERBERAZIONE

Prima di parlare di riverberazione dobbiamo introdurre il concetto dei modi di vibrazione:

essi rappresentano il fenomeno per cui il suono colpisce una superficie e viene riflesso.

I modi di vibrazione di una stanza sono sostanzialmente 3 (Figura 18):

• Assiale: coinvolge due superfici

• Tangenziale: coinvolge il perimetro

• Obliquo: coinvolge tutte le superfici della stanza

Figura 18

Le risonanze naturali di una stanza piccola vengono rilevate nei vari modi di vibrazione, tempi di riverberazione lunghi significano bassa assorbenza della stanza, tempi corti un’alta assorbenza. Nel modo 1,0,0 si prende in considerazione solo l’assorbenza delle due estremità della stanza, le altre pareti non sono interessate, nel modo 0,0,1 solo quella del soffitto e del pavimento, e così via. Si può quindi intuire che la questione della riverberazione delle stanze è fondamentale, in quanto le dimensioni sono paragonabili alle lunghezze d’onda del suono.

Se consideriamo una sorgente S, che propaga suono in ogni direzione, e un ascoltatore H, possiamo facilmente intuire che H percepirà il suono lungo una linea retta ad una potenza D, che data la distanza percorsa dall’onda sarà inferiore a quella originale. A questa prima percezione si sommerà con un certo ritardo dovuto alla distanza superiore coperta dall’onda sonora, la prima riflessione R1, che avrà perso ancora in potenza dopo aver colpito la parete ed essere stata in parte assorbita prima della riflessione, rendendo così la potenza percepita uguale a D+R1, le riflessioni successive subiscono lo stesso andamento e la potenza sonora complessiva sarà quindi D+Rn. Il ritardo della riflessione R1 (ritardo della prima riflessione) costituisce l’indizio fondamentale che fornisce informazioni sulla grandezza della sala, se esso è inferiore a 40-50 ms l’orecchio non incontra difficoltà ad integrare il suono diretto con quello riverberato.

(23)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Tempo di riverberazione

Se spengessimo S il suono persisterebbe ancora per un po’ nella stanza ma con intensità calante, in quanto le riflessioni non sono più alimentate da un’onda sonora e quindi tenderanno ad esaurire la loro energia fino a diventare impercettibili (ovvero fintanto che raggiungano una perdita di 60 dB). Il tempo necessario affinché esse raggiungano questo stato si chiama tempo di riverberazione e si indica con RT60 (oppure T60). Non sempre si riesce a calcolarlo poiché questa perdita risulta impossibile quando il rapporto tra il livello di S e quello del rumore di fondo è inferiore a 60 dB. È stato valutato che per l’orecchio umano, nella valutazione del suono complessivo, sono fondamentali i primi 20/30 dB del

decadimento, bisogna però sforzarsi di ottenere la massima gamma possibile (di solito 45-50 dB). La durata del decadimento è quindi dipendente dal rapporto suono/rumore (s/n ratio).

Equazione di Sabine

Serve a calcolare il tempo di riverberazione e si basa sul presupposto che ci si riferisca a una stanza chiusa in cui ci sia una distribuzione uniforme dell’energia sonora e una direzione casuale della propagazione del suono. Queste condizioni non sono però soddisfatte alle basse frequenze.

𝑅𝑇60 =0,163 ∗ 𝑉 𝑆 ∗ 𝑎

Dove V rappresenta il volume della stanza, S la superficie totale ed 𝑎 il coefficiente medio di assorbimento delle superfici della stanza.

Sorgenti per il calcolo del tempo di riverberazione

Per garantire una buona accuratezza si deve coprire tutto lo spettro sonoro con energia sufficiente a tutte le frequenze, in modo da garantire decadimenti che partono da livelli sufficientemente al di sopra del rumore di fondo. Le sorgenti sinusoidali erogano energia ad una sola frequenza e danno luogo a decadimenti molto irregolari, complessi da analizzare, si preferiscono sorgenti di rumore casuale che garantiscono un’indicazione stabile sugli effetti acustici dell’ambiente.

Puntando un altoparlante verso un angolo della stanza si eccitano tutti i modi della stanza stessa, perché tutti i modi terminano negli angoli. Se si prendono in esame i decadimenti di tutti i modi strettamente spaziati in frequenza, possiamo osservare delle fluttuazioni causate da battimenti, variabili tra un decadimento e l’altro a causa della diversa eccitazione di ogni modo, questo significa che è sempre preferibile registrare almeno 5 decadimenti per ogni ottava, per desumere il decadimento medio della stanza. Questo fenomeno avviene in misura maggiore nel range di bassa frequenza, questo perché il numero dei modi eccitati è

direttamente proporzionale alla frequenza. Ogni ottava ha quindi un suo tasso di decadimento, caratterizzato dalla media dei decadimenti dei vari modi.

(24)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Influenza della riverberazione sulla musica

Ciò che caratterizza un suono in un ambiente chiuso è la descrizione del riverbero e il primo suono. Durante il decadimento si ha un fenomeno di cambio di tono, questo, nelle chiese molto riverberanti, porta a una variazione di quasi un semitono (nei casi estremi) a causa di uno slittamento di energia tra modi normali e dalla dipendenza percettiva della frequenza rispetto all’intensità. Il miglior tempo di riverberazione per uno spazio dedicato alla musica dipende dalle dimensioni della sala e dal tipo di musica. Musica lenta e melodica si adatta a tempi di riverberazione lunghi, mentre la musica ritmata a quelli corti. Tuttavia questo è un discorso di natura soggettiva e ogni tecnico del suono ha una sua opinione.

Per quanto riguarda gli studi di registrazione per il parlato si cerca di ottenere dei tempi di riverberazione che siano identici per tutto lo spettro anche se questo risulta complesso. Per agire sulle alte frequenze è sufficiente utilizzare dei pannelli assorbenti, per le basse la situazione si complica in quanto gli elementi assorbenti sono di grandi dimensioni e spesso imprevedibili nel comportamento.

Riverberazione artificiale

• Stanze di riverberazione: la musica viene eseguita e registrata in una stanza dedicata poi mixata con il segnale riverberato. Le stanze piccole presentano problemi dovuti all’ampia spaziatura frequenziale tra modi mentre quelle grandi sono molto costose.

Questo metodo è caduto in disuso.

• Riverberatori a molla: presentano un costo contenuto e sono stati ampiamente usati in studio di registrazione. Il segnale viene accoppiato all’estremità di una molla, la percorre, e viene accolto all’estremità opposta, causando un ritardo che genera riverberazione. Sta cadendo in disuso a causa delle scarse prestazioni.

• Piastra di riverberazione: ha rappresentato uno standard per molti anni, ormai superata a causa dell’esoso rapporto costo/prestazioni rispetto ai dispositivi digitali.

• Algoritmi generatori di ritardi multipli: il segnale in arrivo viene ritardato e mixato con l’originale, il risultato viene ritardato ancora e mixato all’originale e così via. In questo modo si simula una riverberazione in maniera molto affidabile. Schroeder ha verificato che per evitare l’effetto flutter (fluttuazione, miagolio) sono necessari almeno 1000 ritardi, per ottenerli si necessita di una serie di riverberatori singoli messi in parallelo, ma non è molto pratico. Risulta più semplice generare un

dispositivo in cui le linee di ritardo si autoalimentino tra loro. Altri metodi efficaci sono stati sviluppati negli anni, come ad esempio il riverbero a convoluzione.

Qualche precisazione doverosa riguardo ai segnali ritardati nel tempo:

Il Delay è definito come la suddivisione di un segnale in componenti separate, una delle quali viene ritardata, e quindi reintrodotta nel segnale originale.

(25)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

L'Eco è un delay in cui il ritardo sia di almeno 35 ms. Questo tempo minimo fa sì che il nostro orecchio riesca a percepire il suono ritardato come perfettamente distinto da quello originale. Questo infatti è ciò che accade nella nostro esperienza con l'eco naturale.

Il Riverbero è definito come un delay di meno di 35 ms, nel quale le rigenerazioni sono distribuite in modo casuale, e nel quale la porzione di rilascio dell'inviluppo del suono è pure casuale.

Troppo spesso si fa un’assoluta confusione tra delay, eco e riverbero, ma si tratta di tre cose ben distinte. In pratica sia l'eco sia il riverbero sono due tipi particolari di delay. Da queste definizioni si comprende che il delay è in generale ogni effetto nel quale un suono viene ritardato e riprodotto assieme alla sorgente. Delay significa infatti ritardo, e quindi ogni effetto in cui ci sia un segnale ritardato è un delay o è basato su un delay. Sono basati su un ritardo eco, riverbero, phaser, e flanger.

(26)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

13- Il Protocollo MIDI (Musical Instrument Digital Interface)

INTRODUZIONE

Si dice SISTEMA DSP (Digital Signal Processing) l’insieme di hardware e software che permette l’elaborazione e/o sintesi dei suoni. Con un SISTEMA DSP, registriamo,

elaboriamo ed esportiamo principalmente due tipi di dati: audio (AIFF, WAV, MP3…) e MIDI. Con il termine MIDI si indica sia un linguaggio informatico, ossia una serie di specifiche che danno vita al protocollo, che un'interfaccia hardware che consente il collegamento fisico tra dispositivi. La tipologia di file MIDI consente ad un utente di trasferire e/o registrare una serie di preziose informazioni utilizzando un particolare protocollo di comunicazione che il più delle volte mette in relazione il nostro sistema DSP con un’interfaccia esterna (una tastiera muta, un controller esterno, una consolle digitale, una drum machine…). Il MIDI, come vedremo andando avanti, non necessita per forza di questa interfaccia esterna, che può anche non essere presente, e il protocollo può comunque permetterci di comunicare tra diversi software.

Il MIDI (Musical Instrument Digital Interface) è quindi un protocollo formato da un

insieme di messaggi e regole per la comunicazione tra strumenti tipicamente musicali (e non solo!). Nonostante possa essere soppiantato da protocolli moderni molto più performanti, è rimasto pressoché inalterato ed è tuttora intensamente utilizzato nella produzione di musica elettronica. I motivi risiedono probabilmente nel ruolo di standard pressoché incontrastato che esso ha assunto nell'ambito musicale.

STORIA

Il protocollo MIDI venne realizzato all’inizio degli anni ’80 per facilitare il compito degli addetti ai lavori. In quegli anni chiunque volesse creare ed usare dei suoni di un certo tipo era obbligato ad utilizzare molti sintetizzatori contemporaneamente, infatti essi fino ad allora offrivano scarse possibilità polifoniche. Fu così che si sentì l’esigenza di un protocollo che permettesse di abbattere questa barriera e che permettesse di far comunicare tra loro diversi strumenti musicali elettronici, tenendo conto delle caratteristiche di ognuno. Già le case manifatturiere avevano dei propri protocolli ma che si interfacciavano solo con

strumenti della stessa ditta produttrice. Così nel 1981 Dave Smith e Chet Wood, progettisti della società americana Sequential Circuit (che produceva i sintetizzatori Prophet)

iniziarono a definirne le linee guida e proposero le prime specifiche del MIDI, un protocollo che permettesse la comunicazione tra prodotti di diverse case manifatturiere e che sarebbe

(27)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

stato in grado di controllare la polifonia e la timbrica. Le prime specifiche del nuovo

protocollo furono rese note in un documento pubblicato sotto il nome di The complete SCI MIDI. Durante la fiera NAMM a Los Angeles nell'estate del 1983 venne presentato il primo sintetizzatore (un Prophet 600) dotato di protocollo MIDI e di porte di comunicazione.

L'interesse e il successo furono tali che praticamente tutti i più grandi costruttori di sintetizzatori aderirono alla commercializzazione del protocollo e nel 1985 l'IMA

(International MIDI Association) pubblicò le specifiche tecniche del protocollo MIDI 1.0 in modo da renderlo uno standard definitivo. Nonostante svariati tentativi di modificare il protocollo, la sua struttura è rimasta praticamente la stessa a conferma che è un linguaggio molto potente, facile da programmare e che non richiede una tecnologia complessa e di difficile reperibilità.

Lo standard chiamato General MIDI è stato introdotto nel 1991 per semplificare le

operazioni di riproduzione delle sequenze MIDI tramite gli stessi timbri. Successivamente, i timbri sono stati ordinati all’interno una lista i cui numeri sono associati al messaggio di Program Change (vedremo più avanti cosa significa) rispettando sempre la stessa posizione, a prescindere dalla marca dello strumento. In questo modo, è molto semplice riprodurre una sequenza MIDI che necessita di timbri particolari, basta attivare il banco General MIDI e iniziare a leggere la sequenza MIDI per caricare automaticamente i timbri. Per convenzione lo standard dedica il canale MIDI numero 10 ai suoni di batteria e percussione.

Roland ha creato lo standard GS (General System) che permette di utilizzare un numero superiore di timbri rispetto ai 128 del General MIDI grazie all’introduzione di nuovi

messaggi MIDI (del tipo Control Change) come il Bank Select che consente di selezionare i vari banchi dove sono memorizzati i timbri.

Nel 1994 Yamaha introdusse lo standard XG in grado di controllare maggiori banchi e strumenti nonché drum kit ed effetti con la piena compatibilità con il General MIDI.

CONNESSIONI

Il protocollo è costituito da centinaia di messaggi ognuno dei quali è formato da parole (word) di uno o più byte (1 byte è una stringa di 8 bit) che trasferiscono i dati da un device definito master, ad un altro, chiamato slave, il cui unico scopo è quello di fornire il supporto timbrico. Pertanto, le azioni desiderate vengono associate ad un univoco messaggio MIDI. I messaggi MIDI non portano informazioni audio ma solamente una codifica delle azioni che poi lo slave provvederà a tradurre in segnale audio. Lo standard MIDI prevede l'uso di connettori circolari a standard DIN a 5 pin (Figura 19). Questi connettori erano molto diffusi per ogni genere di connessione audio fino agli anni ’90, quando sono stati sostituiti dai più pratici jack.

(28)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Figura 19

PORTE MIDI (Figura 20)

1. MIDI IN: utilizzata per ricevere i messaggi inviati da un’altra macchina 2. MIDI OUT: impiegata per inviare i messaggi ad altri strumenti

3. MIDI THRU: consente di reindirizzare un messaggio proveniente alla porta MIDI IN verso un altro strumenti.

Figura 20

Non è raro, anzi è la norma, volere che alcuni messaggi siano interpretabili solamente da un primo slave mentre altri solamente da un secondo slave. Possiamo attuare questo

procedimento utilizzando una proprietà dei messaggi MIDI: il canale. Esistono 16 canali indipendenti dove è possibile far viaggiare i messaggi MIDI: in tal modo possiamo assegnare ogni singolo messaggio su un canale specifico ed impostare la ricezione MIDI dello slave su quel canale in modo da ignorare tutti i messaggi indirizzati sugli altri canali. Ogni strumento musicale elettronico dotato di interfaccia MIDI ha delle pagine di editing dove è possibile impostare il canale di ricezione (MIDI Receive, Rx) e quello di trasmissione (MIDI

Transmit, Tx) per cui basta far riferimento al manuale d’utilizzo dello strumento per trovare le pagine di editing. Il collegamento appena descritto, costituito cioè dalle sequenze MIDI OUT -> IN, THRU -> IN, THRU è chiamato a cascata o seriale. Sebbene sia semplice è

(29)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

sconsigliato se si devono collegare numerosi dispositivi Slave ad un’unica Master in quanto insorgono problemi di latenza (ritardo del segnale). I messaggi MIDI vengono trasmessi in maniera seriale e asincrona (ovvero occorrono 1 bit di start e uno di stop) alla velocità di 31.250 bit al secondo.

Se si ha necessità di collegare numerosi strumenti è il caso di utilizzare un collegamento detto a stella realizzabile tramite una THRU Box (Figura 21), un hardware costituito da una porta IN e da 2 o più porte THRU (fino ad un massimo di 16, come il numero dei canali MIDI!).

Figura 21

Ultimamente esistono controllers in grado di inviare al computer messaggi MIDI tramite le porte USB, Lan e Firewire. Grazie a delle applicazioni software chiamate sequencer,

installabili sia in nità hardware specifiche che in normali personal computer possiamo usufruire dei Virtual Instruments, ovvero di “slave virtuali” i cui collegamenti MIDI sono di natura virtuale e che quindi vengono gestiti direttamente all’interno del sequencer senza necessità di cablaggi hardware. Si possono quindi registrare performance musicali sotto forma di "messaggi MIDI" per poterle successivamente modificare e riascoltare. Questa tipologia di collegamento sarà uno di quelli che sfrutteremo di più all’interno del nostro corso!

È anche possibile trasmettere in MIDI, oltre alle note e alle varie informazioni necessarie alla loro esecuzione, anche del testo sincronizzato con la musica. Questo aspetto è stato

ampiamente sfruttato per fare karaoke. Ai file di questo tipo è spesso cambiata l'estensione da *.mid a *.kar.

STRUTTURA DEI MESSAGGI MIDI

Per facilitare la comprensione di questo paragrafo faremo un breve accenno al sistema binario. Il sistema numerico binario è un sistema numerico posizionale in base 2. Esso utilizza solo due simboli indicati con 0 e 1, invece delle dieci cifre utilizzate dal sistema numerico decimale. I numeri espressi nel sistema numerico binario sono chiamati numeri binari. I numeri binari sono utilizzati in informatica, grazie all'utilizzo della logica

(30)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

booleana all'interno circuiti elettrici digitali, per la rappresentazione interna dei numeri o dei valori logici di vero e falso. Da questo si evince che la serie dei numeri binari sarà differente da quella dei numeri decimali e che quindi si svilupperà nel seguente modo:

Tabella 2

NUMERO BINARIO NUMERO DECIMALE

0 0

1 1

10 2

11 3

100 4

101 5

110 6

111 7

1000 8

1001 9

1010 10

1011 11

1100 12

1101 13

1110 14

1111 15

ecc… ecc…

Torniamo al nostro protocollo MIDI. I messaggi MIDI sono costituiti da una sequenza di byte divisi in due tipologie, distinguibili dal primo numero più significativo (MSB – Most Significant Bit) della sequenza: uno status byte inizia sempre con 1, un data byte sempre con zero.

STATUS BYTE

E’ il byte che definisce il comando MIDI ed il tipo di informazione che si sta trattando.

Quando affermiamo che questo byte serve ad identificare il tipo di messaggio, intendiamo dire che esso specifica lo scopo dei data byte che lo seguono.

NB: ad eccezione dei real-time messages, un nuovo Status byte obbligherà il ricevitore ad adottare un nuovo stato, anche se l'ultimo messaggio non è ancora stato completato.

(31)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Lo status byte è diviso in due NIBBLE (gruppi di 4 bit):

• nel primo nibble abbiamo il numero più significativo ed i 3 rimanenti bit sono utilizzati per specificare i vari messaggi (dando luogo dunque ad 8 differenti possibilità). I messaggi inviabili dal primo nibble sono i seguenti:

Note off Note on Polyphonic key

pressure Control change Program change Channel aftertouch Pitchbend System message

• nel secondo nibble si possono mandare messaggi di canale (16 possibilità) o messaggi di sistema (12 possibilità, 4 combinazioni sono inutilizzate). I messaggi di sistema sono i seguenti:

system exclusive

start Mtc quarter frame Song position pointer Song select Tune request System exclusive

stop MIDI clock Start

Continue Stop Active sensing System reset

I messaggi MIDI si dividono in due grandi categorie:

1. Channel Message (messaggi di Canale): usa quattro bit dello Status Byte per

indirizzare il messaggio ad uno dei sedici canali MIDI (primo nibble) e quattro bit per definire tale messaggio (secondo nibble).

NB: Uno strumento può ricevere messaggi MIDI da più di un canale. Il canale sul quale riceve le istruzioni principali è detto "Basic channel". Uno strumento può essere impostato in modo da ricevere dati di esecuzione (performance data) su canali multipli (incluso il basic channel). A questi ci si riferisce come "Voice channels".

I Channel Messages sono divisi a loro volta in:

Ø Voice Messages: servono per controllare le voci di uno strumento. I voice messages sono spediti sui Voice channels

Ø Mode Messages: servono per definire la risposta degli strumenti ai Voice messages. I mode messages sono spediti sul basic channel di uno strumento.

I sintetizzatori ed altri strumenti contengono elementi di generazione del suono chiamati "voices". L'assegnamento delle voices è il processo algoritmico di instradare i note On/Off data dai messaggi MIDI in arrivo alle voices stesse, in modo che le note siano correttamente suonate. Sono disponibili quattro

(32)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

Mode messages per definire le relazioni tra i sedici canali MIDI e i voice assignment dello strumento.

Le quattro modalità sono determinate dalle proprietà Omni On, Omni Off, Poly e Mono. Poly e Mono sono mutuamente esclusive.

• Omni on: abilita il ricevitore a ricevere Voice messages su tutti i Voice Channels.

• Omni off: il ricevitore accetterà solo i Voice Messages che provengono da Voice Channels selezionati.

• Mono on: riduce l'assegnamento di Voices a solo una Voice per Voice Channel (monophonic).

• Mono off (ovvero Poly on): un certo numero di Voices può essere allocato dal normale algoritmo di Voice assignment del ricevitore. Un ricevitore o un trasmettitore MIDI operano con un solo Channel Mode alla volta. Dal momento che un singolo strumento può funzionare come un insieme di strumenti virtuali, esso può avere diversi Basic Channels.

Tale strumento si comporta come se fosse più di un ricevitore ed ogni ricevitore può essere impostato con un differente Basic Channel.

Ognuno di questi ricevitori può inoltre essere impostato con diversi Mode, sia attraverso il pannello dei controlli dello strumento sia

attraverso Mode messages ricevuti sul Basic channel. Sebbene non sia un vero MIDI mode, questa maniera di operare è detta "Multi Mode".

2. System Message (messaggi di sistema) che non contengono informazioni di canale ma sono indirizzati globalmente all’intero sistema di strumenti collegati nel nostro network musicale e si dividono in

Ø Common Messages: quattro in totale, danno istruzioni generali a tutto il sistema:

• MIDI Time Code Quarter Frame: messaggio di time code nel formato ore:minuti:secondi:frame.

• Song Position Pointer: indica la posizione che il cursore deve assumere durante la riproduzione di un file MIDI.

• Song Select: consente di selezionare una song all’interno di un

sequencer. E’ costituito da un solo data byte che indica il numero della song.

• Tune Request: viene utilizzato per accordare lo strumento. E’ sprovvisto di data byte.

Ø Real Time Messages: sono 6 messaggi di sincronizzazione privi di Data Byte

• MIDI Clock: utilizzato per sincronizzare strumenti MIDI; viene inviato 24 volte per ogni nota del valore di un quarto.

(33)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

• Start: viene utilizzato per portare tutti gli strumenti esterni alla posizione iniziale della song e a farle partire in riproduzione o registrazione.

• Continue: permette di riprendere la song dal punto in cui è stata interrotta.

• Stop: utilizzato per fermare la registrazione o la riproduzione degli strumenti collegati al sequencer.

• Active Sensing: inviato ogni 300 millisecondi, è utilizzato per tenere attiva la connessione tra master e slave.

• System Reset: ripristina le condizioni di default dello slave

Ø Exclusive Messages: sono messaggi che riguardano le funzionalità globali di ogni strumento e sono utilizzati a seconda delle esigenze proprie degli sviluppatori. I codici di sistema esclusivo possono essere interpretati solo da categorie di apparecchi compatibili tra loro. Se lo strumento non è in grado di interpretare uno o più messaggi di sistema esclusivo, restituirà un messaggio di errore. Sono costituiti da una sequenza il cui inizio è rappresentato da un messaggio seguito da un byte contenente il Manufacter ID, che identifica il costruttore; La sequenza può essere lunga o breve a seconda delle necessità e della complessità di quanto si trasmette ma in ogni caso, viene sempre conclusa dal messaggio end of exclusive. I parametri di una macchina che si possono modificare tramite il sistema esclusivo sono generalmente indicati nel manuale fornito con lo strumento, nella sezione chiamata MIDI Implementation Chart, ma se non sono disponibili esistono programmi di utilità in grado di produrre la sequenza di sistema esclusivo che si ottiene collegando lo strumento alle porte MIDI e variandone i parametri.

DATA BYTE

A seguire gli Status Bytes (ad eccezione dei Real-time messages) ci possono essere uno o due Data Bytes che trasportano il contenuto del messaggio. I Data bytes sono numeri di otto cifre binarie in cui il bit più significativo (Most Significant Bit - MSB) è posto a 0. Per ogni Status byte deve sempre essere spedito il corretto numero di Data Bytes corrispondente; nel lato ricevitore (slave), l'azione corrispondente al messaggio deve aspettare fino a quando non sono stati ricevuti tutti i Data bytes richiesti dallo Status byte corrispondente.

Il Data byte è il byte che rappresenta il valore richiesto per il parametro (o i parametri) specificato nello Status byte. Ha la possibilità di avere 128 diversi valori (27) che possono andare da 0 a 127 oppure da 1 a 128, a seconda delle situazioni.

(34)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

I MESSAGGI MIDI FONDAMENTALI

In questo paragrafo utilizzeremo alcuni riferimenti al sistema numerico esadecimale che è un sistema numerico posizionale in base 16. Il sistema esadecimale è molto usato

in informatica, per la sua relazione diretta tra una cifra esadecimale e quattro cifre binarie. È spesso usato come intermediario, oppure come sistema numerico a sé stante. Per esempio, è possibile esprimere un byte con esattamente due cifre esadecimali (invece che con 3

decimali, e lasciando gran parte dell'intervallo non utilizzato). È interessante notare come ogni cifra esadecimale corrisponda ad un nibble, cioè a un numero binario di quattro cifre.

Per comodità utilizzeremo quindi i byte corrispondenti ad ogni messaggio con le cifre espresse nel sistema esadecimale. (Tabella 3)

Tabella 3

NUMERO DECIMALE NUMERO

ESADECIMALE

0 0

1 1

2 2

3 3

4 4

5 5

6 6

7 7

8 8

9 9

10 A

11 B

12 C

13 D

14 E

15 F

16 10

ecc… ecc…

(35)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

• NOTE ON: generato dalla pressione su un tasto (reale o virtuale non conta!). Questo messaggio è formato da uno status byte e due data byte, uno per il pitch (altezza della nota) ed uno per la velocity (intensità); La struttura di un messaggio NOTA ON è la seguente:

1° byte (Status byte) 2° byte (Data byte) 3° byte (Data byte)

9n hh vv

Il numero 9 definisce il tipo di messaggio, la lettera n sta

ad indicare il numero di canale da utilizzare

hh definisce il pitch ovvero numero corrispondente alla

nota da far suonare (da 0 a 127)

vv definisce la velocità di tocco (velocity)(forza applicata sullo strumento nell’atto di suonare), (da 0 a

127

• NOTE OFF: generato dal rilascio del tasto, formato da uno status byte e due data byte, uno per il pitch ed uno per la velocity;

1° byte (Status byte) 2° byte (Data byte) 3° byte (Data byte)

8n hh vv

Il numero 8 definisce il tipo di messaggio, la lettera n sta

ad indicare il numero di canale da utilizzare

hh definisce il pitch ovvero numero corrispondente alla

nota da far suonare (da 0 a 127)

vv definisce la velocità di tocco (velocity)(forza applicata sullo strumento

nell’atto di suonare, dinamica), (da 0 a 127 NB: per la creazione delle pause, immediatamente dopo il “NOTE OFF” viene inserito un Tempo Delta di valore pari alla figura di pausa corrispondente. Se, invece, è prevista una pausa all’inizio del brano, il TΔ è inserito al primo evento “NOTE ON” della traccia.

• CHANNEL AFTERTOUCH: trasmette variazioni di pressione su una nota premuta in precedenza. A questa pressione viene assegnata la funzione aftertouch (che

rappresenta appunto il valore di pressione di un tasto) che può alterare caratteristiche del suono. Ha uno status byte ed un data byte per il valore l’aftertouch;

1° byte (Status byte) 2° byte (Data byte)

Dn dd

D definisce il tipo messaggio, la lettera n sta ad indicare il numero di canale

da utilizzare.

dd definisce la quantità di ulteriore velocità di tocco aggiunta alla nota che

già sta suonando (da 0 a 127)

(36)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

• POLYPHONIC KEY PRESSURE: simile al precedente, si riferisce a tastiere più costose che hanno sensori di pressione indipendenti per ogni tasto, ha uno status byte e due data byte, uno per l’aftertouch e ed uno per il numero di tasto;

1° byte (Status byte) 2° byte (Data byte) 3° byte (Data byte)

An aa vv

La lettera A definisce il tipo di messaggio, la letterta n sta ad indicare il numero di

canale da utilizzare.

aa definisce il numero di nota a cui applicare ulteriore pressione (da 0 a

127)

vv definisce la velocità di tocco (velocity)(forza applicata sullo strumento nell’atto di suonare), (da 0 a

127)

• PROGRAM CHANGE: utilizzato per impostare il timbro per la sequenza MIDI.

Formato da uno status byte ed un data byte per il numero del preset (o strumento virtuale);

1° byte (Status byte) 2° byte (Data byte)

Cn cc

C definisce il tipo di status byte, la lettera n sta ad indicare il numero di

canale da utilizzare.

dd definisce i dati specifici dello status byte, determina quale strumento far

suonare (da 0 a 127)

• PITCHBEND: le tastiere master hanno spesso sliders e/o joystick con i quali è possibile variare l’altezza della nota in esecuzione. Questo messaggio ha uno status byte e due data byte che definiscono i valori di incremento o decremento dell’altezza sufficientemente fluidi all’ascolto, per evitale lo zippering (salto). La combinazione di 2 data byte ci dà 16384 valori possibili;

1° byte (Status byte) 2° byte (Data byte) 3° byte (Data byte)

En ee zz

La lettera E definisce il tipo di messaggio, la letterta n sta ad indicare il numero di

canale da utilizzare.

ee definisce il primo valore

(da 0 a 127) zz definisce il secondo valore (da 0 a 127)

• CONTROL CHANGE: dà accesso ad una lista di 128 combinazioni che si riferiscono alle informazioni espressive. Ha uno status byte e due data byte, il primo indica il numero del controller, il secondo ne specifica il valore. Di questa categoria fanno parte i MODE MESSAGES (Omny, Poly, Mono).

(37)

Accademia di Belle Arti di Bari // Corso di Sound Design // Prof. Alessia Damiani

1° byte (Status byte) 2° byte (Data byte) 3° byte (Data byte)

Bn bb vv

La lettera B definisce il tipo di messaggio, la letterta n sta ad indicare il numero di

canale da utilizzare.

bb determina quale tipo di controllo inviare (pan, reverb, chorus…) (da 0 a

127)

vv definisce il valore da apllicare al controller (da 0

a 127)

o Local control è un tipo di control change utilizzato quando il master possiede un modulo sonoro. In questo caso per evitare che si invii il messaggio di NOTA ON anche al modulo interno, occorre impostare il master su LOCAL OFF così che il messaggio MIDI passi solo attraverso la porta MIDI OUT

I FILE MIDI

Un midifile è una sequenza di dati MIDI costituiti da diversi messaggi distribuiti nei vari canali in grado di essere interpretata da qualsiasi strumento dotato di porte MIDI. Lo standard midifile (SMF) è stato realizzato nel 1986 dalla Opcode System ed ha come estensione *.mid. E’ un file di testo codificato ASCII e pertanto occupa poco spazio. Le specifiche dello SMF furono sviluppate dalla MIDI Manufacturers

Association (MMA).

Il file MIDI è composto da complesse strutture, tecnicamente chiamate: Track Chunk (Blocco-traccia), formate da un certo numero di byte (informazioni-istruzioni). Ogni Blocco è un insieme di informazioni che conferisce a questa struttura un senso compiuto ai fini del riconoscimento e della esecuzione del file MIDI da parte del sequencer MIDI.

Blocco d'intestazione

La prima struttura, posta solo all’inizio del file MIDI e composta sempre da 14 byte, è

chiamata: Midi Track header chunk (MThd), ossia Blocco d’intestazione. Alcuni byte di questo Blocco-traccia d’intestazione del file MIDI sono invariabili, altri invece variabili a seconda ovviamente delle informazioni che trasmettono. In un file esiste un solo blocco Midi Track

header (MThd). Il Blocco d’Intestazione specifica alcune informazioni di base e generiche relative ai dati presenti nel file. In questo Blocco viene anche definito il formato MIDI della traccia che può essere:

Formato 0: le tracce di un brano sono fuse in una singola che contiene, però, tutte le informazioni degli eventi di tutte le tracce originarie del brano.

Formato 1: le tracce sono memorizzate singolarmente condividendo gli stessi valori di tempo e metrica. La velocità del brano viene inserita nella prima traccia, la quale fa da riferimento a tutte le altre. Il formato 1 permette una gestione multitraccia di un brano nei sequencer e riproduttori di file MIDI ed è il formato più usato.

Formato 2: le tracce sono gestite indipendentemente l'una dall'altra, anche per il tempo e per la metrica.

Riferimenti

Documenti correlati

– Il segnale analogico è immesso in un analog-to-digital converter (ADC), che effettua il campionamento desiderato con il sampling rate fissato; l’output è un flusso di valori

Poiché nell'analisi dei segnali provenienti da una MISURA si effettua il passaggio nel dominio della frequenza a partire da un segnale campionato e NON CONTINUO, la

• I due valori logici vengono associati a intervalli di tensione che variano a seconda della tecnologia utilizzata per la costruzione del circuito... segnali analogici –

Segnali analogici : variano in modo continuo nel tempo e possono assumere tutti i valori compresi in un certo

Con tale schema di misura si ripete la misurazione della resistenza del cavetto, ottenendo un valore di 10 mΩ (decisamente più attendibile, anche se occorre mettere in conto

In tal modo il moto degli elettroni sullo schermo descrive un percorso che risulta dalla combinazione di una deflessione orizzontale x=x(t) dovuta alla base dei tempi, e di una

L’ebook si po- ne pertanto l’obiettivo di contribuire allo sviluppo della consapevolezza relati- va all’impatto dell’ICT e al- la sua integrazione con la gestione delle conoscenze

Si proponga una implementazione digitale del precedente sistema, basata su conversione A/D e D/A nei ricetrasmettitori (sistema PCM) e su una opportuno formato di modulazione digitale