Bit Byte e Note

Scarica in formato pdf o txt
Scarica in formato pdf o txt
Sei sulla pagina 1di 318

bit, Byte e note

Avviamento all'Informatica Musicale

PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Thu, 03 Mar 2011 21:04:38 UTC
Indice
Voci
Musica elettronica 1
Musica concreta 4
Musica digitale 6
Musica liquida 9
Musica sperimentale 13
Arte acusmatica 17
Musica elettroacustica 22
Vibrazione 23
Onda (fisica) 33
Frequenza 43
Lunghezza d'onda 44
Periodo (fisica) 46
Ampiezza 47
Acustica 48
Psicoacustica 52
Orecchio 55
Suono 58
Segnale acustico 62
Segnale elettrico 62
Analogico 64
Digitale (informatica) 65
Segnale discreto 66
Quantizzazione (elettronica) 67
Bit 69
Profondità di bit 71
Sample and hold 71
Pulse-code modulation 73
Campionamento 77
Campionamento (teoria dei segnali) 77
Conversione analogico-digitale 78
Convertitore analogico-digitale 79
Frequenza di campionamento 83
Teorema del campionamento di Nyquist-Shannon 85
Convertitore digitale-analogico 89
Modulazione Sigma-Delta 90
Aliasing 93
Filtro anti-alias 94
Dithering 96
Audio 105
Audio digitale 110
Clipping (audio) 112
Sintetizzatore 113
Sintesi granulare 121
Voltage-controlled filter 123
Oscillatore controllato in tensione 124
Amplificatore controllato in tensione 126
Campionatore 127
Elaborazione numerica dei segnali 130
DSP 131
Compressione del livello audio 133
Noise gate 138
Convoluzione 139
Riverbero 143
Chorus 146
Flanger 147
Phaser (musica) 148
Vibrato 148
Delay 149
Pitch shift 150
Leslie (musica) 151
Tremolo (musica) 153
Wow and Flutter 154
Filtro comb 154
Filtro passa alto 159
Filtro elimina banda 161
Filtro passa banda 163
Filtro passa basso 166
Frequenza di taglio 168
Risonanza elettrica 169
Inviluppo 171
ADSR 172
Oscillatore a bassa frequenza 173
Modulazione 173
Modulazione di frequenza 176
Modulazione a banda laterale singola 178
Modulazione di fase 182
Modulazione di ampiezza 183
Musical Instrument Digital Interface 187
Keyboard Follow 201
MIDI controller 201
General MIDI 204
Aftertouch 204
Informatica 205
Hardware 212
Software 214
Word clock 219
Scheda audio 219
Hard disk recording 221
Home recording 223
Registrazione multitraccia 224
Sequencer 228
Drum machine 232
Tracker 236
Musica tracker 241
Loop (musica) 242
Plugin (musica) 243
Virtual Studio Technology 245
Virtual Instruments 246
Orchestrazione virtuale 246
Cog (software) 247
Podcasting 249
Masterizzazione 253
Microfono 255
Microfono a condensatore 258
Missaggio 260
Mixer (consolle) 261
VU meter 265
Preamplificatore 266
Compact disc 267
Digital Audio Tape 275
S/PDIF 276
AES/EBU 279
ATRAC 282
Broadcast Wave Format 285
Codice (teoria dell'informazione) 287
Codec 288
Codifica di canale 290
Codice convoluzionale 292
Compressione dei dati 298
Compressione dati lossy 299
Compressione dati lossless 301

Note
Fonti e autori delle voci 305
Fonti, licenze e autori delle immagini 309

Licenze della voce


Licenza 313
Musica elettronica 1

Musica elettronica
Musica elettronica

Origini Musica sperimentale


stilistiche

Origini anni settanta, (Europa)


culturali

Strumenti Sintetizzatore, Drum machine, Sequencer, Tastiera, Campionatore, Vocoder


tipici

Popolarità Molto ben nota e diffusa dagli anni '70 fino ad oggi, soprattutto nei casi in cui viene utilizzata o fusa con altri generi
derivati, come Synthpop, Synth Rock, Dance e Hip Hop. Attualmente è in continua crescita,essendo ormai il genere
musicale più in voga,continua ad abbinarsi tra l'altro con altri generi,si pensa sia la musica universale in un prossimo
fituro,nel panorama musicale.
Generi derivati

Synthpop - Synth rock - Dance - Electro - Industrial


Categorie correlate

Gruppi musicali di musica elettronica · Musicisti di musica elettronica · Album di musica elettronica · EP di musica elettronica ·
Singoli di musica elettronica · Video e DVD di musica elettronica

Per musica elettronica si intende, in termini generali, la musica prodotta esclusivamente o prevalentemente con
strumentazione elettronica; ovvero con sintetizzatori, campionatori ed altri strumenti che non generano suoni
attraverso un processo meccanico. In tal senso, con l'evoluzione della tecnologia digitale, anche apparecchiature
come il personal computer sono diventati strumenti per produrre musica elettronica. La locuzione viene talvolta
assimilata, in modo non del tutto corretto, a quella di musica elettroacustica. Per questa ragione, poiché gran parte
della musica contemporanea è registrata, suonata, e scritta con l'ausilio di equipaggiamenti elettronici (sequencer,
hardware, software), l'espressione si applica in modo più appropriato a quei generi e a quelle opere musicali in cui
l'elettronica non costituisce semplicemente un mezzo utilizzato nel processo di creazione di una registrazione di un
brano musicale, ma è viceversa intrinseca alla natura stessa del brano, come nel caso di incisioni dominate da
sintetizzatori, campionatori, drum machine, sequencer e così via. Il che non significa comunque che questo genere di
musica abbia sempre caratteristiche immediatamente riconoscibili, dato che strumenti elettronici vengono spesso
usati per riprodurre sonorità naturali o meccaniche. Va dunque tenuto presente che in questo senso specifico,
l'espressione musica elettronica si può applicare a opere e artisti con intenti musicali estremamente diversi.
Da una matrice "colta", vicina alla musica contemporanea e a quella d'avanguardia, la musica elettronica si sviluppa
grazie al lavoro di compositori come Luciano Berio, John Cage, Franco Evangelisti, György Ligeti, Bruno Maderna,
Luigi Nono, Henri Pousseur, Steve Reich, Pierre Schaeffer, Karlheinz Stockhausen, Edgar Varèse, Iannis Xenakis e
Pietro Grossi. Questa prima generazione di compositori elettroacustici, particolarmente attiva negli anni Cinquanta e
Sessanta, è costituita dai pionieri della musica elettronica. La loro attività si svolge inizialmente presso le istituzioni
radiofoniche, gli unici enti che avevano la strumentazione necessaria e che investivano nelle apparecchiature
elettroniche. Presso gli studi della RTF di Parigi, Pierre Schaeffer e i suoi collaboratori sul finire degli anni Quaranta
avevano teorizzato e sviluppato la musica concreta. Con l'arrivo dei primi oscillatori questi studi divennero un fertile
terreno per la musica elettronica e la musica elettroacustica.
Da una matrice "leggera", sviluppandosi inizialmente con il lavoro di alcuni artisti e gruppi sperimentali degli anni
Sessanta, la musica elettronica ha uno sviluppo sostanzialmente eterogeneo, dovuto soprattutto al fatto che l'uso di
sintetizzatori e campionatori si è via via largamente diffuso in moltissimi generi, creando contaminazioni e
commistioni che spesso rendono difficile l'identificazione del genere stesso e il peso che la strumentazione
elettronica ha in esso. Accanto ai precursori fondamentali della musica elettronica tout-court, come Tangerine
Musica elettronica 2

Dream e Kraftwerk, alla diffusione del sintetizzatore contribuirono nomi legati maggiormente alla scena rock, come
Pink Floyd e Keith Emerson, che utilizzarono l'elettronica sia per creare atmosfere innovative, sia per riprodurre più
facilmente sonorità altrimenti vincolate ad esecuzioni strumentali complesse (ensemble di archi, ecc.)

Breve storia della musica elettronica


Quando fu scoperto il campo elettromagnetico uno degli effetti collaterali fu la produzione di suoni generati da esso:
il primo strumento elettronico che si ricorda è il theremin (dal nome del suo inventore, negli anni venti), che consiste
in una specie di antenna che traduce il campo elettromagnetico in suoni. Basta muovere le mani o altri oggetti per
modificare la disposizione di questo campo per ottenere dei suoni variabili. Dopo la seconda guerra mondiale, con
l'introduzione dei transistor e dei primi elaboratori elettronici molti sperimentatori sonori si interessarono alla
produzione di suoni derivanti dalle nuove tecnologie. Fino agli anni sessanta rimaneva una pratica per pochi, a causa
degli alti costi per procurarsi certe apparecchiature e per la relativa difficoltà nel loro uso sonoro. A partire dagli anni
settanta però la diffusione di macchine per la produzione di musica elettronica si allargò molto: sintetizzatori e
sequencer cominciarono a essere di uso comune e non più limitato all'avanguardia sperimentale. Negli anni ottanta la
diffusione di queste tecnologie si allargò sempre più fino a coinvolgere anche i primi computer a uso personale.
Negli anni successivi fino ad oggi, questo processo si è sempre più allargato rendendo la produzione di musica
elettronica sempre più alla portata di tutti. Basta una certa facilità nell'uso del computer e con costi molto bassi si
hanno a disposizione tutti i mezzi e i suoni possibili per comporre. Inoltre sono sempre disponibili le tecnologie
precedenti, che si possono sovrapporre ai computer, senza contare le possibilità di contaminazione con suoni acustici
o elettrici.
Negli ultimi anni, con la diffusione di internet, anche la distribuzione della musica può essere elettronica.
Tralasciando la distribuzione 'illegale' di mp3, molti produttori indipendenti decidono di distribuire le loro
produzioni su internet, con il vantaggio di ridurre di molto le spese e i tempi della distribuzione tradizionale. Le
netlabel (che sono in pratica delle etichette discografiche che usano internet per distribuire le loro produzioni) si
stanno sovrapponendo alle etichette indipendenti. L'elettronica è stato il primo genere naturalmente portato a usare
questo tipo di distribuzione, ma si sta progressivamente estendendo anche ad altri generi.

Alcuni dischi rilevanti


Un elenco sicuramente non esaustivo di opere che si evidenziano come significative nell'evoluzione della musica
elettronica, in vari periodi e relativamente a vari sottogeneri in cui l'uso di sintetizzatori e strumenti digitali è
preponderante o comunque rilevante per originalità e innovazione.

Nome dell'artista Titolo e anno

Harold Budd Pavilion Of Dreams - 1978

Walter Carlos Sonic Seasonings - 1972

Cluster Cluster - 1971

Current 93 Nature Unveiled - 1982

Deca Simbionte - 2002

Brian Eno Music For Airports - 1978

Faust Faust - 1971

John Foxx Metamatic - 1980

John Hassel Vernal Equinoxe - 1977

In The Nursery Koda - 1988

Jean Michel Jarre Oxygene - 1976


Musica elettronica 3

Kraftwerk Autobahn - 1974

Orb U.F.Orb - 1992

Popol Vuh Hosianna Mantra - 1972

Robert Rich Rainforest - 1989

Steve Roach Dreamtime Return - 1988

Klaus Schulze Irrlicht - 1972

Tangerine Dream Alpha Centauri - 1971

Vangelis L'Apocalypse Des Animaux - 1972

Art of Noise Whos' Afraid Of - 1984

Voci correlate
• Electro Dance
• Elenco dei generi di musica elettronica
• Concerto di musica elettronica
• Electronic Dance Music
• Musica dance
• Eurodance
• Disco music
• Italo disco
• Italo dance
• Industrial
• Musica sperimentale
• Sintetizzatore
• Drum machine
• Sequencer
• Vocoder
• Tastiera
• House music
• Cosmo sound

Altri progetti
• Wikimedia Commons contiene file multimediali su Musica elettronica
• Wikizionario contiene la voce di dizionario «Musica elettronica»

Collegamenti esterni
• Storia della musica elettronica [1]
• Pietro Grossi [2]
• Tempo Reale [3]
Musica elettronica 4

Note
[1] http:/ / www. rockline. it/ articolo15. html
[2] http:/ / www. pietrogrossi. org
[3] http:/ / www. temporeale. it

Musica concreta
Musica concreta

Origini stilistiche musica elettroacustica

Origini culturali in Francia nel 1948 per opera di Pierre Schaeffer

Strumenti tipici

Popolarità

Categorie correlate

Gruppi musicali di musica concreta · Musicisti di musica concreta · Album di musica concreta · EP di musica concreta · Singoli di
musica concreta · Video e DVD di musica concreta

Musica concreta (Musique Concrète) è un genere musicale che ebbe origine dalle esperienze del compositore
francese Pierre Schaeffer nel 1948.[1]
Pierre Schaeffer parla di musica concreta intendendo il suono nella sua completezza; ovverosia il fatto di ascoltare il
suono in tutti i suoi aspetti (attacco sonoro, durata, inviluppo, densità di massa sonora, andamento, timbro,
frequenza, ampiezza etc.). Tale espressione si collocava in contrapposizione all'idea di "astrazione" che secondo
Schaeffer caratterizzava l'approccio musicale dominante (musica elettronica, musica strumentale). Cioè, il pensare la
musica per criteri astratti (armonia, contrappunto, notazione, dispositivi logici, etc.) piuttosto che elaborarla
concretamente attraverso il suono e l'ascolto.

Origini
Pierre Schaeffer fu ingegnere musicale all'interno degli studi della società radiotelevisiva francese (RTF). Questa
attività gli permise di utilizzare il vasto archivio discografico della radio e di cominciare a fare esperimenti sul suono
ed il rumore, ma soprattutto cominciò a maturare delle convinzioni innovative nell'ambito della composizione
musicale.
Assieme al musicista Pierre Henry ed al fisico Andrè Moles, fonda nel 1951 a Parigi il Groupe de Recherches de
Musiques Concrète.

« Noi abbiamo chiamato la nostra musica concreta, poiché essa è costituita da elementi preesistenti, presi in prestito da un
qualsiasi materiale sonoro, sia rumore o musica tradizionale. Questi elementi sono poi composti in modo sperimentale
mediante una costruzione diretta che tende a realizzare una volontà di composizione senza l'aiuto, divenuto impossibile, di
[1]
una notazione musicale tradizionale.  »

La possibilità di registrare il suono anche su nastro, apre orizzonti mai intravisti prima in tutta la storia della musica.
La Symphonie pour un homme seul del 1949 di Schaeffer ed Henry, in cui suoni strumentali si mescolano a suoni
presi dalla vita quotidiana dell'uomo (respiri, passi, fischi, porte che sbattono ecc.), ce ne offre un esempio.
Musica concreta 5

Analisi
Nei suoi studi, ed in particolar modo nel Traitè des objets musicaux, Schaeffer identifica la possibilità di cogliere,
all'interno delle varietà del “paesaggio sonoro” che ci circonda, diversi “oggetti sonori”. Grande attenzione va posta
però a non confondere l'oggetto sonoro con il corpo sonoro che lo ha prodotto, dal momento che ogni singolo corpo
sonoro “può produrre una quantità disparata di oggetti sonori, la cui varietà non può essere ricondotta alla loro
origine comune”. Egli inoltre elabora un sistema generale per la classificazione fisica degli oggetti sonori,
interessandosi non all'ambito acustico quanto a quello psicoacustico, chiamando questa operazione Solfège des
objects musicaux. La presenza dell'oggetto sonoro pone infatti l'ascoltatore di fronte a due diversi aspetti: l'aspetto
fisico e l'aspetto psicologico che mette in risalto l'ascolto indiretto di suoni che non avrebbero mai colpito la nostra
attenzione durante “l'esecuzione” dal vivo.
Con questo concetto, egli contrappone il nuovo modo di comporre, concreto appunto, a quello astratto della musica
strumentale. "Il nostro grande scopo è quello di far saltare le scogliere di marmo dell'orchestrazione occidentale, di
presentare nuove possibilità di composizione".
Il processo di creazione della composizione musicale è in questo caso inteso come atto compositivo tecnologico
dove l'esecuzione viene stravolta eliminando la presenza fisica dell'esecutore. In questo modo inoltre Schaeffer
attribuisce all'aggettivo “acusmatico” la distanza che separa un suono dalla sua fonte, anche se questa separazione è
da considerarsi un fatto mentale più che fisico in quanto l'altoparlante stesso rappresenta una fonte sonora.

Eredità
Non mancarono occasioni, da parte di questi rivoluzionari compositori, di portare la musica concreta nelle sale da
concerto, ma l'assenza di un interprete da vedere sul palco e la stranezza delle sonorità non convinsero il pubblico
che disertò le esecuzioni e la stampa che ignorò gli avvenimenti. Attualmente, un fantasma degli esperimenti
concreti di quegli anni riesce comunque a riecheggiare tra moderne composizioni che osano, ma non troppo,
diffondere nuovi ascolti al pubblico contemporaneo. Complici i media che con la grande diffusione inseriscono nel
flusso popolare queste rivoluzionarie sonorità. È il caso limite e stravagante, esempio tra vari, di Lipostudio and so
on (A Chanche To Cut Is A Chance To Cure - Matador, 2001) del duo statunitense Matmos. Gli elementi di musica
concreta sono composti assieme a suoni strumentali che indubbiamente ne ammorbidiscono l'ascolto.

Note
[1] Le muse, De Agostini, Novara, 1965, Vol.III, pag.388

Altri progetti
• Wikimedia Commons contiene file multimediali su Musica concreta
Musica digitale 6

Musica digitale
Con il termine musica digitale si intende una qualsiasi composizione musicale convertita in segnale digitale.
Per ottenere la conversione, il segnale audio prelevato da un microfono e trasformato in un equivalente segnale
elettrico, viene inviato ad un convertitore analogico-digitale, un dispositivo elettronico che provvede a generare un
flusso di dati digitali, rappresentanti il segnale audio originale. Il flusso di dati digitali può essere semplicemente
registrato sottoforma di file su nastro magnetico, hard disk o disco ottico. Ovviamente, durante il passaggio che
consiste nella trasformazione da segnale analogico a segnale digitale, una parte delle armoniche sonore che
compongono il segnale originale vengono perse e non compaiono nel segnale digitale finale, il degrado è abbastanza
avvertibile se la conversione avviene nello standard CD Audio definito nel 1979 da Sony e Philips, il quale fissa il
campionamento a 44.1 Khz, adottando frequenze di campionamento multiple di questo standard, la perdita di qualità
sonora nella conversione risulta molto minore, indistinguibile all'orecchio dal segnale analogico, il cui riferimento
tipico è il disco in vinile. Il file digitale registrato può essere sottoposto ad un successivo trattamento di
compressione allo scopo di ridurne le dimensioni, questo passaggio, a seconda del sistema di compressione
utilizzato, può comportare una perdita irreversibile di dati oppure no, ovviamente la maggiore efficienza nel ridurre
di dimensioni il file musicale, viene ottenuto dai sistemi che comportano la perdita di alcuni dati, in ogni caso,
l'efficienza degli algoritmi implementati allo scopo, basati sulla psicoacustica dell'orecchio umano, è tale da produrre
un degrado minimo, nonostante una notevole eliminazione di dati. Il vantaggio principale della musica digitale
consiste nella possibilità di copiarla in modo facile e rapido per un numero indefinito di volte, senza mai alterarne il
segnale di partenza. La possibilità di generare un numero indefinito di copie di un brano musicale, ha creato ovvi
problemi di diritti d'autore. Per evitare la realizzazione di copie non autorizzate, sono stati introdotti da parte dei
produttori discografici, dei formati digitali, i quali, utilizzando un particolare algoritmo di crittografia, impediscono
automaticamente la copia non autorizzata dei file.

Storia
La prima produzione di musica digitale nota fu realizzata dal computer australiano CSIRAC nel giugno del 1951.[1]
Nello stesso anno i tecnici della BBC registrarono la musica prodotta dal computer Ferranti Mark I creando la prima
registrazione di musica digitale.[2] Per molti anni la musica digitale comunque rimase limitata ai laboratori dato
l'elevato costo dell'elettronica. Con gli anni ottanta la rivoluzione dell'elettronica permise la nascita di sistemi
economici in grado di gestire ed elaborare la musica digitale. Questa si affermo con la diffusione dei Compact Disc. I
compact disc data l'elevata qualità del suono si diffusero rapidamente e a metà degli anni novanta iniziarono a
soppiantare le registrazioni analogiche.
Alla fine del secondo millennio, con l'avvento di programmi di
peer-to-peer come Napster, l'industria musicale ha fronteggiato una
crisi che dura fino ai giorni nostri, dovuta al drammatico calo di
vendite di Cd e singoli causato dal successo di questi tipi di
programmi, che incoraggiavano la pirateria informatica e lo scambio
illegale di brani musicali attraverso la rete internet.

A fianco delle continue azioni legali che le grandi etichette


discografiche hanno intrapreso contro i creatori e gli utenti di tali
programmi, sono partite contemporaneamente anche le contromosse
per riguadagnare il denaro perso: consci dell'impossibilità di sradicare Grafico che mostra i dati di crescita delle utenze
di Napster nel 2001
dalla mentalità soprattutto giovanile il desiderio di avere "tutto e
Musica digitale 7

subito" e dei progressi tecnologici, le grandi major hanno preferito legalizzare l'attività di vendita on-line di musica.
Napster stesso è stato acquistato dal gruppo tedesco Bertelsmann AG nel 2002 ed ha da quel momento in poi
cominciato a vendere musica legalmente distribuita dalle etichette.
La parte del "leone" in questo settore l'ha svolta all'inizio l'iTunes Store, creato nel 2003 come ramo del lettore
multimediale Apple iTunes. Già nel dicembre 2003 il numero di canzoni singole vendute ha superato le 25000 unità.
Nel 2004 iTunes rappresentava il 70% del mercato di musica digitale. Col tempo iTunes si è poi espanso anche nel
settore cinematografico, cominciando a vendere film, episodi di serie tv e audiolibri.
La nascita della musica in digitale ha segnato però il tramonto e la profonda agonia del singolo in quanto formato
discografico. Se le vendite degli album in qualche modo hanno retto l'ondata grazie alla ricchezza di contenuti che un
album può offrire oltre alle canzoni in sé (si pensi al booklet, o semplicemente al disco come concetto artistico in cui
i vari brani sono correlati tra loro musicalmente e tematicamente), i singoli invece agli occhi dell'utente moderno non
hanno più alcun interesse, in quanto oggi per acquistare quella particolare canzone che viene trasmessa alla radio o in
tv non bisogna nemmeno uscire di casa, ma basta collegarsi ad internet e scaricarla (legalmente o meno). In Italia nel
gennaio 2008 la FIMI ha annunciato l'interruzione della pubblicazione della classifica dei singoli più comprati,
mantenendo solamente quella dei brani più scaricati dalla rete, con queste parole: "Dal 45 giri in vinile si è passati al
cd singolo ed ora al supporto "liquido", è il segnale di un'era che si sposta verso il digitale"[3] .
Oggigiorno il mercato della musica digitale è in crescita costante ed ha raggiunto un fatturato mondiale di 3 miliardi
di dollari[4] .
Questa rivoluzione tecnologica che permette la registrazione ad alta qualità di musica e soprattutto l'estrema facilità
della sua condivisione immediata tramite la rete ha prodotto una rivoluzione anche tra gli stessi artisti del concetto
stesso del loro lavoro: ora gli artisti hanno capito che è possibile "bypassare" le lunghe attese e i problemi per la
produzione di un album completo semplicemente mettendo in rete la musica appena registrata. Il mercato musicale
attuale comincia a presentare scenari in cui una band finisce di registrare un pezzo e, senza aspettare di riuscire a
riempire un album, lo mette in vendita su un qualsiasi negozio musicale o persino sul proprio sito, creando così
discografie in cui accanto agli album compaiono singole tracce, slegate dalle altre registrazioni. A questo proposito
si segnala nell'ottobre del 2007 l'iniziativa dei Radiohead, che si sono dimostrati dei precursori in questo, di
pubblicare il loro attesissimo nuovo album In Rainbows come download legale sul loro sito, dando addirittura la
possibilità agli acquirenti di scegliere il prezzo a cui comprare l'album, a partire addirittura da 0 euro, cioè gratis. La
notizia ha avuto un'enorme eco pubblicitario per la portata dell'azione ed ha portato alle prime riflessioni
sull'esistenza di una coscienza degli acquirenti dalla rete: acquisteranno l'album al prezzo solito (20 euro di media in
Italia) lo pagheranno quanto si paga un album digitale (10 euro) o sfrutteranno l'occasione? I dati sono molto confusi
e si è assistito ad un balletto di cifre non indifferente sia sul guadagno totale (che alcuni ipotizzano addirittura sui 10
milioni di dollari in un solo giorno[5] ) che sulla percentuale di utenti che lo hanno scaricato gratis (alcuni sondaggi
riportano cifre che vanno dal 30% al 60%[6] ). Fatto sta comunque che quando due mesi dopo è stato pubblicato in
maniera tradizionale su Cd è entrato direttamente al numero 1 sia in America che in Gran Bretagna.[7]
Un altro aspetto di tale rivoluzione è la crescente voglia da parte di gruppi emergenti di entrare nel mercato
discografico in modi diversi dal passato, facendosi prima conoscere su internet. Gli esempi più clamorosi di gruppi
musicali diventati oggetti di culto in rete ancora prima di avere un contratto discografico "regolare" sono Arctic
Monkeys e Lily Allen, entrambi artisti entrati nella Top 10 britannica. Si sta rivelando un grande strumento in questo
senso la comunità online MySpace, che permette di caricare gratis brani musicali sulla propria pagina personale. Un
altro aspetto correlato del fenomeno è la nascita delle cosiddette netlabel, cioè una specie di etichetta discografica
ma che vive su internet.
Musica digitale 8

Formati musicali
I formati musicali più diffusi nel mondo informatico sono:
• AAC
• WMA
• Wave
• MP3, acronimo dell'algoritmo di codificazione Mpeg-I Layer III (MP3 = MPIII = MPeg-i layer III)
• MIDI
• Ogg Vorbis

Note
[1] CSIRAC: Australia’s first computer (http:/ / www. csiro. au/ science/ ps4f. html)
[2] La prima registrazione musicale informatica (http:/ / punto-informatico. it/ p. aspx?i=2325233)
[3] FIMI.it (http:/ / www. fimi. it/ dettaglio_documento. asp?id=910& idtipo_documento=1)
[4] FIMI.it (http:/ / www. fimi. it/ dettaglio_documento. asp?id=919& idtipo_documento=1)
[5] Radiohead, In Rainbows tra P2P e stime di vendita ufficiose [MegaLab.it] (http:/ / www. megalab. it/ news. php?id=1863)
[6] Si vedano ad esempio (http:/ / pazziaumana. blogspot. com/ 2007/ 11/ radiohead-e-in-rainbows-fallimento-o. html) e (http:/ / entertainment.
timesonline. co. uk/ tol/ arts_and_entertainment/ music/ article2633798. ece)
[7] Radiohead - In Rainbows (http:/ / acharts. us/ album/ 31384)

Voci correlate
• Audio digitale
• Napster
• iTunes Store
• Digital Rights Management
• Spotify

Collegamenti esterni
• MusicaDigitale.Net (http://www.musicadigitale.net/) forum di composizione musicale in digitale
• Musicblob (http://www.musicblob.it/) "l'universo della musica digitale in tutte le sue sfaccettature"
Musica liquida 9

Musica liquida
Il termine musica liquida[1] [2] [3] [4] è un
neologismo sempre più frequentemente
utilizzato nelle riviste di musica, HIFI,
informatica, tecnologia e soprattutto sul web
per indicare quella porzione della musica
fruibile dal grande pubblico
indipendentemente da un qualsiasi supporto
fisico (CD, vinile, nastro). Tuttavia, se di
neologismo si tratta, e infatti il termine non
è al momento considerato in nessuna
enciclopedia, è anche vero che negli ultimi
due anni la sua diffusione nelle riviste di
settore e nei portali web è stata tumultuosa:
Musica Liquida?
basti pensare che attualmente, digitando
"musica liquida" su Google compaiono ben
13.400 siti in cui tale termine è presente.

Storia
Non è facile definire il momento esatto in
cui il termine "musica liquida" sia stato
coniato, tuttavia vi sono importanti riviste
italiane di HIFI che hanno iniziato ad
utilizzarlo sistematicamente più o meno a
partire dal maggio 2007, subito dopo lo
storico accordo del 2 aprile fra la Apple e la
EMI[5] [6] [7] che prevedeva la possibilità di
scaricare da iTunes file musicali di qualità
migliore (256 Kbit/sec in luogo dei 128
Kbit/sec.) e soprattutto liberi dal DRM. In
particolare, la rivista SUONO[8] uscì a
maggio 2007 con una storica copertina
raffigurante un CD nell'atto di sciogliersi e
con un titolo inequivocabile: musica liquida.
Tale scelta politica, chiaramente innovativa,
fu molto discussa e anche criticata dagli
audiofili più affezionati ai classici formati
analogici (LP) e digitali (CD, SACD, DVD La storica copertina del N° 404 della rivista audio italiana SUONO
audio) e diffidenti nei confronti dei formati
liquidi scaricabili, allora disponibili praticamente solo in formati compressi.
Musica liquida 10

File compressi e non


compressi
Nei tempi immediatamente successivi, i file
musicali scaricabili da internet hanno
previsto sempre più frequentemente
differenti formati digitali, più o meno
compressi e del tutto recentemente, non
compressi, che stanno rivoluzionando in
questi anni le metodiche di diffusione della
musica ad alta qualità.

Le notizie relative alla cosiddetta musica


digitale (scaricabile dal web) e ai formati
musicali compressi (mp3, AAC, ogg, ecc.)
sono ampiamente descritte nella voce
relativa; trattasi di files musicali che hanno
avuto ampia diffusione soprattutto grazie ai
server e alle piattaforme di scambio peer to
peer come Napster, Audiogalaxy[9] ,
LimeWire, Emule ecc. e successivamente
con la diffusione delle piattaforme per
l'acquisto dei suddetti file come la già citata
iTunes. Il "Punto Zero"

Negli anni passati, la relativa lentezza delle


connessioni ad internet, unitamente ai limiti
dei supporti fisici di immagazzinamento dei
dati (Hard Disk) avevano imposto un
sistema di compressione di tali files, il più
popolare dei quali è sicuramente
rappresentato dal formato mp3.
Attualmente, invece, grazie alla disponibilità
e alla diffusione crescente della banda larga
(ADSL) e di periferiche di memorizzazione
dei dati sempre più capienti e veloci, come
gli hard disk portatili e le memorie flash, si
sta diffondendo anche la disponibilità in rete
di files musicali non compressi, spesso ad
alta risoluzione (24 bit, campionamenti a
44.1, 48, 88.2, 96, 176.4, 192 KHz). Un moderno impianto HIFI con sorgenti analogiche/digitali tradizionali e
apparecchiature per il download e l'ascolto di musica liquida
Musica liquida 11

Reperimento della "musica


liquida"
La piattaforma per lo scaricamento legale di
files musicali più celebre e diffusa è iTunes
di Apple che utilizza il formato compresso
AAC, ma ce ne sono moltissime altre e,
generalmente utilizzano il formato mp3
(MicMacMusic[10] , MSN Music[11] ,
Mindawn[12] , Jamendo, Soundclick[13] ) e il
loro numero è in continua crescita.

I file musicali ad alta risoluzione si possono


scaricare dai siti della Linn[14] , NAIM[15] ,
Deutsche Grammophon, HDTracks[16] , e
alcuni altri; è ragionevole prevedere un Un moderno Server Musicale basato su iTunes/Mac-Mini, un cavo USB e un DAC

veloce incremento dei siti per lo


scaricamento dei file musicali ad alta risoluzione nei prossimi mesi.

Significato dei file musicali ad elevata risoluzione (HD) e loro reale necessità
In un'epoca nella quale le major, in accordo con i principali colossi della vendita di musica online, hanno già deciso
il destino dei vari supporti e formati musicali (leggasi: morte del CD, del SACD e del DVD audio, sopravvivenza e
lieve aumento della diffusione di LP incisi su materiale vinilico di alta qualità destinati soprattutto al pubblico
audiofilo, diffusione planetaria e assoluto predominio della musica liquida), sorge spontanea la domanda: trattasi di
vero progresso o è semplicemente un altro tentativo di scuotere un mercato da anni in crisi profonda?
Se, come sostengono alcuni audiofili, è vero il fatto che la qualità fornita dal supporto analogico (LP e soprattutto
nastro a bobina) sia superiore a quella fornita dal classico Compact Disc con campionamento a 44.1 KHz[17] , ma che
quest'ultima rimanga molto superiore a quella di un file mp3, proporre e vendere (da una parte), quindi cercare e
scaricare (dall'altra) file musicali in HD può avere senso solo nell'ottica del superamento da parte di questi ultimi
della massima qualità ottenibile con il supporto CD, il che vuol dire avvicinarsi molto alla qualità dei master
originali. In realtà, la qualità finale di un'incisione discografica dipende soprattutto dalla qualità della registrazione,
del mixaggio e della produzione artistica e molto, ma molto meno dal tipo di supporto con la quale viene ascoltata[18]
.
Un recente studio pubblicato sul Journal of the Audio Engineering Society[19] che ha confrontato in doppio cieco il
formato classico del CD a 16 bit/44.1 KHz con l'HD a 24 bit/192 KHz (DVD audio) su 60 ascoltatori sottoposti
complessivamente a 554 test nel periodo di un anno, ha dimostrato che, a parità di qualità dell'incisione (medesimo
mastering) nessun soggetto è in grado di distinguere fra qualità del CD e qualità dell'HD. Tuttavia Gli autori dello
studio concludono anche che "virtualmente tutti i SACD e DVD audio suonano meglio, spesso molto meglio del
CD". Questo non è dovuto alla maggiore risoluzione, ma alla migliore qualità dell'incisione, del mixaggio e della
produzione artistica delle registrazioni che vengono poi proposte dalle etichette discografiche nei supporti ad alta
definizione, che siano essi solidi o liquidi[20] .
Musica liquida 12

Formati musicali liquidi


I formati musicali più diffusi sono:
• AAC
• WMA
• Wave
• AIFF
• MP3
• APE
• FLAC
• Ogg Vorbis

Note
[1] Musica liquida: Il futuro dell'Hi-Fi, anche per i giovani (articolo online di Annuario Audio) (http:/ / www. annuarioaudio. it/ music_liq. html)
[2] Sito web della rivista AudioFileMusic (http:/ / www. audiofilemusic. com/ AnteprimaMusicDownload. asp)
[3] Perché la musica liquida è meglio del CD (articolo online) (http:/ / www. dday. it/ redazione/ 592/ Perch-la-musica-liquida-meglio-del-CD.
html)
[4] Musica Liquida (articolo online) (http:/ / www. ut-musica. com/ ascoltare-la-musica/ musica-liquida)
[5] SUONO N° 404, Maggio 2007, pagg. 18-22 "Da solida a liquida: la trasformazione della musica"
[6] Audioreview N° 279, pag 6, "Attenti all'Audio": Editoriale di Paolo Nuti
[7] Vol. 434 della Rubrica della Posta di TNT-Audio, Luglio 2007 (http:/ / www. tnt-audio. com/ lettere/ letter434. html)
[8] Sito della storica rivista HIFI italiana SUONO (http:/ / www. suono. it/ )
[9] Sito storico di download illegale di files mp3, attualmente chiuso (http:/ / www. audiogalaxy. com/ )
[10] Piattaforma web MicMacMusic (http:/ / www. micmacmusic. com/ )
[11] Piattaforma web MSN Music (http:/ / music. msn. com/ )
[12] Piattaforma web Mindawn (http:/ / www. mindawn. com/ )
[13] Piattaforma web Soundclick (http:/ / www. soundclick. com/ )
[14] Sito web della Linn Records (http:/ / www. linnrecords. com/ )
[15] Sito web della NAIM Label (http:/ / www. naimlabel. com/ )
[16] Sito web di HDTracks (https:/ / www. hdtracks. com/ )
[17] "I Miracoli dell'Analogico", articolo di Le Guide di FDS (https:/ / docs. google. com/
leaf?id=0B2KAxciGwrubNmI3NGJhMDctZDkyYS00ZGZjLWFiNTctMTBlMmQ3OGZlM2E5& hl=it)
[18] Ancora CD contro LP, lettera a TNT-Audio (http:/ / www. tnt-audio. com/ lettere/ letter435. html#2)
[19] Sito web della rivista Journal of the Audio Engineering Society (http:/ / www. aes. org/ journal/ )
[20] Link del report dello studio pubblicato sul Journal of the Audio Engineering Society sul confronto in doppio cieco fra CD e HD (http:/ /
www. audiojunkies. com/ blog/ 1254/ does-highres-audio-really-sound-better)

Voci correlate
• Audio digitale
• Napster
• iTunes Store
• Digital Rights Management
• Loudness War
Musica liquida 13

Collegamenti esterni
• (IT) MusicaDigitale.Net (http://www.musicadigitale.net/) forum di composizione musicale in digitale
• (IT) Musicblob (http://www.musicblob.it/) "l'universo della musica digitale in tutte le sue sfaccettature"

Musica sperimentale
Musica sperimentale

Origini stilistiche Avanguardia


Musique concrete
Musica artistica

Origini culturali è un termine coniato dal musicista John Cage nel 1955; corrisponde a un qualsiasi tipo
di musica che si contrappone a tutto ciò che è la musica

Strumenti tipici Varie principalmente elettronici (sintetizzatore, vocoder, campionatore)

Popolarità 1974 - ad oggi


Sottogeneri

Musica elettroacustica
Generi derivati

Avant-garde metal - Glitch - Experimental rock - Rock progressivo - IDM - Experimental Techno - Avant-progressive rock
Generi correlati

Musica contemporanea
Serialismo
Free jazz
Categorie correlate

Gruppi musicali musica sperimentale · Musicisti musica sperimentale · Album musica sperimentale · EP musica sperimentale ·
Singoli musica sperimentale · Video e DVD musica sperimentale

Musica sperimentale è un termine coniato dal musicista John Cage nel 1955. Cage
definì che "l'azione sperimentale è il risultato di ciò che non è previsto" (Cage 1961,
pag. 39), ed è stato particolarmente interessato ad opere che ha eseguito in un'alea
musicale (Mauceri 1997, pag. 197).

Definizione
In tal senso, si è giunti a specificare che a questa corrisponde un qualsiasi tipo di
musica che si contrappone a ciò che è la musica. La musica d'avanguardia è un altro
sinonimo di questa. David Cope descrive la musica sperimentale: "che rappresenta il
rifiuto allo status quo" (Cope, 1997, 222).

Origine del nome Moodswinger, Yuri Landman

Michael Nyman (1974) utilizza il termine "sperimentale" per descrivere i lavori dei
compositori americani (John Cage, Christian Wolff, Earle Brown, Meredith Monk, Malcolm Goldstein, Morton
Feldman, Terry Riley, La Monte Young, Philip Glass, John Cale, Steve Reich, etc.) in opposizione all'avanguardia
Musica sperimentale 14

europea dello stesso periodo (Karlheinz Stockhausen, Pierre Boulez, Iannis Xenakis). La parola "sperimentale" in
altri casi "fornisce la comprensione di se stessa, che non deve essere interpretato come una descrizione di un atto che
può essere giudicato come successo o fallimento, ma semplicemente come un'azione di cui l'esito è sconosciuto"
(Cage 1961, 13).

Caratteristiche
Secondo David Nicholls, "...più generalmente, la musica d'avanguardia può essere vista come un'ala più oltranzista
della tradizione, mentre la musica sperimentale si trova al di fuori di essa" (Nicholls 1998, 318). Tale tradizione
costituisce l'eredità delle pratiche comuni della musica artistica occidentale, con il concetto dello sfruttamento della
complessività, l'eredità storica, le intenzioni del compositore ed altre caratteristiche. In generale, e soprattutto
originalmente, la musica sperimentale prendeva ispirazione dalle teorie musicali non-Occidentali e ricorreva all'uso
di partiture di tempo variabili. Si potrebbe ispirare (direttamente in generazione di sistemi) ad altre forme di
informazione; coloro che la praticano, potrebbero o non potrebbero, essere dei professionisti nel senso comune del
termine, anche se possono essere assai formati nel loro campo ed abili in esso.
Leonard B. Meyer, d'altra parte, include nella "musica sperimentale" compositori come Berio, Boulez e Stockhausen,
nonché le tecniche di "totale serialismo" (Meyer 1994, 106–107 and 266), tenendo conto che "che non esiste
un'unica, o addirittura preminente, musica sperimentale, ma piuttosto una serie di diverse idee e metodi di essa"
(Meyer 1994, 237).
Come altre forme musicali che si spingono ai limiti di una particolare forma di espressione, non ci sono accordi per i
confini della musica sperimentale, anche tra i suoi musicisti. Da una parte, alcuni tipi della musica sperimentale sono
altro che stili musicali non convenzionali della musica tradizionale, aggiungendo strumentazioni insolite, modifiche
agli strumenti, rumori, e altre funzionalità nelle composizioni. D'altra parte, vi sono composizioni che gli ascolatori
non le classificano come musica vera e propria.
Mentre sono molte le discussioni sulla musica sperimentale sugli aspetti centrali connessi alla propria
definizione e alla sua validità come forma musicale; diciamo che, la musica sperimentale eseguita nella maggior
parte dei casi è divertente, nel suo contesto, è può portare l'ascoltatore a formulare delle ipotesi fondamentali circa
l'ascolto della musica. Forse questo è il suo ruolo.
Il termine "musica sperimentale" è utilizzato contemporaneamente per la musica elettronica, in particolare nei primi
lavori della musique concreta di Schaeffer e Henry in Francia (Vignal2003, 298), e nei progetti degli Experimental
Studios alla University of Illinois, condotti daLejaren Hiller. Le composizioni elettroniche "sperimentali" possono
essere "sperimentali" nel senso di Nyman (per esempio, Cage, Cartridge Music o i primi lavori di Alvin Lucier); ma
può anche essere confusa con quella d'avanguardia.

Parole chiave
• Musica aleatorica - Un termine coniato da Werner Meyer-Eppler e utilizzato da Boulez e altri compositori
d'avanguaria (in Europa) per fare riferimento ad una forma limitata di indeterminatezza, chiamata anche
"controlled chance". Poiché questa definizione è stata spesso non compresa, il termine è spesso (e anche un po'
imprecisamente) usato intercambiabilmente con, o in termine di, "indeterminatezza".
• Notazione grafica - Musica che è scritta sotto forma di diagramma o disegni al posto dell'utilizzo di notazioni
"convenzionali" (come pentagrammi, chiavi musicali, note, etc.).
• Intedeterminatezza musicale - Correlata alla 'chance music' (uno dei termini utilizzati da Cage). È un tipo di
musica, in cui il compositore introduce elementi di opportunità o imprevedibilità sia per quanto riguarda la
composizione o le proprie performance. Questo termine è utilizzato dai compositori sperimentali, esecutori e
studenti che lavorano nel campo della musica sperimentale negli Stati Uniti, Regno Unito, e in altri paesi
influenzati dalle estetiche di Cage.
Musica sperimentale 15

• Letteralità - Musica che rifiuta l'estetica come forza motivante per la creazione e la ricerca del suono, utilizzando
sia gli elementi base delle composizioni orchestrali (letteralità rigorosa) o suoni presenti nelle proprie prestazioni
(letteralità diretta).
• Microtonalità - Un passo di intervallo che è più piccolo di un semitono. Che include un quarto di tono e intervalli
ancora più piccoli. I compositori, per esempio, dividono gli ottavi in 22, 31, 43, 53, 72, etc. microtoni, sia
equamente che non, e utilizzano successivamente questi come basi per le loro composizioni.

Tecniche
Alcune delle tecniche più comuni sono:
• Tecniche di estensione: Qualsiasi certo numero di metodi nell'esecuzione di uno strumento musicale che sono
unici, innovativi, e qualche volta considerati impropri.
• Strumenti appositamente modificati, "preparati", nella loro tonalità e nelle caratteristiche della produzione del
suono. Per esempio, gli arrangiamenti chitarristici possono aver un peso molto preponderante ad un certo
punto, cambiando le proprie caratteristiche armoniche (Keith Rowe è uno dei musicisti che ha sperimentato ciò
con le tecniche di una chitarra preparata). Il pianoforte preparato di Cage fu uno dei primi strumenti. Una
forma diversa non è rappresentata da corde pensili, ma ciascuna di esse divisa in due con un terzo ponte e
suonata dalla parte inversa, provocando effetti da campane risonanti dai toni armonici nella parte del pick-up.
• Tecniche di esecuzione non convenzionali, ad esempio, le corde sul pianoforte possono essere direttamente
manipolate invece di essere suonate nella maniera più classica, un'innovazione di Henry Cowell conosciuta
anche come pianoforte a corda, una dozzina o più tasti di pianoforte che possono essere premuti
simultaneamente per produrre un cluster (un'altra tecnica utilizzata da Cowell), o la rotazione di un piolo di
una chitarra mentre si esegue una nota, (chiamata "glissando").
• Integrazione di strumenti, tunings, ritmi o scale appartenenti a tradizioni musicali non occidentali.
• Accordatura di strumenti elettronici con scale diverse da quella cromatica, frazionando gli intervalli tra le note e
creando così melodie ed armonie assolutamente non convenzionali per l'orecchio.
• Utilizzo di fonti sonore diverse rispetto agli strumenti musicali tradizionali, come secchi della spazzatura, squilli
telefonici e lo sbattere delle porte.
• Suonando in totale libertà rispetto alle scritture musicali proposte, senza rispettare l'altezza, la durata, il volume,
etc.
• Utilizzo di una notazione grafica, 'istruzioni' scritte o rappresentate graficamente non convenzionali, attivamente
interpretate dagli esecutori stessi. John Cage è accreditato per il distacco della radicalità musicale, tanto da essere
influente ad altri numerosi artisti come La Monte Young, George Brecht, George Crumb, Annea Lockwood,
Yoko Ono, Krzysztof Penderecki e altri.
• La creazione di strumenti musicali sperimentali per rafforzare i timbri delle composizioni e ricercare nuove
tecniche di esecuzione. Artisti come Harry Partch, Luigi Russolo, Bradford Reed, Yuri Landman.

Articoli
• MUSIC; Electronic Music, Always Current [1] By KYLE GANN, New York Times, July 9, 2000
• It's Sound, It's Art, and Some Call It Music [2] By KYLE GANN, New York Times, January 9, 2000

Ulteriori letture
• Bailey, Derek. 1980. "Musical Improvisation: Its Nature and Practice in Music". Englewood Cliffs, N.J.:
Prentice-Hall; Ashbourne: Moorland. ISBN 0-13-607044-2. Second edition, London: British Library National
Sound Archive, 1992. ISBN 0-7123-0506-8
Musica sperimentale 16

• Experimental musical instruments (magazine). 1985–1999. A periodical (no longer published) devoted to
experimental music and instruments
• Holmes, Thomas B. 2002. Electronic and Experimental Music: Pioneers in Technology and Composition. Second
edition. London: Routledge. ISBN 0-415-93643-8
• Smith Brindle, Reginald. 1975. pepr. 1986. Oxford: Oxford University Press. ISBN 0-19-315471-4
• Sutherland, Roger, 1994. New Perspectives in Music. London: Sun Tavern Fields. ISBN 0-9517012-6-6

Fonti
• Cage, John. 1961. Silence: Lectures and Writings. Middletown, Connecticut: Wesleyan University Press.
Unaltered reprints: Weslyan University press, 1966 (pbk), 1967 (cloth), 1973 (pbk ["First Wesleyan paperback
edition"], 1975 (unknown binding); Cambridge, Mass: MIT Press, 1966, 1967, 1969, 1970, 1971; London: Calder
& Boyars, 1968, 1971, 1973 ISBN 0-7145-0526-9 (cloth) ISBN 0-7145-1043-2 (pbk). London: Marion Boyars,
1986, 1999 ISBN: 0714510432 (pbk); [n.p.]: Reprint Services Corporation, 1988 (cloth) ISBN 99911-780-1-5 [In
particular the essays "Experimental Music", pp. 7–12, and "Experimental Music: Doctrine", pp. 13–17.]
• Cope, David. 1997. Techniques of the Contemporary Composer. New York, New York: Schirmer Books. ISBN
0-02-864737-8.
• Mauceri, Frank X. 1997. "From Experimental Music to Musical Experiment". Perspectives of New Music 35, no.
1 (Winter): 187-204.
• Meyer, Leonard B. 1994. Music, the Arts, and Ideas: Patterns and Predictions in Twentieth-Century Culture.
Second edition. Chicago: University of Chicago Press. ISBN 0-226-52143-5
• Nicholls, David. 1998. "Avant-garde and Experimental Music." In Cambridge History of American Music.
Cambridge and New York: Cambridge University Press. ISBN 0-521-45429-8
• Nyman, Michael. 1974. Experimental Music: Cage and Beyond. New York: Schirmer Books. ISBN
0-02-871200-5. Second edition, Cambridge & New York: Cambridge University Press, 1999. ISBN
0-521-65297-9
• Vignal, Marc(éd.), 2003, "Expérimentale (musique)" in Dictionnaire de la Musique, Larousse, Paris, (ISBN
2-03-511354-7)

Voci correlate
• Elenco di musicisti di musica sperimentale
• Arte acusmatica
• Avant-garde metal
• Biomusica
• Computer music
• Musica contemporanea
• Musica pericolosa
• Musica elettroacustica
• Electronic art music
• Musica elettronica
• Musique concrète
• Free improvisation
• Free jazz
• Glitch
Musica sperimentale 17

Altri progetti
• Wikimedia Commons contiene file multimediali su Musica sperimentale

Collegamenti esterni
• Experimental Music Catalogue [3]
• The Sound Projector [4]
• ADDLIMB Organization [5]
• Feza Neverd [6]

Note
[1] http:/ / query. nytimes. com/ gst/ fullpage. html?res=9C07E7D71039F93AA35754C0A9669C8B63
[2] http:/ / query. nytimes. com/ gst/ fullpage. html?res=9A05E0DB163BF93AA35752C0A9669C8B63
[3] http:/ / www. experimentalmusic. co. uk/
[4] http:/ / www. thesoundprojector. com/
[5] http:/ / www. addlimb. org
[6] http:/ / www. fezaneverd. com

Arte acusmatica
L'arte acusmatica è un tipo particolare di musica elettronica, creata per essere ascoltata tramite altoparlanti. Il
termine musica acusmatica è stato coniato dal compositore francese Pierre Schaeffer, nel suo libro Traité des Objets
Musicaux (1966), e deriva dal termine acusmatico e dall'akusmatikoi, la scuola pitagorica i cui discepoli udivano il
maestro parlare dietro ad un velo. Nell'arte acusmatica, il velo è una metafora dell'altoparlante.

Caratteristiche
La musica elettroacustica abbraccia l’insieme dei generi musicali che fanno uso dell’elettricità nella concezione e
nella realizzazione delle opere. Le opere elettroacustiche su supporto si identificano con le opere dell’arte
acusmatica. L’arte acusmatica raggruppa le musiche concrete o acusmatiche, le creazioni radiofoniche e i
radiodrammi, le opere acusmatiche applicate (per teatro, danza, cinema, video...), le installazioni sonore realizzate su
supporto audio diffuso su altoparlanti (in cui la concezione visiva non stabilisce un rapporto diretto di causa/effetto
con il risultato sonoro ascoltato), una certa frangia di musiche dette elettroniche (techno) derivanti da una
realizzazione in studio fissata su supporto e consegnata al solo ascolto. Infine, alcune realizzazioni di poesia sonora
come quelle che si avvicinano alla creazione radiofonica.
Le opere che ne risultano sono opere su supporto: esse non si manifestano se non attraverso la lettura del supporto
sul quale sono state registrate, fissate in forma definitiva (su dischi flessibili alla fine degli anni quaranta, poi sul
nastro magnetico dei magnetofoni e oggi sulla memoria dei calcolatori).
Il musicista acusmatico parte da registrazioni del suono. Se acustiche, esse possono essere realizzate a partire da
interventi su diversi strumenti scelti per la loro predisposizione a “suonare” (dei corpi sonori), da universi abitati da
eventi caratteristici, da percorsi, da gesti o sequenze appositamente realizzate, e anche da suoni “figurativi” o da
interventi su strumenti tradizionali o “esotici”. Se sintetiche, le registrazioni possono essere costituite da suoni o da
sequenze elettroniche suonate sul sintetizzatore, oppure digitali, risultato della programmazione del computer o di
trasformazioni immediate di eventi sonori.
Il compositore classifica le registrazioni accumulate, e opera su di esse delle scelte, una ripartizione, dei tagli, e
quindi molteplici trasformazioni in uno studio equipaggiato con numerosi apparecchi prodotti dall’evoluzione
tecnologica degli ultimi decenni: montaggio, inversione, anello, trasposizione, campionamento, compressione, gel
Arte acusmatica 18

(freeze), riverberazione, eco, ritardo, filtraggio, missaggio, accumulazione.


È l’aspetto sperimentale di tale procedimento (il famoso “procedimento concreto” in cui la composizione si fonda
sull’ascolto diretto del risultato, in un costante andare e tornare dal fare all’ascoltare, a partire da suoni creati o
acquisiti e trasformati) connesso a una manipolazione dei suoni “bruti”, già “trovati”, che spinge Pierre Schaeffer nel
1948 a coniare il termine di musica concreta. Il quale rinvia in modo sicuramente esplicito a quello di musica
“astratta” strumentale, che si concepisce “a tavolino” in maniera “teorica” (al di là di ogni contatto diretto con il
materiale e la cui concezione passa per l’astrazione di una codificazione, di un linguaggio: il solfeggio).
In un'andata e ritorno costanti dal fare all’ascoltare, l'artista elabora così progressivamente la sua opera, in un
procedimento che comprende sia la volontà di un progetto preliminare di composizione (la scelta di una tematica, di
un universo sonoro, di una “grande forma”, di un ritaglio), sia la sensibilità, rendendo possibile l’invenzione di una
“scrittura” attraverso la gestione dei sincronismi, degli imprevisti, dei contrasti, delle similitudini, delle diffrazioni,
delle convergenze.
Infine il compositore esegue la sua opera davanti al pubblico attraverso altoparlanti di differente “colore” e di
differente potenza, disseminati nello spazio del concerto, della galleria, del museo, del luogo pubblico, a seconda che
egli scelga di comporre per il concerto, per l’installazione sonora o per qualsiasi altra forma di espressione
acusmatica..
Tale dispositivo di diffusione (altrimenti detto “orchestra di altoparlanti” o anche acousmonium) è un insieme di
casse acustiche distribuite nel luogo del concerto in cui si fa variare l’intensità e il colore di uscita del suono con
l’aiuto di un impianto di proiezione (tramite filtri, cavi e amplificatori) per la collocazione nello spazio delle opere
interpretate. Motus è attualmente la sola situazione in cui un interprete professionale, Jonathan Prager, è stato
nominato, dal 1995, titolare del suo acoumonium. Si parla metaforicamente di “proiezione del suono”.
È dunque necessario elaborare una interpretazione:

« che sia utile a organizzare lo spazio acustico secondo le caratteristiche della sala e lo spazio psicologico secondo le
caratteristiche dell’opera. Pianificando “tutti” e “solo”, sfumature e contrasti, emergenze e movimenti, il musicista alla
console diviene colui che concepisce una orchestrazione e una interpretazione vivente »
(F. Bayle)

Attraverso ciò che si può definire un’interpretazione (scelta della disposizione dell’impianto, della spazializzazione,
del gioco tra le intensità e i colori, dei filtraggi) l'artista rende la sua opera accessibile al pubblico, ormai consegnata
unicamente al dominio dell’ascolto.

Definizioni
Di seguito qualche definizione e commento del termine acusmatica da parte di diversi autori.
Nel periodo della grande avventura della radiofonia negli anni ’50, mentre nascevano le prime “musiche del rumore”
e Pierre Schaeffer ne definiva i primi tratti metodologici, lo scrittore e poeta Jérome Peignot dichiara in una
trasmissione:

« Quali parole potrebbero designare la distanza che separa i suoni dalla loro origine... Rumore acusmatico si dice (nel
dizionario) di un suono che si ascolta senza scoprirne le cause. Ebbene, questa è la definizione stessa dell’oggetto sonoro,
questo elemento di base della musica concreta, musica la più generale che sia, di cui la testa sarebbe vicino al cielo e i cui
piedi toccherebbero il regno dei morti »
(In Musique animée, trasmissione del gruppo di musica concreta, 1955)

Pierre Schaeffer, nel suo Traité des objets musicaux (1966) riprende il termine acusmatico e lo collega all’"ascolto
ridotto":
Arte acusmatica 19

« Il magnetofono ha la virtù del tendaggio di Pitagora: se esso crea dei nuovi fenomeni da osservare, crea soprattutto delle
nuove condizioni di osservazione »
[1]
(Citato da F.Bayle in Vocabulaire de la musique contemporaine , collection Musique ouverte J.Y. Bosseur, éd. Minerve)

Per Denis Dufour e Jean-François Minjard l’arte acusmatica è un’arte del suono che produce un’opera fissata e
definitiva, su supporto, proposta al solo ascolto: senza ricorrere al visivo e utilizzando tutti i mezzi elettroacustici
offerti al compositore dallo studio, quali che siano le tecnologie impiegate. La composizione acusmatica è fondata
sull’ascolto. In un'andata e ritorno costanti dal fare all’ascoltare, a partire da suoni creati o acquisiti e trasformati, il
compositore costruisce e sistema gli elementi della sua opera in un’invenzione inaudita di scrittura di dettaglio e di
articolazione di immagini di suoni tra di loro. I suoni elaborati per se stessi, quindi slegati dal modo in cui sono
prodotti, implicano l’abbandono della loro causalità reale a vantaggio di una causalità virtuale, essa stessa generatrice
di spazi interni, esterni, indotti, immaginari, metaforici, ecc., le cui giustapposizioni inducono senso[2] .
Per Michel Chion acusmatica si dice della situazione d’ascolto in cui si sente un suono senza vedere le cause dalle
quali proviene. Questa parola greca designava al tempo i discepoli di Pitagora, che ascoltavano il loro maestro
insegnare da dietro un tendaggio. Pierre Schaeffer, inventore della musica concreta, ha avuto l’idea di riesumare
questo vocabolo per caratterizzare la situazione d’ascolto generalizzata dalla radio, dal disco, dall’altoparlante. Nel
suo Traité des objets musicaux (1966), egli ha analizzato le conseguenze di tale situazione sulla psicologia
dell’ascolto. Dopo di lui, il compositore François Bayle ha pensato di recuperare il termine acusmatica per definire
ciò che comunemente si designa come musica elettroacustica. “Musica acusmatica”, “concerto acusmatico” sono per
lui termini che meglio si addicono alle condizioni di ascolto e di costruzione di tale musica “invisibile”, nata
dall’altoparlante e i ncui il suono registrato è slegato dalla sua causa iniziale[3] .

Storia
Già prima di Schaeffer, diversi sperimentatori hanno esplorato idee che mettevano in gioco il suono o i rumori come
materiali rientranti nell’ambito delle esigenze compositive: il pittore e compositore futurista italiano Luigi Russolo,
all’inizio del ‘900 (con i suoi “intonarumori”), il cineasta sperimentale tedesco Walter Ruttmann, il quale utilizza la
banda sonora della pellicola cinematografica per produrre un “film senza immagine” (Week-end, 1930), e certamente
Edgard Varèse e la sua famosa utopia del “suono organizzato”... Tuttavia nessuno di loro ha avuto l’idea di utilizzare
la registrazione (seppure accessibile e in evoluzione dagli anni ’10) al fine di creare una vera “arte dei suoni fissati”[4]
.
Nel 1948 Pierre Schaeffer, animatore di un piccolo gruppo di ricerca all’interno della radio francese, inventa una
nuova forma di espressione artistica che lui stesso chiamerà musica concreta. Creatore e produttore di trasmissioni
radiofoniche, in cui “l’ascoltare senza vedere” determina al tempo stesso il mistero e il successo di tale nuovo mezzo
di comunicazione[5] , egli si lancia in un’avventura musicale interamente nuova, dopo mesi di sperimentazione e di
osservazione dei suoni “fissati”, che i processi di registrazione gli consentono di riascoltare a piacimento: i più
diversi materiali sonori disponibili all’interno della fonoteca, lasciati dai tecnici o registrati da lui.
Nell’utilizzare più piatti di giradischi, scrive[6] :

« 21 aprile 1948: se privo i suoni del loro attacco, ottengo un suono differente; d’altra parte, se compenso la caduta di
intensità grazie a un potenziometro, ottengo un suono continuo di cui sposto l'inviluppo a volontà. Registro così una serie di
note costruite nello stesso modo, ciascuna su un disco. Disponendo questi dischi su dei pick-up, posso, grazie al gioco di
chiavi di contatto, suonare queste note come desidero, in successione o simultaneamente. […] Siamo degli artigiani. Il mio
violino, la mia voce, li ritrovo in tutto questo bazar di legno e latta, e nel campanello della bicicletta. Cerco il contatto diretto
con la materia sonora, senza interposizione di elettroni »

Dal suo entusiasmo e dal suo spirito scientifico nascono gli Etudes de bruits (prima opera di musica concreta
registrata su disco) diffusi per radio prima di essere dati in concerto. Pierre Henry lo raggiunge al Club d’essai della
Radio nel 1949. Insieme compongono Bidule en ut e Symphonie pour un homme seul, opera che farà in seguito il
Arte acusmatica 20

giro del mondo con il balletto di Maurice Béjart [7] .


Nel 1951 il gruppo di Pierre Schaeffer diventa il Gruppo di ricerca di musica concreta della
Radiodiffusion-Télévision Française. È riorganizzato nel 1958 sotto il nome di Gruppo di ricerca musicale (GRM).
Attualmente diretto da Daniel Teruggi, il GRM nel 1974 fu integrato all’Istituto nazionale dell’audiovisivo.
Da parte sua Pierre Henry prosegue in un cammino solitario e fonda il primo studio privato di musica concreta,
Apsome, nel 1960. Da allora il suo percorso è disseminato di concerti che riunisce un pubblico sempre più vasto:
Messe pour le temps présent, Le Voyage, L’Apocalypse de Jean, Futuristie, Messe de Liverpool…
Nel corso degli anni cinquanta, numerosi compositori tradizionali o d’avanguardia dell’epoca, da Darius Milhaud a
Iannis Xenakis, da Olivier Messiaen a Edgard Varèse, da Henri Sauguet a Pierre Boulez si iniziano alla pratica della
musica concreta dopo Pierre Schaeffer. Allo stesso tempo, alcuni compositori all’estero aprono studi di
composizione elettronica: Karlheinz Stockhausen presso la WDR di Colonia (Gesang der Jünglinge, 1956), Bruno
Maderna, Luciano Berio presso la RAI di Milano (Thema-Omaggio a Joyce, 1958). Negli Stati Uniti l’esperienza dei
suoni fissati assume un aspetto più tecnico, con la ricerca di Max Matthews sulla sintesi del suono tramite calcolatore
nel laboratorio della Bell Telephone a Murray Hill, ma anche con i tentativi di Otto Luening (Fantasy in space,
1952) e Vladimir Ussachevsky (Incantation, 1953) presso il Columbia-Princeton Music Center di New York… In
Francia si crea subito un vero vivaio di compositori esclusivamente acusmatici: François Bayle (Espaces
inhabitables, 1967), Pierre Boeswillwald (Sur le chemins de Venise, 1983), Michel Chion (Requiem, 1973), Christian
Clozier (Quasars, 1980), Luc Ferrari (Hétérozigote, 1964), Jacques Lejeune (Parages, 1974), Bernard Parmegiani
(De natura sonorum, 1975), Jean-Claude Risset (Mutations, 1969), Alain Savouret (L’Arbre et coetera, 1972)…

L’arte acusmatica oggi

Repertorio mondiale
Influenzati e stimolati dall’esempio di Pierre Schaeffer e da quello dei pionieri della musica elettronica, numerosi
altri paesi hanno creato i loro studi. Nel 1970 Françoise Barrière e Christian Clozier fondano il GMEB, gruppo di
musica sperimentale di Bourges, catalizzatore della musica elettroacustica mondiale e più particolarmente nei paesi
dell’Est, nell’Europa del nord, a Cuba e in America del Sud. Grazie all’esistenza di classi di composizione all’interno
dei conservatori e delle università, la pratica dell’arte acusmatica conosce un forte sviluppo nei seguenti paesi:
Francia (con Marcel Frémiot, Guy Reibel, Denis Dufour, Philippe Mion…), Canada (con Francis Dhomont), Belgio
(con Annette Vande Gorne), Gran Bretagna (con Denis Smalley), Austria (con Dieter Kaufmann), Germania (con
Karlheinz Stockhausen, Hans Tutschku), Brasile (con Jorge Antunes, Rodolfo Caesar), Italia (con Roberto Doati,
Agostino di Scipio…), ma anche Polonia, Ungheria, Svezia, Norvegia, America del Sud, Stati Uniti, Giappone…
L’acusmatica attrae nuove generazioni di compositori (citiamo Frédéric Acquaviva, Patrick Ascione, Paul Dolden,
Ingrid Drese, Jean-Marc Duchenne, Marc Favre, Thomas Gerwin, Bernhard Günter, Jonty Harrison, Tomonari
Higaki, Frédéric Kahn, Erik Mikael Karlsson, Patrick Kosk, Francisco López, Lionel Marchetti, Elio Martusciello,
Robert Normandeau, Ake Parmerud, Dominique Petitgand, Agnès Poisson, Daniel Teruggi, Christian Zanési…) e
decine di compositori che operano in diversi stili, di universi e di procedure a volte fortemente lontane dalle prime
idee di Pierre Schaeffer. Utilizzando una tecnologia in perpetua evoluzione, questi creatori si riconoscono sotto
differenti denominazioni: a seconda dei periodi, dei luoghi e delle scuole, la musica acusmatica ha avuto come
denominazioni anche quella di musica concreta, musica sperimentale, musica elettronica, musica elettroacustica,
Tonbandmusik, Elektronische Musik (Germania), Tape music (USA).
Arte acusmatica 21

Un'esperienza dagli sviluppi molteplici


Il mondo della composizione strumentale contemporanea è il primo a essere influenzato dall’esperienza della musica
concreta. Compositori quali Iannis Xenakis, Ivo Malec, François-Bernard Mâche, Philippe Leroux e Denis Dufour
sono stati potentemente influenzati nel loro stile e nelle idee musicali da idee di morfologia e di scrittura provenienti
dalla loro pratica di studio. Il “solco chiuso” (l’anello) si inserisce poco a poco nel vocabolario musicale
contemporaneo e non si può negare che i compositori americani minimalisti della scuola di New York (Steve Reich,
Phil Glass, Terry Riley, La Monte Young…) siano stati ispirati dapprima nelle loro opere per nastro e poi nelle opere
strumentali dall’idea di “anello”, ma anche che si siano nutriti di tutta una competenza di studio. La moltiplicazione
delle possibilità di intervento e di distanziazione in rapporto al tempo musicale che lo studio offre ha prodotto delle
opere singolarmente nuove, e questo cambiamento di paradigma si fa ancora sentire nella produzione attuale.
Negli anni settanta una nuova scuola estetica nasce in Francia, rifacendosi alle ricerche sul suono di Pierre Schaeffer
(ma non alla musica acusmatica), la scuola spettrale [8] , che si ispira alla struttura acustica del suono (le sue
armoniche, il suo spettro) per sostenere la scelta delle altezze, la definizione della forma e l’orchestrazione dell’opera.
Quanto a Jean-Michel Jarre egli si rifà al suo rapporto con il GRM, dopo aver seguito per qualche mese la classe di
Pierre Schaeffer, presso il Conservatorio nazionale superiore di musica di Parigi, alla fine degli anni 60. Troviamo
delle simili metamorfosi musicali oltre Reno con Klaus Schulze (ispirato da Karlheinz Stockhausen), i Tangerine
Dream e il gruppo Kraftwerk degli inizi. Dalla fine degli anni 60, le sequenze “plananti” e gli effetti sonori di studio
invadono la produzione pop: i Beatles (Revolution 9), i Pink Floyd (The Dark Side of the Moon), i Can e i più
radicali Faust, ma anche i Velvet Underground e i Soft Machine… fino alla più egemonica varietà internazionale
attuale (Michael Jackson).
Infine agli inizi degli anni 90 appare la Techno (musica elettronica), di cui i DJ, al tempo stesso animatori, tecnici e
adesso musicisti, rivendicano ad alcuni di loro l’eredità di Pierre Schaeffer e di Pierre Henry (definito a 70 anni sulla
copertina di una rivista come “il più vecchio DJ del mondo”!).
Quanto alle musiche applicate (commerciali e/o pubblicitarie, d’illustrazione sonora per la televisione, la radio, il
teatro o il balletto, le colonne sonore di corto e lungometraggi, i sigle musicali, i jingle e altri gimmick sonori) non
sono le ultime ad aver fatto uso dell’acusmatica.

In Italia
In Italia, oltre ad essere presenti in numerose rassegne di musica elettroacustica, le opere acusmatiche sono
presentate in due festival dedicati esclusivamente all'arte sonora su supporto: il Festival di interpretazione della
musica acusmatica (organizzato dall'associazione Amici della musica di Cagliari) ed il Festival Silence (organizzato
dall'associazione M.ar.e a Bari).

Note
[1] http:/ / editionsminerve. com/ catalogue/ 9782869310841/
[2] in Vocabulaire de la musique contemporaine (http:/ / editionsminerve. com/ catalogue/ 9782869310841/ ), collection Musique ouverte J.Y.
Bosseur, éd. Minerve
[3] Michel Chion in Dictionnaire de la musique Larousse
[4] l’espressione è di M. Chion
[5] Si veda Orson Welles e le sue celebri trasmissioni dalla radio americana Dracula (1938) e soprattutto La guerra dei due Mondi (1938). Nel
1943-44 Pierre Schaeffer ha realizzato a sua volta una fiction radiofonica: La Coquille à planètes
[6] Nel “Premier journal (1948-1949)” della sua opera A la recherche d’une musique concrète (Seuil, 1952).
[7] La musica concreta conosce un vero inizio di popolarità, certificato dal film di François Truffaut, L’amour à vingt ans (1961), in cui i due
protagonisti assistono a una conferenza sulla musica concreta…
[8] Con l’ensemble Itineraire e con Gérard Grisey, Tristan Murail…
Arte acusmatica 22

Voci correlate
• musica concreta
• musica elettroacustica
• musica contemporanea
• musica elettronica
• acusmatico

Musica elettroacustica
La Musica elettroacustica nasce al termine della Seconda guerra mondiale e definisce un genere di musica che,
partendo dalla musica concreta e dalla musica elettronica, utillizza sia tecniche di registrazione e manipolazione dei
suoni, sia tecniche di sintesi sonora e di campionamento. Il termine "musica elettroacustica", come del resto musica
elettronica, si pone trasversalmente alle più eterogenee intenzioni musicali. Celebri compositori elettroacustici sono
Stockhausen, Xenakis, Steve Reich e l'italiano Pietro Grossi. La produzione di musica elettroacustica o elettronica è
oggi possibile anche grazie al solo uso del computer adottando ambienti o linguaggi di programmazione quali Super
Collider, Max o Csound. La musica elettroacustica può essere considerata la "musica classica" elettronica ed
fortemente legata all'arte acusmatica. La musica elettroacustica o elettronica è caratterizzata da infinite possibilità
circa i suoni producibili e rende possibile l'intuizione di Ferruccio Busoni circa la suddivisione dei semitoni in
ulteriori suddivisioni o meglio permette di avere infinite "note" tra i semitoni del sistema temperato.

Alcuni compositori di musica elettroacustica


• Rodolfo Acosta • Marcelle Deschênes • Ernst Krenek • Steve Reich
• Klaus Ager • Francis Dhomont • György Ligeti • Jean-Claude Risset
• Jon Appleton • Tod Dockstader • Douglas Lilburn • Manuel Rocha Iturbide
• Bülent Arel • Charles Dodge • Magnus Lindberg • Fausto Romitelli
• Patrick Ascione • Paul Dolden • Alvin Lucier • Pierre Schaeffer
• Larry Austin • John Eaton • Otto Luening • Denis Smalley
• Milton Babbitt • Herbert Eimert • François-Bernard Mâche • Roger Smalley
• Clarence Barlow • Simon Emmerson • Robin Maconie • Tim Souster
• Sergio Barroso • Jean-Claude Éloy • Bruno Maderna • Georgia Spiropoulos
• Wende Bartley • Brian Eno • Mesías Maiguashca • Karlheinz Stockhausen
• François Bayle • Peter Eötvös • Yan Maresz • Zsigmond Szathmáry
• Luciano Berio • Luc Ferrari • Jean-Etienne Marie • Yuji Takahashi
• Michael von Biel • Carlo Forlivesi • Pierre Mariétan • Toru Takemitsu
• Boris Blacher • Bernard Fort • Salvatore Martirano • Ivan Tcherepnin
• Lars-Gunnar Bodin • Johannes Fritsch • Elio Martusciello • Serge Tcherepnin
• Konrad Boehmer • Kenneth Gaburo • Toshiro Mayuzumi • Javier Torres Maldonado
• Michèle Bokanowski • Bernhard Gál • Olivier Messiaen • Robert Scott Thompson
• André Boucourechliev • Rolf Gehlhaar • Costin Miereanu • Gilles Tremblay
• Pierre Boulez • Robert Gerhard • Ilhan Mimaroglu • Jacques Tremblay
• Herbert Brün • Jacob Gilboa • Luigi Nono • Marc Tremblay
• Karl Gottfried Brunotte • Karel Goeyvaerts • Arne Nordheim • Barry Truax
• John Cage • Jonty Harrison • Emmanuel Nunes • Stephen Truelove
• Roberto Carnevale • Jonathan Harvey • Michael Obst • Vladimir Ussachevsky
• Lawrence Chandler • Pierre Henry • Gonzalo de Olavide • Horacio Vaggione
• Unsuk Chin • Lejaren Hiller • Pauline Oliveros • Edgard Varèse
• John Chowning • Brian Hodgson • Elizabeth Parker • Giovanni Verrando
Musica elettroacustica 23

• Yves Daoust • York Höller • Bernard Parmegiani • Alejandro Vinao


• Mario Davidovsky • Nicolaus A. Huber • Åke Parmerud • Ezequiel Viñao
• Dan Deacon • Jacaszek • Jorge Peixinho • Claude Vivier
• Michel Decoust • Alden Jenks • Michel Philippot • Hildegard Westerkamp
• Delia Derbyshire • David C. Johnson • Zoltán Pongrácz • Trevor Wishart
• Ben Johnston • Henri Pousseur • Charles Wuorinen
• Georg Katzer • Eliane Radigue • Iannis Xenakis
• Gottfried Michael Koenig • La Monte Young
• Panayiotis Kokoras • Hans Zender
• Włodzimierz Kotoński

Voci correlate
Musica concreta
Musica elettronica

Vibrazione
Il termine vibrazione si riferisce in particolare ad una oscillazione meccanica attorno ad un punto d'equilibrio; l'unità
di misura per le vibrazioni è l'Hertz che misura la frequenza di oscillazioni in un secondo. L'oscillazione può essere
periodica come il moto di un pendolo oppure casuale come il movimento di una gomma su di una strada asfaltata.
Le vibrazioni rappresentano un fenomeno desiderato in molti casi. Ad esempio nel funzionamento del diapason, e di
molti strumenti musicali, o nei coni degli speaker, necessari per il corretto funzionamento dei vari oggetti che li
utilizzano.
Più spesso, però, le vibrazioni non sono desiderate; possono disperdere energia e creare suoni e rumori indesiderati.
Ad esempio, nel funzionamento dei motori e delle automobili in generale.
Gli studi sul suono e sulle varie vibrazioni sono strettamente collegati. I suoni, onde di pressione, sono generati da
strutture vibranti (ad esempio le corde vocali) e le onde di pressione possono generare vibrazione di strutture.
Quindi, quando si prova a ridurre un rumore, il problema è ridurre la vibrazione che lo provoca

Tipi di vibrazioni
Vibrazioni libere: si verificano quando un sistema meccanico vibra e non è sottoposto ad alcuna forzante.
Idealmente, se il sistema non fosse dotato di alcun tipo di attrito, smorzamento o comunque dispersione energetica,
esso stesso continuerebbe a vibrare infinitamente nel tempo. Un sistema non sottoposto a forzante vibra poiché le sue
condizioni iniziali erano (all'istante iniziale) non nulle. Un semplice esempio è il caso di una massa collegata ad un
telaio per mezzo di una molla, molla che, all'istante iniziale, era ad esempio compressa.
Vibrazioni forzate si hanno quando una forzante è applicata al sistema. Un esempio semplice è caratterizzato dalla
lavatrice, il cui cestello, dotato di un ammortizzatore (per tale motivo definibile sistema vibrante), è continuamente
sottoposto a forze rotanti, ossia alle forze d'inerzia generate dalla disposizione asimmetrica dei panni all'interno dello
stesso.
Vibrazione 24

Analisi delle vibrazioni


I fondamenti dell'analisi delle vibrazioni possono essere compresi studiando il modello semplice
massa-molla-smorzatore. Effettivamente, persino una struttura complessa quale il corpo di un'automobile può
essere considerata come composta da tanti sottosistemi in interazione tra loro del tipo massa-molla-smorzatore (tale
assunzione è comunque un'approssimazione in quanto nella realtà non esiste alcun comportamento perfettamente
lineare ed è questo il caso ad esempio di presenza di giochi, di parametri fisici non costanti nel tempo, ecc.). Questo
modello è un esempio di oscillatore armonico semplice e quindi la matematica usata per descrivere il relativo
comportamento è identica ad altri oscillatori armonici semplici come il circuito RLC.
Nota: In questo articolo le graduali derivazioni matematiche non saranno incluse, ma metteranno in luce le equazioni
e i concetti principali nell'analisi delle vibrazioni. Per le derivazioni dettagliate occorre utilizzare i riferimenti
all'estremità dell'articolo.

Vibrazioni libere non smorzate


Per iniziare l'analisi del sistema massa-molla-ammortizzatore si
assuma che eventuali dispersioni siano trascurabili e che non ci
siano forze esterne applicate alla massa (vibrazioni libere).
La forza applicata alla massa dalla molla è proporzionale
all'allungamento "x"(si assume che la molla sia già compressa dal
peso della massa). La costante di proporzionalità, k, rappresenta la
rigidità della molla ed ha unità di misura del tipo forza/distanza
(ad esempio lbf/in or N/m)

La forza generata dalla massa è proporzionale all'accelerazione


della massa come dato dalla seconda legge della dinamica di Newton.

La somma delle forze sulla massa allora genera questa equazione differenziale ordinaria:

Se supponiamo di far iniziare a vibrare il sistema tirando la molla ad una distanza “A” e lasciamo andare, la
soluzione alla suddetta equazione che descrive il movimento della massa è:

Questa soluzione dice che il sistema oscillerà con un movimento armonico semplice che ha ampiezza “A” e una
frequenza di , ma che cosa è ? è una delle quantità più importanti nell'analisi delle vibrazioni ed è
denominata frequenza naturale
è definita per il sistema semplice massa-molla come:

Nota: La Frequenza angolare ( ) con unità di radianti/secondo è spesso usata nelle equazioni perché
le semplifica, anche se normalmente viene convertita nelle unità “standard” per la frequenza (Hz o in modo
equivalente cicli/secondo).
Conoscendo la massa e la rigidità del sistema si può quindi determinare la frequenza a cui il sistema vibrerà dopo
una perturbazione iniziale utilizzando la suddetta formula. Ogni sistema in vibrazione ha una o più frequenze naturali
che si manifestano quando viene disturbato. Questa semplice relazione può essere usata per capire cosa accadrà a
Vibrazione 25

sistemi più complesso variando massa o rigidità. Per esempio, la suddetta formula spiega perché quando
un'automobile o un camion è completamente carico la sospensione sarà “più molle” di come si presenta a mezzo
scarico perché la massa è aumentata e quindi ha ridotto la frequenza naturale del sistema.

Che cosa induce il sistema a vibrare senza l'azione di forze?


Queste formule descrivono il movimento risultante, ma non spiegano perché il sistema oscilla. Il motivo
dell'oscillazione è dovuto alla conservazione dell'energia. Nel suddetto esempio abbiamo esteso la molla da un valore
“A” e quindi abbiamo immagazzinato energia potenziale ( ) nella molla. Una volta che lasciamo andare la
molla, questa prova a ritornare al proprio stato di riposo e nel processo accelera la massa. Nel punto in cui la molla
ha raggiunto il punto di equilibrio non vi è più energia potenziale, ma la massa ha raggiunto la relativa velocità
massima e quindi tutta l'energia potenziale è stata trasformata in energia cinetica ( ). La massa allora
comincia a rallentare perché ora sta comprimendo la molla e nel processo che trasferisce l'energia cinetica
nuovamente dentro il potenziale. Ciò che trasferisce avanti e indietro dell'energia cinetica nell'energia totale e
potenziale nella molla induce la massa ad oscillare.
Nel nostro modello semplice la massa continuerà ad oscillare per sempre alla stessa grandezza, ma in un sistema
reale c'è sempre qualcosa che dissipa l'energia e quindi il sistema tende a ritornare al proprio stato iniziale di riposo.

Vibrazioni libere smorzate


Ora aggiungiamo un ammortizzatore viscoso al modello che
produce una forza che è proporzionale alla velocità della massa.
L'ammortizzazione è denominata viscosa perché modella gli effetti
di un oggetto in un liquido. La costante di proporzionalità “c„ è
denominata coefficiente di smorzamento ed ha unità di
forza/velocità (lbf s/in | N s/m).

Sommando le forze sulla massa otteniamo la seguente equazione differenziale ordinaria:

La soluzione di questa equazione dipende dall'ammortizzazione. Se questa è abbastanza piccola il sistema tranquillo
vibrerà, ma smetterà di vibrare col tempo. Questo caso è denominato underdamping (questo caso è di particolare
interesse nell'analisi delle vibrazioni). Se aumentiamo l'ammortizzazione appena al punto in cui il sistema non oscilla
più si raggiungerà il punto di smorzamento critico (se l'ammortizzazione è aumentato oltre lo smorzamento critico
il sistema è denominato overdamped). Il valore che il coefficiente c deve raggiungere per lo smorzamento critico nel
modello totale dell'ammortizzatore della molla è:

Per caratterizzare la quantità di ammortizzazione in un sistema si utilizza un rapporto denominato il coefficiente di


smorzamento (anche conosciuto come fattore di smorzamento e % di smorzamento critico). Questo coefficiente di
smorzamento è giusto un rapporto dell'ammortizzazione reale sopra la quantità di ammortizzazione richiesta per
raggiungere lo smorzamento critico. La formula per il coefficiente di smorzamento ( ) del modello totale
dell'ammortizzatore della molla è:
Vibrazione 26

Per esempio, le strutture del metallo (per esempio la fusoliera dell'aeroplano, l'albero a gomito del motore) avranno
fattori di circa 0.05 mentre le sospensioni automobilistiche di 0.2-0.3.
La soluzione al di sotto dello smorzamento critico per il modello totale dell'ammortizzatore della molla è la seguente:

Il valore della “X” della grandezza iniziale e del


, spostamento di fase, è determinato
dall'allungamento della molla. Le formule per
questi valori possono essere trovate nei riferimenti.
I punti principali sono il termine esponenziale e la
funzione coseno. Il termine esponenziale definisce
quanto il sistema “si ammortizza rapidamente” - più
grande è il coefficiente di smorzamento, più
rapidamente si smorza a zero. La funzione coseno è
la parte oscillante della soluzione, ma la frequenza
delle oscillazioni è differente se ci si trova sotto il
punto di smorzamento critico.

La frequenza in questo caso è denominata la


frequenza naturale smorzata, il , ed è collegata
con la frequenza naturale dalla seguente formula:

La frequenza naturale smorzata minore della frequenza naturale “undamped”, ma per molti casi pratici il coefficiente
di smorzamento è relativamente piccolo e quindi la differenza è trascurabile.
I diagrammi a lato con coefficienti di smorzamento di 0.1 e 0.3 mostrano come la vibrazione si smorza
progressivamente col tempo. Ciò che si effettua in pratica è misurare sperimentalmente la vibrazione libera dopo una
perturbazione (per esempio di un martello) ed allora determinare la frequenza naturale del sistema misurando il tasso
di oscillazione ed il coefficiente di smorzamento misurando il tasso di deperimento. La frequenza naturale ed il
coefficiente di smorzamento non sono importanti solo nella vibrazione libera, ma caratterizzano anche come un
sistema si comporterà sotto la vibrazione forzata.
Vibrazione 27

Vibrazione forzata con smorzamento


In questa sezione guarderemo il comportamento del modello “massa-molla-smorzatore” quando si aggiunge una
forza armonica. Una forza di questo tipo, per esempio, potrebbe essere generata da uno squilibrio di rotazione.

Se sommiamo ancora le forze sulla massa otteniamo la seguente equazione differenziale ordinaria:

la soluzione di questo problema può essere scritta come:

Il risultato mostra come la massa oscillerà alla stessa frequenza, f, della forza applicata, ma con uno sfasamento pari
a .
L'ampiezza della vibrazione “X” è definita dalla seguente formula.

Dove “r” è definito come il rapporto della frequenza armonica della forza armonica sopra la frequenza naturale
“undamped” del modello “massa-molla-ammortizzatore”.

A questo proposito è interessante notare come l'ampiezza della risposta dell'oscillatore sia scomponibile in due
contributi: il primo è dato da

ed è detto spostamento statico: è lo spostamento che il sistema subirebbe se la forza fosse costante (condizioni
statiche) uguale a . Il secondo contributo viene detto fattore di amplificazione dinamico e rappresenta
l'incremento subito dallo spostamento statico per effetto della variazione della forza nel tempo. Lo sfasamento, ,è
definito dalla seguente formula.

Il diagramma di queste funzioni, consistente nella risposta di frequenza del sistema, presenta una delle caratteristiche
più importanti nella vibrazione forzata. In un sistema leggermente smorzato quando la frequenza di forzatura
avvicina la frequenza naturale ( ) l'ampiezza della vibrazione può risultare estremamente alta. Questo
fenomeno è denominato risonanza.
Vibrazione 28

Se la risonanza si presenta in un sistema meccanico può causare effetti dannosi conducendo al guasto finale del
sistema. Di conseguenza uno dei motivi principali dell'analisi delle vibrazione è di predire quando si può verificare
risonanza e determinare come operare per impedirne gli effetti. Il diagramma dell'ampiezza mostra che aggiungendo
smorzamento si può ridurre significativamente la grandezza della vibrazione. Inoltre, la grandezza può essere ridotta
se la frequenza naturale viene spostata dalla frequenza di forzatura cambiando la rigidezza o la massa del sistema. Se
il sistema non può essere cambiato, può però essere variata la frequenza di forzatura (per esempio, cambiando la
velocità della macchina che genera la forza).
I seguenti sono alcuni altri punti riguardanti le vibrazioni forzate indicate nei diagrammi di risposta di frequenza.
• Ad un dato rapporto di frequenza, l'ampiezza della vibrazione, X, è direttamente proporzionale all'ampiezza della
forza (per esempio. Se la forza raddoppia, la vibrazione raddoppia a sua volta)
• Con la presenza di smorzamento minimo o nullo, la vibrazione ha luogo nella fase con la frequenza di forzatura
quando il rapporto di frequenza r < 1 e 180° dalla fase se il rapporto r >1 di frequenza
• Quando r<<1 l'ampiezza è solo la deviazione della molla sotto la forza statica . Questa deviazione è
denominata il . Quindi, quando r<<1 gli effetti dell'ammortizzatore e della massa sono minimi.
• Quando r>>1 l'ampiezza della vibrazione è realmente di meno della deviazione statica . In questa regione la
forza generata dalla massa (F=ma) dominano perché l'accelerazione vista dalla massa aumenta con la frequenza.
Fino a quando la deviazione vista nella molla, X, è ridotta in questa regione, la forza trasmessa entro la molla
(F=kx) alla base è ridotta. Di conseguenza il sistema massa-molla-ammortizzatore sta isolando la forza armonica
come isolamento antivibrante.

Che cosa causa la risonanza?


La risonanza è semplice da capire se si osserva la molla e la massa come elementi di stoccaggio di energia. La massa
immagazzina energia cinetica e la molla immagazzina energia potenziale. Quando la massa e la molla non subiscono
su di loro alcuna forza trasferiscono una quantità di energia proporzionale alla frequenza naturale. Applicare una
forza alla massa ed alla molla è simile a spingere un bambino su un'altalena, dovete spingere al momento corretto se
si desidera amplificare e aumentare l'oscillazione. Come nel caso dell'oscillazione, la forza applicata non deve essere
necessariamente alta per ottenere grandi movimenti. Le spinte devono continuare a aggiungere l'energia al sistema.
L'ammortizzatore dissipa energia invece di immagazzinarla. Poiché la forza smorzante è proporzionale alla velocità,
più è ampio il movimento più l'ammortizzatore dissipa l'energia. Di conseguenza un punto d'equilibrio si verificherà
quando l'energia dissipata dall'ammortizzatore sarà uguale l'energia che è caricata dalla forza. A questo punto, il
sistema ha raggiunto la relativa ampiezza massima e continuerà a vibrare a questa ampiezza finché la forza applicata
rimane costante. Se non vi sono fonti di smorzamento, non si ha nulla nel sistema in grado di dissipare l'energia e
quindi il moto continuerà teoricamente all'infinito.

Applicando forze “complesse” al modello Massa-Molla-Smorzatore


In una sezione precedente è stata applicata al modello soltanto una forza armonica semplice, ma questa può
estendersi considerevolmente per mezzo di due potenti strumenti matematici. Il primo è la trasformata di Fourier che
prende un segnale in funzione del tempo (dominio del tempo) e lo divide nei relativi componenti armonici in
funzione della frequenza (dominio della frequenza). Per esempio, applicando una forza al modello
massa-molla-smorzatore che ripete il seguente ciclo: una forza uguale a 1 Newton per 0,5 secondi ed poi nessuna
forza per 0,5 secondi. Questo tipo di forza ha la figura di un 1 hertz onda quadra.
Vibrazione 29

La trasformata di Fourier dell'onda quadra


genera uno spettro di frequenza che presenta
l'intensità delle armoniche che compongono
l'onda quadrata. La trasformata di Fourier
può anche essere usata per analizzare
funzioni non periodiche le funzioni per le
quali le forze (per esempio impulsi) e le
conseguenti funzioni sono casuali. Con
l'avvento dei moderni calcolatori la
trasformata di Fourier è utilizzata quasi
sempre come Trasformata di Fourier veloce
(FFT).

Nel caso della nostra onda quadrata, il primo


componente è realmente una forza costante
di 0,5 Newton ed è rappresentato da un
valore di “0” hertz nello spettro di frequenza.
Il componente seguente è un'onda seno di 1
hertz con un'ampiezza di 0,64. Ciò è
indicata dalla linea a 1 hertz. I componenti Come un'onda quadra da 1 hertz può essere rappresentata come sommatoria delle
restanti consistono in frequenze dispari e onde sinusoidali (armoniche) e dello spettro corrispondente di frequenza

necessitano di una quantità infinita di onde


seno per generare l'onda quadra perfetta. Quindi, la trasformata di Fourier permette di interpretare la forza come una
somma delle forze sinusoidali che sono applicate al sistema anziché la forza più “complessa” (per esempio un'onda
quadra).

Nella sezione precedente, la soluzione di vibrazione è stata data per una singola forza armonica, ma la trasformata di
Fourier generalmente valuta le forze armoniche multiple. Il secondo strumento matematico, è il principio di
sovrapposizione, che permette di sommare i contributi prodotti dalle singole forze se il sistema è lineare. Nel caso
del modello molla-massa-ammortizzatore, il sistema è lineare se la forza della molla è proporzionale allo
spostamento e lo smorzamento è proporzionale alla velocità nelle possibilità di movimento di interesse. Quindi, la
soluzione al problema con un'onda quadra si ottiene sommando la vibrazione prevista da ogni forza armonica che si
trova nello spettro di frequenza dell'onda quadra.

Modello di risposta di frequenza


Possiamo osservare la soluzione di un problema riguardante le vibrazione come un rapporto dell'ingreso/uscita dove
la forza è l'input e l'uscita è la vibrazione. Se rappresentiamo la forza e vibrazione nel dominio di frequenza
(grandezza e fase) possiamo scrivere il seguente rapporto:

è denominato funzione di risposta di frequenza (è anche citata come funzione di trasferimento, anche se non
è tecnicamente esatto) ed ha sia una grandezza che il componente di fase (se rappresentato come un numero
complesso, un componente reale ed immaginario). La grandezza della funzione di risposta di frequenza (FRF) è stata
presentata in precedenza per il sistema dell'massa-molla-ammortizzatore.

La fase del FRF inoltre è stata presentata inizialmente come:


Vibrazione 30

La figura inoltre mostra la rappresentazione di dominio di tempo della vibrazione risultante. Questa è calcolata
effettuando una trasformata di Fourier inversa che converte i dati di dominio di frequenza in dominio di tempo. In
pratica, questo calcolo è eseguito raramente perché lo spettro di frequenza fornisce tutte le informazioni necessarie
La funzione di risposta di frequenza
(FRF) non deve essere calcolata
necessariamente partendo dalla
conoscenza dei valori della massa,
dello smorzamento e della rigidità del
sistema, ma può essere misurata
sperimentalmente. Per esempio, se
applicate una forza conosciuta e ne
valutate la frequenza, allora misurate la
vibrazione risultante e potete calcolare
la funzione di risposta di frequenza; in
modello di responso di un'analisi sulle vibrazioni questo modo è possibile comunque
caratterizzare il sistema. Questa tecnica
è usata in campo sperimentale analisi modale per determinare le caratteristiche di vibrazione di una struttura.

Il battimento
Il battimento è un fenomeno che avviene per somma di
due vibrazioni di pari ampiezza, ma che differiscono
l'un l'altra per una più o meno lieve differenza di
frequenza, le quali periodicamente si sommano o si
annullano, andando a formare un'unica forza che ha un
andamento che potrebbe essere racchiuso tra due onde
sinusali identiche e sfasate tra loro di 180°.

Vibrazioni sotto vari punti di vista


La curva inviluppo del battimento

Vibrazioni Strumentali (strumenti musicali)


La condizione fondamentale affinché si produca un suono è che sia messo in vibrazione un corpo vibrante e perché
un corpo sia definito vibrante, è necessario che esso sia elastico. Una corda, ad esempio, viene definita vibrante
quando viene sottoposta a tensione.
Per ottenere suoni acuti occorrono corde sottili, corte e ben tese; per ottenere suoni gravi occorrono corde spesse,
lunghe e leggermente tese.
L'aria, come qualsiasi gas, può diventare un corpo vibrante purché sia contenuta in un tubo dalle pareti rigide che
abbia almeno una via di comunicazione con l'esterno. Distinguiamo i tubi che si utilizzano nella pratica musicale, in
base alla loro imboccatura. Quest'ultima può essere:
• A Flauto: si ha quando la corrente d’aria immessa nel tubo s'incontra con uno spigolo tagliente.
• Ad ancia Semplice: si ha quando il suono è provocato dalle vibrazioni dell'ancia che si può adattare in una
fenditura tagliata a becco, abbastanza larga da permettere un'intera oscillazione (Ancia semplice libera. Es.
Vibrazione 31

Harmonium) o in una fenditura più stretta che non la lascia passare la laminetta, consentendole di compiere
soltanto mezza oscillazione (Ancia semplice battente. Es. clarinetto e sassofono).
• Ad ancia doppia: il cui suono è provocato dal chiudersi e dall'aprirsi di una stretta fessura formata da due
sottilissime linguette di canna riunite ad un'estremità. Ad esempio, l'oboe e il fagotto.
I tubi possono essere anche aperti dai due lati (tubi aperti) o da un solo lato (tubi chiusi). Nel tubo aperto si forma un
nodo al centro e due ventri ai lati, mentre nel tubo chiuso il ventre si forma alla fine e l'aria torna indietro. La
conseguenza è che, a parità di lunghezza, un tubo chiuso produrrà un suono che è l'ottava bassa di un tubo aperto.
La frequenza, nei tubi, dipende:
1. dall’ampiezza dell'apertura attraverso la quale si immette l'aria: più l'apertura è piccola, maggiore sarà il numero
delle vibrazioni e più acuto sarà il suono;
2. dalla rapidità con la quale l'aria è immessa nel tubo (dipende dall'esecutore);
3. dalle dimensioni della colonna d'aria contenuta nel tubo: più è lungo il tubo, maggiore sarà la quantità d’aria in
esso contenuta e più grave il suono prodotto.
Per quanto riguarda, invece, le piastre e le membrane, la vibrazione di questi strumenti è regolata dalla legge del
fisico Chladni, il quale prese dei granelli di sabbia e li sparse sopra le piastre. Mettendoli in vibrazione, questi
granelli si riunivano secondo alcune linee nodali (= linee di non vibrazione) e si accorse che si ottenevano questi
disegni, più o meno geometrici.

Vibrazione di un motore
la vibrazione di un motore è data principalmente dalla sua struttura costruttiva, infatti a seconda del tipo di motore si
potrà avvertire delle vibrazioni più o meno forti, per ridurre questo problema molte case costruttrici sono ricorse a
vari sistemi per ridurre tali vibrazioni o per attutirle.
• I metodi per ridurre le vibrazioni consistono nell'equilibrare l'albero motore o di applicare l'equilibratore, un
albero in sincronia con l'albero motore, che essendo munito di un peso decentrato dall'asse di rotazione, genera
una vibrazione opposta a quella del motore, rinchiudendola o eliminandola definitivamente.
• I metodi per attutire le vibrazioni sono generalmente dati dall'applicazione di spessori di gomma, che assorbono
gran parte della vibrazione.

Vibrazione da vibratore
Le vibrazioni del vibratore o delle macchine vibranti, vengono sfruttate generalmente dalle aziende o ditte, per
migliorare un prodotto o una lavorazione, infatti se si pensa alle lavorazioni in campo edile, ed in particolare al
cemento, questo viene sollecitato da vibrazioni per occupare tutti gli spazi vuoti, infatti senza tali vibrazioni il
cemento si assesterebbe subito, senza occupare perfettamente tutto lo spazio a disposizione. Tali vibrazioni evitano
quindi la formazione di zone “vuote” rendendo il cemento meno viscoso.
Vibrazione 32

Bibliografia
• Rao, Singiresu, Mechanical Vibrations, Addison Wesley, 1990, ISBN 0-201-50156-2
• Thompson, W.T., Theory of Vibrations, Nelson Thornes Ltd, 1996, ISBN 0-412-78390-8
• Den Hartog, J. P., Mechanical Vibrations, Dover Publications, 1985, ISBN 0-486-64785-4
• Timoshenko, S. Vibration Problems In Engineering [1], Van Nostrand, 1937

Altre risorse
• Sito molto dettagliato dedicato alla fisica delle onde, (università di Modena e Reggio Emilia), [2]
• Thermotron Industries, of Electrodynamic Vibration Testing Handbook [3]
• Nelson Publishing, Evaluation Engineering Magazine [4]

Voci correlate
• Attenuazione
• Moto armonico forzato senza smorzamento
• Risonanza (fisica)
• Rumore
• Meccanica Quantistica
• Oscillatore armonico
• Suono
• Dinamica strutturale
• Mass damper
• Onda
• Trasformata di Fourier

Altri progetti
• Wikimedia Commons contiene file multimediali su Vibrazione

Note
[1] http:/ / www. archive. org/ details/ vibrationproblem031611mbp
[2] http:/ / fisicaondemusica. unimore. it/ ''Fisica-onde-musica''
[3] http:/ / www. thermotron. com/ resources/ vibration_handbook. html''Fundamentals
[4] http:/ / www. evaulationengineering. com/
Onda (fisica) 33

Onda (fisica)
Un'onda è una perturbazione che si propaga
nel tempo e nello spazio, che può trasportare
energia o quantità di moto senza comportare
un associato spostamento della materia[1] .
Le onde possono propagarsi sia attraverso
un materiale, sia nel vuoto. Ad esempio la
radiazione elettromagnetica, ed a livello
teorico la radiazione gravitazionale, possono
esistere e propagarsi anche in assenza di
materia, mentre altri fenomeni ondulatori
esistono unicamente in un mezzo, che
deformandosi produce le forze elastiche di
ritorno in grado di permettere all'onda di
propagarsi. Onda superficiale nell'acqua

Dal punto di vista matematico un'onda è descritta dall'equazione delle onde, la cui espressione varia a seconda della
tipologia di perturbazione.

Definizione
Non è semplice dare una definizione autonoma e precisa del termine onda, sebbene questo termine sia comunemente
molto usato in contesti molto differenti fra loro. La definizione delle caratteristiche necessarie e sufficienti che
identificano il fenomeno ondulatorio è flessibile. Intuitivamente il concetto di onda è qualificato come il trasporto di
una perturbazione nello spazio senza comportare un trasporto netto della materia del mezzo, qualora presente, che
occupa lo spazio stesso. Einstein e Infeld hanno cercato di rispondere alla domanda "Cos'è un'onda?" unendo questo
fatto all'esperienza comune:

(EN) (IT)
« A bit of gossip starting in Washington reaches New « Un po' di pettegolezzo che parte da Washington raggiunge
York very quickly, even though not a single individual molto rapidamente New York, anche se nessun singolo individuo
who takes part in spreading it travels between these two che prende parte allo spargimento della voce viaggia fra queste
cities. There are two quite different motions involved, due città. Ci sono due movimenti abbastanza differenti in
that of the rumor, Washington to New York, and that of questione, quello della voce, da Washington a New York, e
the persons who spread the rumor. The wind, passing quello delle persone che spargono la voce. Il vento, che passa
over a field of grain, sets up a wave which spreads out sopra un campo di grano, genera un'onda che si sparge lungo
across the whole field. Here again we must distinguish tutto l'intero campo. Qui dobbiamo distinguere ancora fra il
between the motion of the wave and the motion of the movimento dell'onda ed il movimento delle singole piante, che
separate plants, which undergo only small oscillations subiscono soltanto le piccole oscillazioni [...] Le particelle che
[...] The particles constituting the medium perform only costituiscono il mezzo realizzano soltanto piccole vibrazioni, ma
small vibrations, but the whole motion is that of a l'intero movimento è quello di un'onda progressiva. La cosa
progressive wave. The essentially new thing here is that essenzialmente nuova qui è quella che per la prima volta
for the first time we consider the motion of something consideriamo il movimento di qualcosa che non sia materia, ma
which is not matter, but energy propagated through di energia propagata attraverso la materia.  »
matter.  »
[1]
(Albert Einstein e Leopold Infeld, What is a wave? in The Evolution of Physics )

Una vibrazione può essere definita come il moto avanti e indietro intorno a un punto definito x, tuttavia una
vibrazione non è necessariamente un'onda. Infatti in un'onda sulla superficie dell'acqua, oppure lungo una stringa,
Onda (fisica) 34

l'energia vibrazionale si muove dalla sorgente sotto forma di perturbazione senza un moto collettivo delle particelle
dell'acqua o della corda in cui si propaga[2] . Questa rappresentazione diventa però problematica quando si ha a che
fare con le onde stazionarie (per esempio le onde sulle corde di una chitarra), dove l'energia in tutte le direzioni è
identica e non viene trasportata lungo lo spazio, perciò talvolta nella definizione di onda si cita solamente la
propagazione di un disturbo senza richiedere il trasporto di energia o quantità di moto[3] . Per le onde
elettromagnetiche (ad esempio la luce) bisogna considerare ulteriormente che il concetto di mezzo non può essere
applicato.
Per queste ragioni la teoria delle onde rappresenta una particolare branca della fisica teorica riguardante lo studio
delle onde indipendentemente dalla loro origine fisica. Questa peculiarità deriva dal fatto che la teoria matematica
delle onde si può applicare per descrivere fenomeni ondulatori in contesti anche molto differenti. Per esempio
l'acustica si distingue dall'ottica per il fatto che la prima si occupa del trasporto vibrazionale di energia meccanica,
mentre la seconda di perturbazioni del campo elettrico e magnetico. Concetti come massa, inerzia, quantità di moto,
elasticità diventano quindi cruciali per descrivere i processi ondulatori acustici, al contrario dell'ottica. La struttura
particolare del mezzo introduce inoltre alcuni fattori di cui bisogna tenere conto, come ad esempio i fenomeni
vorticosi per l'aria e l'acqua o la complessa struttura cristallina nel caso di alcuni solidi.
Altre proprietà tuttavia possono essere usate per descrivere indifferentemente tutti i tipi di onde. Per esempio,
basandosi sull'origine meccanica delle onde acustiche, ci può essere un movimento nello spazio e nel tempo di una
perturbazione se e solo se il mezzo non è né infinitamente flessibile né infinitamente rigido. Se tutte le parti che
compongono il mezzo si dispongono in modo rigido l'una rispetto all'altra, non sarà possibile alcun movimento
infinitesimo e quindi non ci sarà alcuna onda (ad esempio l'idealizzazione del corpo rigido). Al contrario, se tutte le
parti sono indipendenti l'una dall'altra senza alcun tipo di interazione reciproca, non vi sarà alcuna onda in quanto
non ci sarà trasmissione di energia fra le varie parti componenti del corpo. Nonostante queste considerazioni non si
possano applicare alle onde che non si propagano in alcun senso, si può comunque trovare caratteristiche comuni a
tutte le onde: ad esempio, in un'onda la fase è differente per punti adiacenti nello spazio, perché la vibrazione
raggiunge questi punti in tempi differenti.
Similmente, alcuni fenomeni che si sono scoperti in determinati contesti, sono poi stati generalizzati ad altri
fenomeni ondulatori. L'interferenza è stata studiata da Young nel caso particolare delle onde luminose, tuttavia è
stata recentemente analizzata in alcuni problemi riguardanti le proprietà atomiche quantistiche dell'elettrone[4] [5] .

Descrizione matematica
Un funzione rappresenta
un'onda dotata di ampiezza costante
che si propaga lungo l'asse x di un
sistema di riferimento cartesiano se la
dipendenza dallo spazio x e dal tempo t
è data dalla sola combinazione
:

Descrizione dell'onda

dove v è una costante positiva.


L'espressione matematica dell'onda è la soluzione generale dell'equazione delle onde, e a seconda che l'argomento sia
o , l'onda si dice rispettivamente regressiva o progressiva.
Onda (fisica) 35

La perturbazione dipende dall'argomento e trasla quindi lungo spazio e nel tempo a velocità v
costante, senza cambiare la sua forma. Se si considera, infatti, la stessa perturbazione al tempo , si ha, per la
definizione di onda:

Segue che , e si ottiene di conseguenza:

Si definisce fronte d'onda il luogo dei punti nello spazio in cui assume il medesimo valore ad un determinato
istante temporale.
Se è periodica nel suo argomento allora descrive un'onda periodica. La periodicità dell'onda è identificata dal
periodo T, che rappresenta il tempo necessario affinché un ciclo completo di oscillazione venga completato. La
frequenza dell'onda è inoltre il numero di periodi per unità di tempo; se l'unità di tempo è il secondo la frequenza
si misura in hertz.
Periodo e frequenza sono legate dalla relazione:

Ad un periodo temporale corrisponde un periodo spaziale detto lunghezza d'onda , e vale la relazione:

L'equazione delle onde


In una dimensione, l'equazione delle onde per una funzione scalare è un'equazione differenziale alle
derivate parziali iperbolica della forma:

la cui soluzione generale si ottiene definendo le variabili:[6]

e riscrivendo l'equazione:

la cui soluzione è dunque:

ovvero:

Tale soluzione di basa sul principio di Duhamel.[7]


Onda (fisica) 36

Caratteristiche
Le onde periodiche sono caratterizzate da
una cresta (punto alto) e da un ventre (punto
più basso) e sono innanzitutto caratterizzate
come longitudinali o trasversali. Nelle onde
trasversali la vibrazione è perpendicolare
alla direzione di propagazione (ad esempio
le onde su una corda, le parti infinitesime si
muovono in alto e in basso in verticale,
mentre l'onda si propaga orizzontalmente).
Le onde longitudinali sono invece
caratterizzate da una vibrazione concorde
con la direzione di propagazione dell'onda
(ad esempio le onde sonore, le particelle
dell'aria si muovono infinitesimamente nella
stessa direzione di propagazione del suono).
Esistono onde che sono sia longitudinali che
trasversali e sono dette onde miste (ad
esempio le onde sulla superficie del mare). A = Onde di acqua profonda.
B = Onde marine superficiali. Il movimento ellittico/circolare della superficie del
Tutte le onde hanno un comportamento mare caratterizza un'onda mista.
comune in situazioni standard. Tutte le onde 1 = Direzione di propagazione dell'onda
possiedono le seguenti proprietà: 2 = Cresta
3 = Ventre
• Riflessione quando una onda cambia
direzione a causa di uno scontro con un
materiale riflettente.
• Rifrazione il cambio di direzione di un'onda causata dal cambio del mezzo di propagazione (ad esempio di densità
diversa).
• Diffrazione la diffusione delle onde, per esempio quando passano per una fessura stretta
• Interferenza la somma vettoriale (possono annullarsi) di due onde che entrano in contatto
• Dispersione la divisione di un'onda in sotto onde in dipendenza della loro frequenza.

Polarizzazione
Un'onda è polarizzata se può oscillare solo in una direzione. La polarizzazione di un'onda trasversale descrive la
direzione di oscillazione, nel piano perpendicolare alla direzione di moto. Onde longitudinali come quelle sonore non
hanno polarizzazione, in quanto per queste onde la direzione di oscillazione è lungo la direzione di moto. Un'onda
può essere polarizzata con un filtro polarizzatore.

Mezzi di propagazione
Il mezzo in cui le onde viaggiano può essere classificato a seconda delle seguenti proprietà:
• Mezzo limitato se ha una estensione finita (altrimenti viene chiamato illimitato)
• Mezzo omogeneo se le proprietà fisiche del mezzo in un suo punto qualsiasi non cambiano a seguito di una
traslazione (spostamento rettilineo) da quel punto
• Mezzo isotropo se le proprietà fisiche del mezzo in un suo punto qualsiasi non cambiano a seguito di una
rotazione da quel punto. Affermare che un mezzo è isotropo equivale a dire che "è lo stesso" in tutte le direzioni
(altrimenti viene chiamato anisotropo)
Onda (fisica) 37

Tipologia di onda
A seconda delle caratteristiche le onde si possono classificare in molti modi.
Riguardo alla propagazione si hanno:
• onde piane
• onde sferiche
• onde cilindriche
Riguardo alle dimensioni del mezzo in cui si propagano:
• Onde unidimensionali o lineari
• Onde bidimensionali
• Onde tridimensionali
Riguardo alla loro direzione vettoriale di propagazione cioè alla loro polarizzazione:
• Onde longitudinali
• Onde trasversali
A seconda del mezzo in cui si propaga e della caratteristica fisica che usiamo per rappresentarla:
• onde elastiche o di spostamento, in cui poniamo l'attenzione sullo spostamento vettoriale;
• "onda di velocità", se poniamo l'attenzione sulla velocità delle particelle;
• "onda di densità", se studiamo la densità volumica e per questo ne è associata un' "onda di pressione".
• radiazione elettromagnetica che riguarda un insieme di onde come luce, onde radio, raggi X nel cui caso la
propagazione non ha bisogno di un mezzo, le onde posso propagarsi ne vuoto;
Alcune onde caratteristiche sono:
• suono - una onda meccanica che si propaga attraverso gas (in genere aria), liquidi o solidi, la cui frequenza può
essere percepita dall'apparato uditivo. Dello stesso tipo sono le onde sismiche create dai terremoti che possono
essere di tipo S, P o L.
• onde oceaniche di superficie sono perturbazioni che si propagano nell'acqua (vedi anche surf e tsunami).
• onde gravitazionali sono fluttazioni del campo gravitazionale. La loro esistenza è stata prevista dalla relatività
generale. Queste onde sono non lineari.

Le onde sinusoidali
Nel caso di un'onda periodica, la rappresentazione in serie di Fourier
permette di descrivere l'onda come somma di termini sinusoidali del
tipo:

Onda che può essere rappresentata da un semplice


moto armonico. Secondo il teorema di Fourier
ogni onda può essere scritta come sommatoria
(eventualmente infinita) di semplici onde
armoniche

In questa rappresentazione è il vettore d'onda, che identifica vettorialmente la direzione di propagazione dell'onda
in luogo della velocità di propagazione. Il suo modulo è chiamato pulsazione spaziale, ed è legato alla lunghezza
d'onda dalla relazione:
Onda (fisica) 38

Il vettore è l'ampiezza dell'onda, e rappresenta il massimo valore della grandezza rappresentativa dell'onda in un
periodo. Se all'istante iniziale la funzione assume un valore diverso da zero, il termine rappresenta la fase
iniziale.
Un'onda può essere descritta per mezzo della sua frequenza angolare, che è correlata alla frequenza secondo la
relazione:

Le onde sinusoidali sono una soluzione particolare dell'equazione generale delle onde. L'onda è una funzione dello
spazio e tempo, se si considera un'onda monodimensionale nel descriverla si considerano quindi la posizione
orizzontale x dell'impulso ed il tempo t a cui si osserva l'onda stessa: l'ampiezza dell'oscillazione y delle particelle
attorno alla posizione di equilibrio viene fatta nei termini di questi elementi: . I punti di vista sono
quindi due:
• scegliendo di valutare la dimensione temporale (x fissato), esprimeremo l'oscillazione y in dipendenza dal tempo
t. .
• scegliendo invece di focalizzare l'attenzione sullo stato di un mezzo perturbato in un certo istante ( fissato)
abbiamo l'istantanea dell'onda, appunto, cioè la forma d'onda...il suo profilo al tempo fissato di osservazione:
l'oscillazione y è espressa in funzione della posizione x. .
In entrambi i casi si può partire dalla dipendenza co-sinusoidale delle variabili nel moto armonico, ricavate
considerando quest'ultimo come una opportuna proiezione di un moto circolare uniforme:

dove A è l'ampiezza dell'oscillazione, e è la fase iniziale: attribuendo a un valore di 90 gradi si può passare da
una forma in coseno ad una in seno, quindi le espressioni sono equivalenti. L'espressione è in y per attuare la
"visualizzazione" dell'oscillazione lungo l'asse verticale del sistema coordinato.
Nel primo caso dell'elenco, esprimiamo:

(1)

( è il periodo dell'onda, si è applicata la definizione di velocità angolare del moto circolare; la fase iniziale è
nulla); se la perturbazione sul mezzo si propaga dall'inizio muovendosi con velocità di fase , allora essa
raggiungerà un altro punto (a destra dell'origine) ad una certa distanza dopo un tempo:

Ciò significa che il punto alla coordinata avrà, al tempo t, uno spostamento verticale uguale a quello che aveva il
punto iniziale t1 secondi prima! La propagazione è quindi descritta dall'espressione:

Raccogliendo si può passare ad una forma più comune che talvolta si trova sui testi:

Se chiamiamo numero di onda k la quantità , e pulsazione (in pratica una velocità angolare) il rapporto già

noto dallo studio del moto circolare perveniamo infine formalmente all'equazione delle onde armoniche:
Onda (fisica) 39

Se all'espressione in coseno iniziale, la (1), si fosse aggiunta una fase di 90 si sarebbe ottenuta un'espressione in
seno negativo in virtù di: ; questo avrebbe portato, seguendo il medesimo
procedimento, a un'espressione sinusoidale con i segni interni invertiti ( ) che talvolta viene
presentata sui testi.
Considerando il secondo caso dell'elenco sopra, questa volta partiamo da una istantanea dell'onda al tempo fissato,
cioè da una forma d'onda; volendo fare tutti i passaggi:

(2)

Profilo di un'onda sinusoidale progressiva che varia nel tempo,

Abbiamo espresso il tempo come , sostituendo ed usando la relazione fondamentale delle onde
(la lunghezza d'onda è lo spazio percorso da un'onda con velocità di fase v in un periodo ): in ogni caso, quel che
conta è che si ottiene una cosinusoide di periodo spaziale dipendente solo dalla posizione x. A questo punto,
possiamo fare un ragionamento analogo a quello precedente: se l'impulso si sta muovendo lungo l'asse delle ascisse,
inducendo una oscillazione sulle ordinate, ad un certo istante successivo a quello fissato il punto alla certa coordinata
x avrà una elevazione uguale a quella del punto x0 da cui l'impulso è partito t secondi prima; l'onda si propaga quindi
(verso destra) con un profilo dato da:

mentre avremmo dovuto considerare una espressione in parentesi tonda del tipo (x+vt) se avessimo voluto la
propagazione verso sinistra. Si introduce nuovamente la dipendenza dal tempo. Se può aiutare a visualizzarlo
meglio, si consideri con x0 nell'origine degli assi ed x alla sua destra: se inizialmente y=f(x0)
ricordando l'elenco sopra (descriviamo l'oscillazione solo in dipendenza dall'ordinata se fissiamo il tempo), allora
dopo t secondi di propagazione dell'impulso, dato che l'elevazione verticale è uguale, si avrà y=f(x-vt).

In ogni caso, esprimendo e sostituendo, si ha l'espressione:


Onda (fisica) 40

che considerando la relazione goniometrica è analoga a quella ottenuta in precedenza (perché


si cambiano i segni dell'argomento). Anche qui, l'intero ragionamento si poteva fare in seno sfasando la (2) di -90
gradi dato che: : analogamente all'osservazione di cui sopra, così facendo si sarebbe
arrivati a: .

Fenomeni Ondulatori

Stringa Vibrante
Le onde che possono svilupparsi lungo una stringa sono di tipo
trasversale e soddisfano l'equazione delle onde di d'Alembert
solamente se l'ampiezza della perturbazione che genera il fenomeno
ondulatorio è piccola. In questo limite si ricava che la velocità di
propagazione è pari a:

Un'onda che si propaga lungo una stringa


venendo riflessa e sfasata all'incontro degli
estremi fissi di oscillazione.

dove è la tensione a cui è sottoposta la stringa mentre è la sua densità lineare, cioè la massa per unità di
lunghezza. Un'onda su una stringa può essere riflessa in seguito all'urto contro un estremo fisso oppure essere
parzialmente trasmessa e parzialmente riflessa in seguito all'incontro di una giunzione fra due stringhe di differente
densità lineare . Questo tipo di onde, insieme al fenomeno delle onde stazionarie, sono alla base del
funzionamento di molti strumenti a corda.

Onde Elettromagnetiche
Un'onda elettromagnetica consiste di due onde che sono
oscillazioni del campo elettrico e del campo magnetico. Un'onda
elettromagnetica viaggia nella direzione sempre perpendicolare
alle direzioni di oscillazione dei campi ed è quindi un'onda
trasversale[8] . Nel 19esimo secolo James Clerk Maxwell ha
scoperto che, nel vuoto, i campi elettrici e magnetici soddisfano
l'equazione delle onde, entrambi con una velocità di propagazione
pari a quella della luce, come determinato sperimentalmente da
Heinrich Hertz[9] . Da questo fatto emerse che la luce è un'onda
Un'onda elettromagnetica è composta dall'oscillazione
elettromagnetica. Le onde elettromagnetiche hanno caratteristiche ortogonale alla direzione del moto del campo elettrico
di propagazione nei mezzi o in presenza di ostacoli dipendenti (in rosso) e del campo magnetico (in blu).
dalla frequenza[10] (e quindi dalla lunghezza d'onda), alcuni
materiali sono trasparenti al passaggio della radiazione elettromagnetica sulla lunghezza d'onda del visibile (come
alcuni tipi di vetro), mentre le onde radio sono difficilmente ostacolate nella propagazione da oggetti di piccola
dimensione, come anche piccoli edifici[11] , infine la radiazione elettromagnetica a lunghezza d'onda inferiore a
quella degli ultravioletti può essere dannosa per la salute dell'uomo[12] .
Onda (fisica) 41

Onda stazionaria
Un'onda stazionaria è un'onda che rimane in una posizione spaziale
costante fissa nel tempo. Questo fenomeno può accadere per esempio
quando il mezzo si muove in direzione opposta all'onda oppure come
risultato di una interferenza fra due onde, di eguale ampiezza e
Un'onda stazionaria, i pallini rossi rappresentano i
frequenza, che viaggiano in opposte direzioni[13] . punti che non sono coinvolti dall'oscillazione,
detti nodi
In un'onda stazionaria vi sono alcuni punti, detti nodi, che restano fissi
e non oscillano[14] . Questo fatto determina a stretto rigore per questa
tipologia di perturbazione delle caratteristiche intrinsecamente differenti da una "onda" nel senso stretto del termine.
In quanto tale, un'onda stazionaria può permettere per esempio di immagazzinare energia in una regione spaziale ma
non rappresenta quindi alcun trasporto energetico netto fra differenti punti dello spazio[15] .
La sovrapposizione di due onde che si muovono in direzione opposte con uguale ampiezza e frequenza, ma fase
opposta è un fenomeno tipico indotto dalla riflessione di una singola onda contro un ostacolo fisso, esattamente
quanto accade per esempio in una onda elettromagnetica che incide contro una lastra di materiale conduttore. Questo
meccanismo è usato per generare onde stazionarie ed è alla base del funzionamento di alcuni strumenti musicali a
corda, a fiato[16] e delle cavità risonanti[17] .

Note
[1] Albert Einstein; Leopold Infeld, The Evolution of Physics, (in en) CUP Archive, 1971. 101 ISBN 0-521-09687-1
[2] Julian L. Davis, Mathematics of wave propagation, (in en) Princeton University Press, 2000. 9-15 ISBN 0-691-02643-2
[3] wave (http:/ / www. britannica. com/ EBchecked/ topic/ 637813/ wave). URL consultato il 12 gennaio 2011.
[4] Chiara Macchiavello; G. M. Palma; Anton Zeilinger, Quantum computation and quantum information theory, (in en) World Scientific, 2000.
19 ISBN 981-02-4117-8
[5] Victoria M. Nield; David A. Keen, Diffuse neutron scattering from crystalline materials, (in en) Oxford University Press, 2001. 5-7 ISBN
0-19-851790-4
[6] Eric W. Weisstein. [| dataarchivio = d'Alembert's Solution]. MathWorld. URL consultato il 2009-01-21. (archiviato dall'url originale)
[7] Jalal M. Ihsan Shatah, Michael Struwe, The linear wave equation in Geometric wave equations (http:/ / books. google. com/
?id=zsasG2axbSoC& pg=PA37) , American Mathematical Society Bookstore, 2000. 37 ff ISBN 0821827499
[8] Kenneth Frederick Sander; Geoffrey Alexander Leslie Reed, Transmission and propagation of electromagnetic waves, (in en) CUP Archive,
1986. 1-10 ISBN 0-521-31192-6
[9] Morris H. Shamos, Great experiments in physics: firsthand accounts from Galileo to Einstein, (in en) Courier Dover Publications, 1987.
184-197 ISBN 0-486-25346-5
[10] Julius Adams Stratton, Electromagnetic theory, (in en) Wiley-IEEE, 2007. 324-329 ISBN 0-470-13153-5
[11] Ardéshir Guran; Raj Mittra; Philip J. Moser, Electromagnetic wave interactions, (in en) World Scientific, 1996. 101 ISBN 981-02-2629-2
[12] James F. McKenzie; R. R. Pinger; Jerome Edward Kotecki, An introduction to community health, (in en) Jones & Bartlett Learning, 2005.
488 ISBN 0-7637-2953-1
[13] John Avison, The World of Physics, (in en) Nelson Thornes, 1989. 460-461 ISBN 0-17-438733-4
[14] David Parker, Fields, flows, and waves: an introduction to continuum models, (in en) Springer, 2003. 86 ISBN 1-85233-708-7
[15] William F. Hughes; John A. Brighton, Schaum's outline of theory and problems of fluid dynamics, (in en) McGraw-Hill Professional, 1999.
322 ISBN 0-07-031118-8
[16] Mikio Tohyama; Hideo Suzuki; Yoichi Ando, The nature and technology of acoustic space, (in en) Elsevier, 1995. 116-122 ISBN
0-12-692590-9
[17] W. N. Cottingham; D. A. Greenwood, Electricity and magnetism, (in en) Cambridge University Press, 1991. 51 ISBN 0-521-36803-0
Onda (fisica) 42

Voci correlate
• Equazione delle onde
• Dualismo onda-particella
• Onda elettromagnetica
• Onda elastica
• Onda piana
• Onda monocromatica
• Onda di pressione
• Onda stazionaria
• Ondoscopio
• Effetto Doppler
• Polarizzazione della radiazione elettromagnetica
• Spettro elettromagnetico
• Velocità di gruppo
• Velocità di fase
• Vettore di Poynting
• Velocità della luce
• Indice di rifrazione
• Legge di Snell
• Legge di Wihelm Wien
• Onde elettromagnetiche nei conduttori
• Periodo
• Frequenza
• Lunghezza d'onda
• Ampiezza
• Fase (segnali)

Altri progetti
• Wikimedia Commons contiene file multimediali su Onda (fisica)

Collegamenti esterni
• http://www.falstad.com/mathphysics.html
• Onde trasversali e longitudinali (http://74.125.39.104/search?q=cache:LnQMdFYRKTAJ:fisicaondemusica.
unimore.it/Onde_trasversali_e_longitudinali.html+spazio+vuoto+onda+longitudinale&hl=it&ct=clnk&
cd=7&gl=it/)
• (IT) Fisica, onde Musica (http://fisicaondemusica.unimore.it/) a cura del Progetto Lauree Scientifiche del
Dipartimento di Fisica dell'Università di Modena e Reggio Emilia, sito con Licenza Creative Commons
Frequenza 43

Frequenza
La frequenza è una grandezza che concerne fenomeni periodici o processi ripetitivi. In fisica la frequenza di un
fenomeno che presenta un andamento costituito da eventi che nel tempo si ripetono identici o quasi identici, viene
data dal numero degli eventi che vengono ripetuti in una data unità di tempo. Un modo per calcolare una tale
frequenza consiste nel fissare un intervallo di tempo, nel contare il numero di occorrenze dell'evento che si ripete in
tale intervallo di tempo e nel dividere quindi il risultato di questo conteggio per la ampiezza dell'intervallo di tempo.
In alternativa, si può misurare l'intervallo di tempo tra gli istanti iniziali di due eventi successivi (il periodo) e quindi
calcolare la frequenza come grandezza reciproca di questa durata.

dove T esprime il periodo. Il risultato è dato nell'unità di misura chiamata hertz (Hz), dal fisico tedesco Heinrich
Rudolf Hertz, dove 1 Hz caratterizza un evento che occorre una volta in un secondo.
Gli strumenti usati per la misura sono l'oscilloscopio e il frequenzimetro, il primo permette una misurazione
complementare ad altre, in circostanze non impegnative; per misure accurate e precise occorre usare il secondo, il
quale è uno strumento elettronico specializzato per misure di frequenza e di tempo.

Frequenza dei fenomeni ondulatori


Nel misurare la frequenza del suono, di onde elettromagnetiche (come le onde radio o la luce), di segnali elettrici
oscillatori o di altre onde simili, la frequenza in hertz è il numero di cicli della forma d'onda ripetitiva per secondo.
La frequenza f ha una relazione di proporzionalità inversa con la grandezza lunghezza d'onda. La frequenza è pari
alla velocità c dell'onda divisa per la lunghezza d'onda λ:

Frequenza di campionamento
La frequenza di campionamento è uno dei parametri fondamentali che caratterizzano il processo di conversione
analogico-digitale nei sistemi elettronici di elaborazione dell'informazione.
In un sistema elettronico, l'informazione è usualmente codificata in un segnale di tensione variabile nel tempo. Si
parla di segnale analogico se esso varia in modo continuo in ciascun istante di tempo, di segnale numerico se esso
può assumere solo un numero finito di valori discreti oppure di segnale digitale se i valori che può assumere sono
solo 0 ed 1, in precisi istanti di tempo. Il processo di campionamento consente di convertire un segnale analogico in
un segnale digitale e consiste nel misurare e registrare, in precisi istanti di tempo (istanti di campionamento) il valore
istantaneo del segnale analogico in esame. La sequenza di tali valori, detti campioni, costituisce il segnale digitale. Il
dispositivo che realizza la conversione da segnale analogico a segnale digitale viene detto convertitore A/D. La
frequenza di campionamento indica il numero di campioni registrati in un secondo: il Teorema di Nyquist-Shannon
stabilisce che, affinché sia possibile ricostruire il segnale analogico a partire dai suoi campioni, è necessario che la
frequenza di campionamento sia almeno il doppio della frequenza più alta contenuta nello spettro del segnale di
partenza: .
Ad esempio, un segnale audio ha uno spettro compreso fra 20 Hz e 20 kHz: per poter registrare il segnale su un
supporto digitale (come, un CD audio) la frequenza di campionamento deve essere almeno di 40 kHz. Usualmente, il
campionamento viene effettuato a 44.1 kHz, valore che soddisfa appieno il teorema di Nyquist-Shannon e che
consente di ricostruire fedelmente il segnale analogico di partenza.
Frequenza 44

Voci correlate
• Onda
• Lunghezza d'onda
• Periodo
• Ampiezza
• Radiazione elettromagnetica
• Onda elettromagnetica
• Luce
• Suono
• Battiti per minuto
• Velocità di clock
• Spettro acustico

Altri progetti
• Wikimedia Commons contiene file multimediali su Frequenza

Lunghezza d'onda
In fisica, la lunghezza d'onda di un'onda periodica è la
distanza tra due creste o fra due ventri della sua forma
d'onda, e viene comunemente indicata dalla lettera
greca λ.

Definizione
La lunghezza d'onda λ è definita come:

La lunghezza d'onda è la distanza tra due massimi o due minimi di


una funzione periodica, in questo caso una sinusoide.

dove è velocità di propagazione e la frequenza dell'onda.


La lunghezza d'onda è correlata al numero d'onda dalla relazione:

Quando le onde, solitamente quelle elettromagnetiche, passano attraverso un materiale, la loro lunghezza d'onda
viene ridotta da un fattore pari all'indice di rifrazione n del materiale, mentre la frequenza non cambia. Detta λ0 la
lunghezza d'onda nel vuoto, la lunghezza d'onda λ' in un materiale con indice di rifrazione n è data da:
Lunghezza d'onda 45

Le lunghezze d'onda della radiazione elettromagnetica sono normalmente riferite al vuoto, anche se questo non è
sempre dichiarato esplicitamente. La velocità della onde elettromagnetiche è la velocità della luce, circa 3×108.
Quindi, per fare un esempio, la lunghezza d'onda di un segnale a 100MHz (un'onda radio), è circa 3×108 m/s diviso
100×106 Hz = 3 metri.

Lunghezza d'onda di de Broglie


Louis-Victor de Broglie scoprì che tutte le particelle con una quantità di moto hanno una lunghezza d'onda, chiamata
lunghezza d'onda di de Broglie. Per una particella relativistica, questa lunghezza d'onda è data da

dove h è la costante di Planck, p è la quantità di moto della particella, m è la massa della particella, v è la velocità
della particella, e c è la velocità della luce.

Bibliografia
• Peter Atkins; Julio De Paula, Chimica Fisica, 4a ed. Bologna, Zanichelli, settembre 2004. ISBN 88-08-09649-1

Voci correlate
• Onda
• Frequenza
• Periodo
• Ampiezza
• Radiazione elettromagnetica
• Spettro elettromagnetico
• Firma spettrale

Altri progetti
• Wikimedia Commons contiene file multimediali su Lunghezza d'onda
Periodo (fisica) 46

Periodo (fisica)
Il periodo è una grandezza fisica relativa alle onde, si indica generalmente con T e si misura in secondi (s).
La minima distanza tra due punti in fase tra loro si dice lunghezza
d'onda e si esprime col simbolo λ (lambda).

Il periodo è l'intervallo temporale corrispondente alla lunghezza d'onda, cioè il tempo in cui l'onda compie
un'oscillazione e torna alla condizione iniziale. Si può quindi sfruttare la definizione di velocità per legare lunghezza
d'onda e periodo alla velocità di propagazione dell'onda, ottenendo la formula: .

Il periodo è la grandezza inversa della frequenza, pertanto la espressione precedente si può scrivere anche:
.
Il periodo è anche legato a un'altra importante grandezza delle onde: la pulsazione, presente nell'equazione del moto
armonico (la quale equazione vale anche per il moto ondulatorio), data dal rapporto , le cui rispettive voci

sono il paragrafo sull'equazione del moto armonico e il moto armonico.

Se riferito al moto armonico del pendolo, il periodo (intervallo di tempo in cui il pendolo compie un'oscillazione

completa) si ricava attraverso l'espressione: , ove l è pari alla lunghezza del filo, e g all'accelerazione di
Periodo (fisica) 47

gravità.

Voci correlate
• Onda
• Frequenza
• Lunghezza d'onda
• Ampiezza

Ampiezza
L'ampiezza, in fisica, è la massima variazione di una grandezza in
un'oscillazione periodica.
Nell'equazione semplice dell'onda

A è l'ampiezza dell'onda.
Ampiezza nella saldatura a ultrasuoni
L’ampiezza della vibrazione deve essere determinata in base al materiale da lavorare. Evidente è la differenza di
ampiezza tra le materie plastiche amorfe e quelle semicristalline. Queste ultime sono caratterizzate da un legame
molecolare meno definito dei materiali amorfi. Il fattore di smorzamento (attitudine delle varie resine alla
trasmissione delle vibrazioni) è più elevato, quindi l’ampiezza caratteristica deve aumentare. In pratica nei materiali
semicristallini diminuisce la propagazione delle vibrazioni prodotte dal contatto con il sonotrodo in relazione al
fattore di smorzamento.
In alcuni casi, sebbene si utilizzi un sistema di vibrazione correttamente dimensionato e si operi con l’ampiezza
caratteristica del materiale, si deve correggere il valore poiché il processo di saldatura non risulta ottimale.
Si aumenta l’ampiezza quando:
• Si hanno difficoltà nel produrre energia nella zona richiesta e si ottengono saldature lente o insufficienti
• Si lavora con pressioni di spinta elevate
• Si notano dei diaframmi o rotture sulle superfici di contatto (i pezzi circolari sono forati al centro, effetto flash)
• Durante la rivettatura, la fusione ha luogo alla base del rivetto invece che sulla superficie
• I pezzi presentano dei segni a causa del tempo di vibrazione troppo lungo
Si diminuisce l’ampiezza quando:
• Gli ultrasuoni sono emessi con difficoltà o il generatore entra in protezione
• Gli ultrasuoni si bloccano con basse pressioni di spinta
• Si passa da un sonotrodo pieno ad uno con scanalature
• I pezzi si frantumano o l’inserto metallico, nel caso di inserimento, si rompe
• Il sonotrodo si scalda molto
Per aumentare o diminuire l’ampiezza si interviene generalmente sui componenti del gruppo vibrante. In genere si
sostituisce il booster. Con i generatori di ultima concezione, è possibile effettuare questa operazione con controlli
elettronici. Tra tutti i parametri che governano la saldatura, l’ampiezza di vibrazione è sicuramente il parametro più
importante.
Ampiezza 48

Voci correlate
• Onde e le loro proprietà:
• Frequenza
• Periodo
• Lunghezza d'onda
• Modulazione d'ampiezza
• Ultrasuoni
• Sonotrodo
• Saldatura a ultrasuoni

Bibliografia
• Mario Ferraris, “Saldatura ad ultrasuoni delle materie plastiche" 1ª edizione, ottobre 2001

Collegamenti esterni
• http://www.lucevirtuale.net/definizioni/definizione_5.html

Acustica
L'acustica (dal greco ἀκούειν, "udire") è quella branca della fisica che studia il suono, le sue cause - le onde di
pressione -, la sua propagazione e la sua ricezione. In un'accezione più generale, l'acustica comprende anche lo
studio degli infrasuoni e degli ultrasuoni, che non sono percepibili dall'uomo attraverso l'udito, ma si comportano -
da un punto di vista fisico - nello stesso modo. Più in generale, si intende talvolta con acustica lo studio delle
vibrazioni meccaniche nei mezzi materiali.

Storia essenziale e cenni di teoria


I primi studi sul suono furono eseguiti da Pitagora nel VI secolo a.C., ma l'ipotesi che il suono fosse una
conseguenza di onde di pressione è stata sostenuta da Crisippo. Le conoscenze degli antichi greci erano comunque
alquanto raffinate, come dimostra il famoso teatro di Epidauro.
L'acustica come scienza si sviluppa a partire dal 1600. Tra i principali protagonisti si ricorda Mersenne, che compì la
prima misura della velocità del suono.
Attraverso lo sviluppo della matematica si riesce ad esprimere in forma moderna l'equazione generale che regola la
propagazione delle onde sonore in un fluido, combinando l'equazione di Eulero (equazione del moto o di legge di
conservazione della quantità di moto)

con l'equazione di continuità, che rappresenta la legge della conservazione della massa

e con l'equazione di stato, che descrive lo stato termodinamico del fluido

si ottiene l'equazione delle onde sonore o equazione di Helmholtz in assenza di sorgenti.


Acustica 49

Tale equazione descrive la variazione della pressione nello spazio e nel tempo, nell'ipotesi di propagazione in mezzi
omogenei, isotropi e senza perdite dissipative. Il termine a rappresenta la velocità di propagazione dell'onda sonora
nel mezzo considerato. Nel caso di propagazione attraverso un gas vale:

Nel caso dell'aria, assumendo i valori

alla temperatura di 0 °C e alla pressione di 1 atm

La risoluzione dell'equazione di Helmholtz, effettuata attraverso sistemi di integrazione numerica e l'ausilio di


calcolatori elettronici, porta alla descrizione accurata e completa di qualunque fenomeno acustico. Nel caso di mezzo
lineare omogeneo privo di perdite si può utilizzare nella rappresentazione del sistema un modello lineare stazionario.
In tale assunzione vale la pena notare come la soluzione dell'equazione di Helmholtz in presenza di una sorgente
:

è data dalla funzione di Green. Ne segue che la soluzione dell'equazione è data, per una generica sorgente di campo
, dalla convoluzione della medesima con la funzione di Green :

Lo studio dell'acustica è stato fondamentale nello sviluppo delle arti. Per alcune di queste, specialmente nel campo
delle scale musicali e degli strumenti musicali, sono state sviluppate teorie esaurienti soltanto dopo anni di studio
scientifico e di sperimentazione da parte dei musicisti. Ad esempio, molto di quanto oggi si sa sull'acustica in
architettura è stato appreso dopo secoli di prove ed errori, e soltanto recentemente è stato formalizzato in modo
rigorosamente scientifico.

Propagazione sonora in campo libero


Il caso più semplice è quello in cui un suono o un rumore si propaga liberamente, senza incontrare alcun ostacolo: si
parla in questo caso di "campo libero". In questa ipotesi ed in presenza di mezzo non dissipativo i parametri intensità
(I), potenza (W) e pressione (p) sono correlati dalla formula

da cui risulta che l'intensità e la pressione (o meglio il quadrato della pressione) decrescono con il quadrato della
distanza (r) dalla sorgente (legge dell'inverso del quadrato). Basti pensare infatti che una generica sorgente
puntiforme produce un fronte d'onda sferico sul quale si distribuisce la potenza associata all'onda acustica. Di
conseguenza quindi la potenza in un punto a distanza (r) dalla sorgente sarà uguale alla potenza irradiata dalla
sorgente divisa la superficie di una sfera di raggio (r). Il fenomeno della distribuzione spaziale della potenza
associata all'onda acustica non è il solo a produrre un'attenuazione dell'intensità d'onda.
In termini logaritmici significa che ad ogni raddoppio della distanza il livello di pressione sonora decresce di 6 dB. Il
decremento del livello sonoro all'aumentare della distanza dalla sorgente segue la legge seguente
Acustica 50

Settori applicativi
Dal punto di vista applicativo, l'acustica può essere suddivisa in numerosi settori: l'acustica architettonica, che si
occupa della qualità acustica degli edifici e delle sale dei teatri, l'acustica degli strumenti musicali, che si occupa
delle loro proprietà e delle caratteristiche, l'acustica ambientale, che si occupa dei problemi collegati al rumore in
ambiente esterno, l'acustica edilizia, che ha come obiettivo l'isolamento degli ambienti dai rumori disturbanti,
l'acustica subacquea, che tratta della propagazione delle onde e della loro percezione negli ambienti marini, l'acustica
medica che si occupa di sviluppare in ambito terapeutico e diagnostico metodi e strumenti basati sulla propagazione
di onde acustiche all'interno del corpo umano. Una delle ultime frontiere applicative è la diagnostica intensimetrica
come l'acustica per immagini.
Gli aspetti percettivi e biologici dell'acustica sono poi oggetto di settori di studio specifici come la psicoacustica, che
studia la psicologia della percezione del suono negli esseri umani, e l'audiometria, che si occupa della valutazione
delle caratteristiche fisiologiche dell'orecchio e della misurazione delle capacità uditive.

Analogie acustiche
Spesso per descrivere i fenomeni acustici si ricorre alle cosiddette "analogie", ovvero si sfruttano anche in acustica i
risultati e le formule presenti in altri settori della fisica.

Analogia elettrica
La grandezza

prende talvolta il nome di impedenza acustica caratteristica. Più in generale, nel caso di onde piane, il rapporto tra la
pressione sonora e la "velocità di particella", ovvero la velocità con cui oscillano le particelle del mezzo, viene
denominato impedenza acustica specifica, ed è rappresentata da una grandezza complessa

Tale analogia è alla base del "metodo delle impedenze progressive" utilizzato per prevedere il comportamento delle
strutture in acustica architettonica.

Analogia ottica
Considerando la normale alla superficie dell'onda che si propaga, la propagazione dell'onda stessa può essere
rappresentata da "raggi acustici", che descrivono piuttosto bene fenomeni come la riflessione, la rifrazione e la
diffrazione. Il caso più esemplificativo è dato dalla riflessione delle onde sonore, per le quali vale la legge di Snell.

Note

Bibliografia
• (EN) John William Strutt Rayleigh The theory of sound. Volume I (http://gallica.bnf.fr/
notice?N=FRBNF37285662) (London : Macmillan, 1877) (libro classico sull'acustica)
• (EN) John William Strutt Rayleigh The theory of sound. Volume II (http://gallica.bnf.fr/
notice?N=FRBNF37285664) (London : Macmillan, 1877)
• (EN) A. B. Basset An elementary treatise on hydrodynamics and sound (http://www.archive.org/details/
elementarytreati00bassiala) (Cambridge: Deighton, Bell, 1900) (la seconda parte tratta di acustica)
Acustica 51

• (EN) Horace Lamb The Dynamical Theory of Sound (http://www.archive.org/details/


dynamicaltheoryo004233mbp) (London: Constable, 1925) (un altro libro classico sull'acustica)
• (EN) Irving B. Crandall Theory Of Vibrating Systems And Sound (http://www.archive.org/details/
theoryofvibratin031754mbp) (D. Van Nostrand Company, 1926)
• Lev Davidovič Landau, E. M. Lifšits e L. P. Pitaevskii, Fisica Teorica vol. 6: idrodinamica [per l'acustica nei
fluidi]; Fisica Teorica vol.7: teoria dell'elasticità [per l'acustica nei solidi], Roma, Editori Riuniti, 1978
• Renato Spagnolo (a cura di), Manuale di acustica applicata, Torino, Città Studi Edizioni, 2008, ISBN
978-88-251-7320-8
• Sergio Cingolani, Renato Spagnolo (a cura di), Acustica musicale e architettonica, Torino, Città Studi Edizioni,
2008, ISBN 978-88-251-7321-5
• Arthur H. Benade, Fundamentals of Musical Acoustics, corrected republication, New York, Dover, 1990, ISBN
0-486-26484-X
• John R. Pierce, La scienza del suono, Bologna, Zanichelli, 1988, ISBN 88-08-02166-1
• Thomas L. Szabo, Diagnostic Ultrasound Imaging,

Voci correlate
• Acustica architettonica
• Acustica non lineare
• Attenuazione (acustica)
• ANIT
• Elettroacustica
• Fonetica acustica
• Infrasuono
• Psicoacustica
• Risonanza acustica
• Rumore
• Suono
• Ultrasuono

Altri progetti
• Wikimedia Commons contiene file multimediali su Acustica

Collegamenti esterni
• Associazione Italiana di Acustica (http://www.associazioneitalianadiacustica.it/)
• Associazione Nazionale per l'Isolamento Termico e acustico (http://www.anit.it/)
• Acustica Subacquea (http://www.area.fi.cnr.it/r&f/n10/bosco.htm) Le onde acustiche: il mezzo più efficace
per l'esplorazione dell'oceano e del fondo marino.
• BaProgetto (http://erewhon.ticonuno.it/arch/rivi/balena/baprogetto.htm) Monitoraggio acustico attraverso le
metodologie dell'acustica subacquea per lo studio dei Cetacei.
• Acustica di una stanza (http://homerecordingitalia.blogspot.com/search/label/acustica)
• (IT) Sito dedicato alla Fisica della Musica (http://fisicaondemusica.unimore.it/) a cura del Progetto Lauree
Scientifiche del Dipartimento di Fisica dell'Università di Modena e Reggio Emilia con Licenza Creative
Commons
Psicoacustica 52

Psicoacustica
La psicoacustica è lo studio della percezione soggettiva umana dei suoni. Più precisamente è lo studio della
psicologia della percezione acustica.

Introduzione
In molte applicazioni dell'acustica e dell'elaborazione del segnale sonoro diventa strettamente necessario conoscere
come il suono viene percepito da un essere umano. Il suono, il cui stimolo acustico è composto da onde di pressione
che si propagano attraverso l'aria, può essere misurato accuratamente tramite delle apparecchiature sofisticate.
Tuttavia capire come queste onde vengano recepite e convertite in pensieri all'interno del nostro cervello non è
affatto da sottovalutare: il suono è un segnale analogico continuo che (approssimando a zero il volume delle
molecole d'aria) può teoricamente portare un infinito numero di informazioni (essendoci un infinito numero di
frequenze portanti, ognuna contenente informazioni relative ad ampiezza e intensità). Individuare le caratteristiche
peculiari della percezione uditiva permette agli scienziati ed agli ingegneri di concentrarsi, per l'analisi e la
progettazione di strumenti e apparecchiature acustiche, sulle componenti realmente udibili.
È importante sottolineare, inoltre, che ciò che "si sente" non è solamente una conseguenza di carattere fisiologico
legata alla conformazione del nostro orecchio, ma comporta anche implicazioni psicologiche.

Limiti della percezione uditiva

Frequenza
L'orecchio umano può udire i suoni nell'intervallo dai 20 Hz ai 20 kHz. Questo limite superiore tende ad abbassarsi
con l'avanzare degli anni: molti adulti non sono in grado di udire frequenze oltre i 16 kHz. L'orecchio di per sé non è
in grado di rispondere alle frequenze superiori o inferiori all'intervallo indicato, ma queste ultime possono essere
percepite col corpo attraverso il senso del tatto sotto forma di vibrazioni.
Nel tratto di massima sensibilità dell'intervallo delle frequenze udibili (intorno ai 2-3 kHz) l'orecchio ha una
risoluzione di circa 2 Hz mentre via via che ci si allontana da questa zona la risoluzione va diminuendo di pari passo.
L'effetto della frequenza sull'orecchio umano segue una base logaritmica. In altre parole, la maniera in cui l'altezza di
un suono che viene percepita è funzione esponenziale della frequenza. La comune scala musicale di dodici suoni è
un esempio: quando la frequenza fondamentale di una nota è moltiplicata per , il risultato è la frequenza del
semitono successivo in direzione ascendente. Andare più in alto di dodici semitoni, ovvero di un'ottava, è lo stesso
che moltiplicare la frequenza della fondamentale per , ovvero raddoppiare la frequenza (per approfondire
vedi: temperamento equabile).
Come risultato si ha che la risoluzione nel riconoscimento della frequenza assoluta viene giudicata meglio
dall'orecchio in termini di semitoni o in cent, cioè in centesimi di semitono.

Intensità
Se si prende in considerazione l'intensità del suono, l'intervallo udibile è enorme: il limite inferiore è definito a 0 dB,
mentre il limite superiore attualmente non è fissato. È possibile individuare un limite superiore approssimativo
considerando il punto in cui l'intensità del suono è tale da danneggiare l'orecchio. Il limite dipende dalla durata del
suono, poiché se è vero che l'orecchio può sopportare 120 dB per un breve periodo è vero anche che può subire
sordità permanente se esposto per lungo tempo a un suono oltre gli 80 dB.
Una più rigorosa esemplificazione dei limiti minimi di udibilità determina che la soglia minima dove un suono può
essere sentito dipende dalla sua frequenza. Misurando questa intensità minima utilizzando toni di test a varie
Psicoacustica 53

frequenze, possiamo ricavare una curva di "Frequenza Dipendente" detta Soglia Assoluta della percezione Sonora o
Absolute Threshold of Hearing (ATH). Generalmente, l'orecchio denota un picco di sensibilità (es. Il suo ATH
minimo) con una frequenza compresa tra 1 kHz e 5 kHz, e sembra che questa soglia cambi con l'età: orecchie più
anziane denotano una riduzione della sensibilità di oltre 2 kHz. L'ATH è costituito dalla più bassa tra le curve di pari
intensità sonora o equal-loudness contour. Le curve di pari intensità indicano il livello di pressione acustica (in dB),
distribuite su un intervallo di frequenze audibili, che sono percepite allo stesso livello di volume sonoro.
Le curve di pari intensità sonora sono state misurate per la prima volta da Fletcher e Munson nel 1933 presso i
laboratori AT&T Bell Laboratories usando toni puri riprodotti attraverso cuffie e i dati ottenuti sono chiamati curve
Fletcher-Munson. La sensazione sonora era difficile da misurare in quanto soggettiva, quindi le curve sono la media
tra le percezioni di molti soggetti.
Robinson e Dadson raffinarono il processo nel 1956 per ottenere un nuovo insieme di curve di pari intensità sonora
per una sorgente sonora frontale misurata in una stanza senza riverbero (anechoic chamber). Le curve
Robinson-Dadson furono standardizzate come ISO 226 nel 1986. Nel 2003, ISO 226 fu revisionato usando i dati
presi da 12 studi internazionali.

Cosa udiamo?
L'udito umano è simile ad un analizzatore di spettro, così che l'orecchio risolve il contenuto spettrale della pressione
dell'onda di pressione senza tener conto della fase del segnale. Nella pratica, si possono percepire alcune
informazioni della fase. La differenza di fase tra un orecchio e l'altro è una notevole eccezione che fornisce una parte
significante nella localizzazione del suono. Gli effetti di filtraggio della testa offrono un altro importante spunto per
la direzione.

Effetti di mascheramento
In alcune situazioni, un suono normalmente udibile può essere mascherato da un altro suono. Ad esempio, la
conversazione a una fermata di autobus può diventare completamente impossibile se si sta avvicinando un rumoroso
autobus. Questo fenomeno è chiamato "mascheramento". Un suono più debole è detto "mascherato" se è reso
inaudibile dalla presenza di un suono più forte.
Se due suoni vengono prodotti simultaneamente e uno è mascherato dall'altro, si parla di mascheramento simultaneo.
Un suono di frequenza prossima a quella del suono più forte è mascherato più facilmente rispetto a uno di frequenza
molto diversa. Per questo motivo, il mascheramento simultaneo è anche chiamato "mascheramento di frequenza".
La tonalità di un suono è parzialmente determinata da questa abilità di mascherare gli altri suoni. I modelli
computerizzati che calcolano il masking causato da suoni deve pertanto classificare la loro vetta individuale
all'interno dello spettro accordando la loro tonalità.
Allo stesso modo, un suono leggero emesso appena dopo la fine del suono alto è mascherato da quest'ultimo. Persino
un suono leggero appena prima di un suono alto può essere mascherato da un suono alto. Questi due effetti sono
chiamati rispettivamente anticipo e ritardo del temporal-masking (mascheramento temporale).

Cenni sul 'Phantom'


Al livello più basso di udibilità, le note gravi possono spesso essere udite chiaramente solo quando non ci siano altri
suoni alla stessa frequenza. La cosa è dovuta al fatto che l'orecchio opera una sintesi dei suoni a bassa frequenza
derivandoli dalle differenze tra le frequenze armoniche udibili presenti nei suoni in questione. In alcuni apparecchi
commerciali, questo effetto è utilizzato per dare l'impressione di una risposta estesa alle basse frequenze quando il
sistema non è in grado di riprodurle adeguatamente.
Psicoacustica 54

Psicoacustica e software
Se trasportiamo l'informazione sonora nel mondo digitale possiamo fare alcune considerazioni.
Il modello psicoacustico conferisce qualità alla compressione audio di tipo "lossy" (con perdita di informazione)
indicando quale parte del segnale audio da comprimere può essere rimossa o pesantemente compressa senza generare
problemi -- cioè senza perdite significative nella qualità del suono. Questo spiega, ad esempio, perché un secco
battito dei palmi delle mani fra loro possa risultare tremendamente rumoroso in una tranquilla biblioteca, ma non si
riesca quasi a sentire nel traffico automobilistico diurno di una grande città. Sembra che questo dia poco vantaggio
nell'ambito generale del problema della compressione dati, ma le analisi psicoacustiche portano ad ottenere file
compressi che sono anche 10 o 12 volte più piccoli degli originali high quality, il tutto con una minima perdita
percepibile di qualità. Un simile tasso di compressione è oggi la caratteristica di quasi tutti i formati di compressione
audio, fra i quali ricordiamo l'MP3, Ogg Vorbis, Musicam (usato da molti stati come standard per le trasmissioni
digitali audio via etere), e la compressione su cui si basa il MiniDisc.
La psicoacustica è fortemente basata sull'anatomia umana, soprattutto - come evidenziato - sulle limitazioni di
precezione dell'orecchio. Dette limitazioni, per riassumere, sono:
• Limiti alle alte frequenze
• Soglia assoluta di udibilità
• Soglia del dolore
• Temporal masking (Mascheramento temporale)
• Simultaneous masking (Mascheramento simultaneo)
Dato che l'orecchio non funziona al meglio quando si trova in prossimità di queste limitazioni, un algoritmo di
compressione audio darà bassa priorità a frequenze esterne al range di udibilità. Sottraendo memoria a queste
frequenze poco importanti e ridistribuendoli fra quelle utili, l'algoritmo assicura che i suoni udibili siano della qualità
più alta possibile.

Psicoacustica e musica
La psicoacustica comprende anche scoperte rilevanti per quanto concerne la musica, la sua composizione ed
esecuzione. Alcuni musicisti, come ad esempio Benjamin Boretz, sono convinti che i risultati delle ricerche
psicoacustiche abbiano significato solo in un contesto musicale.

Applicazioni
La Psicoacustica è applicata oggi in molti campi: dall'ingegneria informatica all'ingegneria acustica, passando
per la difesa in relazione alla possibilità di sviluppare ed utilizzare armi acustiche che possano causare lesioni o
morte. Ovviamente si applica anche alla musica, dove i musicisti e gli artisti continuano a creare nuove sensazioni
acustiche, rompendo la tradizionale percezione della sonorità reale. È usata anche nell'educazione, nella medicina e
nel marketing.
Psicoacustica 55

Voci correlate
• Phon
• Sone
• Foniatria
• Vocologia

Collegamenti esterni
• The Musical Ear [1], article at NewMusicBox by Chris Plack
• Applied Psychoacoustics project [2] at the Carl von Ossietzky University of Oldenburg
• Applied psychoacoustics in space flight [3]

Note
[1] http:/ / www. newmusicbox. org/ article. nmbx?id=4077
[2] http:/ / www. physik. uni-oldenburg. de/ aku/ projects/ apsyacou. htm
[3] http:/ / www. ncbi. nlm. nih. gov/ entrez/ query. fcgi?cmd=Retrieve& db=PubMed& list_uids=8178525& dopt=Abstract

Orecchio
L'orecchio è l'organo dell'udito.

Il ruolo del cervello


Gli impulsi nervosi provenienti dalle cellule cigliate e diretti al cervello
viaggiano all'interno di fasci di fibre nervose. Ne esistono decine di migliaia e
sono sempre in funzione, sia di giorno che di notte. Anche durante il sonno il
cervello riceve segnali acustici, ma decide di ignorarli.
Il cervello ha il compito di interpretare i segnali che gli pervengono. Ciò
consente di dare un significato al messaggio sonoro. Infatti esiste una
memoria uditiva che ci permette di riconoscere un rumore o una musica. Ma
abbiamo anche la capacità di cancellare segnali superflui, ad esempio dopo un
po' non sentiamo più il rumore di una cascata o il frastuono del traffico.

Orecchio umano
Orecchio 56

Anatomia umana
L'orecchio umano si compone di tre parti:
• Orecchio esterno, il collegamento con l'esterno, da cui entrano i
suoni.
• Orecchio medio, il tramite tra l'esterno e l'interno.
• Orecchio interno, l'elemento organizzatore e recettore dei suoni.

Orecchio esterno
L'orecchio esterno è formato dal padiglione auricolare e dal
condotto uditivo esterno. Il padiglione auricolare è costituito da
cartilagine rivestita dalla pelle strettamente adesa ad una Sezione anatomica dell'orecchio.
sottostante membrana di tessuto connettivo, il pericondrio. La sua Orecchio esterno: 1 pericondrio, 2 condotto uditivo, 3
funzione è quella di raccogliere i suoni per inviarli all'interno del padiglione auricolare
Orecchio medio: 4 timpano, 5 finestra ovale, 6
condotto uditivo. Il condotto uditivo è una galleria dalle pareti
martello, 7 incudine, 8 staffa
lisce provvista di peli e di ghiandole sebacee e ghiandole Orecchio interno: 9 canali semicircolari, 10 coclea, 11
ceruminose, il cui secreto ricco di cere ha una funzione protettiva. nervo acustico, 12 tromba di Eustachio

Orecchio medio
Al termine del condotto uditivo si trova la membrana del timpano, che è una sottile membrana sensibile alle onde
sonore che vengono a infrangersi su di essa. Le vibrazioni così raccolte vengono trasmesse a tre ossicini, i più piccoli
del corpo umano: il martello, direttamente a contatto con la membrana del timpano, l'incudine e la staffa. Questa
prende contatto col labirinto. I tre ossicini dell'udito sono contenuti in una cavità, la cassa del timpano, che comunica
all'esterno attraverso un piccolo canale lungo 3-4 cm, la Tromba di Eustachio, che sbocca nella faringe. In questo
modo l'orecchio è collegato con la gola. Ciò permette di mantenere in equilibrio la pressione dell'aria al di là e al di
qua del timpano.

Orecchio interno
L'orecchio interno è la parte interna dell'apparato stato-acustico, divisibile in due porzioni, definite "labirinti":
• Labirinto osseo (o parte ossea), la cavità interna presenta una parete ossea.
• Labirinto membranoso, presente internamente al labirinto osseo; in esso sono individuabili organi a parete
connettivale.
Tra le due porzioni di labirinto è presente un liquido, definito perilinfa, mentre internamente agli organi del labirinto
membranoso è presente l'endolinfa.
Orecchio 57

Circuito osseo
Il Circuito osseo presenta una parte centrale cava, detta scala vestibolare, comunicante anteriormente con la coclea e
posteriormente con i tre canali semicircolari (anteriore, superiore e laterale) in cui trovano alloggio i recettori
dell'equilibrio, chiamati recettori stato-cinetici. La scala vestibolare, inoltre, presenta due aperture:
• foro o finestra ovale;
• finestra rotonda.

Coclea
La coclea presenta due strutture, una ossea ed una membranacea:
• Canale cocleare
• Lamina spirale ossea, legata ad un asse centrale definito modiolo.

Labirinto membranoso
Il labirinto membranoso è costituito da tre componenti:
• utricolo e sacculo, al livello della scala vestibolare;
• canali semicircolari membranosi;
• condotto cocleare membranoso, applicato al margine libero della lamina spirale ossea.

Recettori

Recettori dell'equilibrio o stato-cinetici


L'apparato stato-cinetico è costituito da cinque organi presenti al livello dell'orecchio interno:
• utricolo e sacculo;
• i tre canali semicircolari membranosi.
L'epitelio dell'orecchio transita da epitelio di rivestimento a epitelio recettivo-sensoriale di II tipo.
Sulle ciglia dei recettori è presente un gel, la cupola, che, sotto il flusso dell'endolinfa provocato dal movimento
corporeo, percepisce il movimento del corpo. I prolungamenti dentritici del ganglio dello Scarpa innervano i
recettori. A livello dell'utricolo e nel sacculo si ha una struttura analoga, in cui sono presenti anche sali di calcio,
definiti otoliti, sulla sommità della cupola, capaci di percepire le accelerazioni a cui il corpo è soggetto. Dalla scala
vestibolare emergono i gangli vestibolari che convogliano l'impulso alla branca vestibolare.
La via vestibolare origina da neuroni bipolari presenti nel ganglio dello Scarpa. I prolungamenti centrali di tali
neuroni raggiungono i nuclei vestibolari posti nel midollo allungato.

Recettori acustici
I recettori acustici sono posti nella parte membranosa ossea e presentano una morfologia identica ai recettori
dell'equilibrio. Presentano superiormente una membrana che, sotto la pressione dell'endolinfa, stimola i recettori. La
via acustica origina dal ganglio del Corti, formato da neuroni bipolari. I prolungamenti centrali di tali neuroni
raggiungono i nuclei cocleari ventrale e dorsale posti nel midollo allungato e nel ponte di Varolio.

Voci correlate
• Orecchio interno
• Orecchio artificiale
• Orecchio bionico
• Parotite epidemica
Orecchio 58

• Labirintite

Altri progetti
• Wikimedia Commons contiene file multimediali su Orecchio

Suono
Il suono (dal latino sonum) è la sensazione data dalla vibrazione di un corpo in oscillazione. Tale vibrazione, che si
propaga nell'aria o in un altro mezzo elastico, raggiunge l'orecchio che, tramite un complesso meccanismo interno, è
responsabile della creazione di una sensazione "uditiva" direttamente correlata alla natura della vibrazione.
Le oscillazioni sono spostamenti delle particelle, intorno alla posizione di riposo e lungo la direzione di
propagazione dell'onda, provocati da movimenti vibratori, provenienti da un determinato oggetto, chiamato sorgente
del suono, il quale trasmette il proprio movimento alle particelle adiacenti, grazie alle proprietà meccaniche del
mezzo; le particelle a loro volta, iniziando ad oscillare, trasmettono il movimento alle altre particelle vicine e queste
a loro volta ad altre ancora, provocando una variazione locale della pressione; in questo modo, un semplice
movimento vibratorio si propaga meccanicamente originando un' onda sonora ( o onda acustica), che è pertanto onda
longitudinale. Si ha un'onda longitudinale quando le particelle del mezzo in cui si propaga l'onda, oscillano lungo la
direzione di propagazione. Le onde meccaniche longitudinali sono anche denominate onde di pressione. Il suono è
un'onda che gode delle seguenti proprietà: Riflessione, rifrazione e diffrazione, ma non della polarizzazione (a
differenza della luce che è un'onda elettromagnetica, ovvero un'onda trasversale.
Per le onde sonore armoniche, la frequenza e la lunghezza d'onda possono essere messe in relazione con la formula

dove:
• y è lo spostamento di un punto lungo l'onda sonora;
• x è la distanza che il punto ha percorso dalla sorgente dell'onda;
• t è il tempo trascorso;
• y0 è l'ampiezza delle oscillazioni,
• c è la velocità dell'onda;
• ω è la frequenza angolare dell'onda.
La quantità x/c è il tempo necessario all'onda per percorrere la distanza x.
La frequenza f, in hertz, dell'onda è data da:

Per le onde sonore, l'ampiezza dell'onda è la differenza tra la pressione del mezzo non perturbato e la pressione
massima causata dall'onda.
La velocità di propagazione delle onde sonore dipende dalla temperatura e pressione del mezzo attraverso il quale si
propagano.
Come tutte le onde, anche quelle sonore sono caratterizzate da una frequenza (che nel caso del suono è in diretta, ma
non esclusiva, relazione con la percezione dell'altezza) e un'intensità (che è in diretta, ma non esclusiva, relazione
con il cosiddetto "volume" del suono). Inoltre, caratteristica saliente delle onde sonore è la forma d'onda stessa, che
rende in gran parte ragione delle differenze cosiddette di timbro che si percepiscono tra diverse tipologie di suono.
Come tutti i fenomeni acustici, il suono è una perturbazione di carattere oscillatorio che si propaga con una data
frequenza in un mezzo elastico. Il numero di oscillazioni (variazioni di pressione) al secondo viene chiamato
Suono 59

frequenza del suono e viene misurato in cicli al secondo ossia in Hertz (Hz). Il campo uditivo dell'uomo si estende
da circa 20 Hz fino a 20.000 Hz (ossia 20 KHz). La lunghezza d'onda rappresenta lo spazio percorso dall'onda sonora
in un periodo completo di oscillazione. Le relazioni tra periodo T (tempo necessario perché si compia un'oscillazione
completa), frequenza f, e lunghezza d'onda L sono date da:
f = 1/L; f = 1 /T; c = L/T; c = 1/FT
dove c è la velocità del suono nell'aria (344 m/s; nell'aria, alla temperatura di 20 °C ed alla pressione atmosferica del
livello del mare).
La velocità del suono dipende molto dalla densità del mezzo: è circa 1.500 m/s nell'acqua e circa 5.000 m/s nel ferro.
Essendo un movimento di materia, nel vuoto non si trasmette, poiché non c'é materia da far oscillare.
Conoscendo la velocità e la frequenza di un suono, possiamo dunque calcolare la sua lunghezza d'onda; alla
frequenza di 20 Hz, la lunghezza d'onda è pari a 17 metri, mentre a 20 KHz è pari a soltanto 17 mm.
La velocità di propagazione del suono dipende dalle caratteristiche del mezzo, in particolare l'elasticità e la densità. È
direttamente proporzionale all'elasticità ed inversamente proporzionale alla densità, secondo la relazione: dove:
= velocità del suono nel mezzo considerato
= costante
= modulo di elasticità di Young (N/m2)
= densità del mezzo (kg/m3)
Spesso materiali di elevata densità presentano anche moduli di elasticità elevati e questo ha contribuito al diffondersi
della convinzione che la velocità del suono sia più elevata in un mezzo ad alta densità rispetto ad un altro di densità
più ridotta.

Altezza
L'altezza è la qualità che fa distinguere un suono acuto da uno grave. Dipende in massima parte dalla frequenza ma
anche dalla intensità. L'orecchio umano percepisce solo i suoni che vanno da 20 a 20.000 oscillazioni al secondo. Al
di sotto abbiamo gli infrasuoni, al di sopra gli ultrasuoni. Il sonar, ma anche i delfini ed i pipistrelli percepiscono gli
ultrasuoni mentre gli elefanti, i pesci ed i cetacei percepiscono gli infrasuoni.
La pratica musicale copre una gamma di suoni, le cui fondamentali vanno dal do grave che ha circa 65 oscillazioni
semplici al secondo al do acuto che ha 8276 oscillazioni semplici. La voce umana ha un registro ancora più limitato.
Per calcolare l'altezza dei suoni, è stato scelto come punto di riferimento il La4 (= ottava centrale del pianoforte) che
chiamiamo diapason o corista. La frequenza del diapason, che fino al XIX secolo variava di Paese in Paese e anche
a seconda del tipo di musica da eseguire (sacra, da camera etc.) è stata determinata da diversi congressi: nel 1885, al
Congresso di Vienna, si stabilì che il La4 corrispondesse a 870 oscillazioni semplici che, a loro volta,
corrispondevano a 435 oscillazioni doppie. Ora invece il valore di riferimento, stabilito dalla Conferenza di Londra
del 1939, è 440 vibrazioni doppie, quindi 880 semplici..

Volume e pressione
Il volume[1] che viene spesso anche chiamato - colloquialmente ed erroneamente - pressione, è la qualità sonora
associata alla percezione della forza di un suono, ed è determinato dalla pressione[2] che l'onda sonora esercita sul
timpano: quest'ultima è a sua volta determinata dall'ampiezza della vibrazione e dalla distanza del punto di
percezione da quello di emissione del suono.[3] In particolare, la pressione di un'onda sonora sferica emessa da una
sorgente puntiforme risulta essere proporzionale al reciproco della distanza:
Suono 60

p = pressione
Per misurare il volume percepito di un suono, si fa spesso riferimento al livello sonoro, che viene calcolato, in

decibel,[4] come segue:

nella formula, p indica la pressione quadratica media, mentre p0 è una pressione sonora di riferimento (soglia del
silenzio o udibile. È la più piccola variazione di pressione che l'orecchio umano è in grado di percepire[5] )
comunemente posta 20 µPa (2 10-5 N/m2) in aria e a 1 µPa in acqua. La misura in decibel risulta più appropriata per
indicare il livello sonoro percepito, perché la risposta dell'orecchio umano è all'incirca logaritmica.[6]
L'intensità di un'onda sonora è invece definita come la quantità di energia che passa attraverso l'unità di area
nell'intervallo di tempo unitario. Quindi se l'energia E passa attraverso l'area A nel tempo t, l'intensità I dell'onda è
, dove si è tenuto conto della definizione di potenza Pac come rapporto fra l'energia e il
tempo in cui viene sviluppata ( ).[7]
L'intensità si può esprimere anche a partire dalla pressione e dalla velocità dell'onda (indicando con T il periodo
dell'onda):

Nel caso di un'onda sferica (sorgente puntiforme), l'intensità, in funzione della distanza è data da

Come si può vedere l'intensità decresce come il reciproco del quadrato della distanza: e quindi

[8]
molto più rapidamente della pressione

Anche per l'intensità si dà una definizione di livello in unità logaritmiche (decibel[9] ):

In questo caso l'intensità di riferimento Io vale 10-12W/m2.

Timbro
Il timbro, è la qualità che, a parità di frequenza, distingue un suono da un altro. Il timbro dipende dalla forma
dell'onda sonora, determinata dalla sovrapposizione delle onde sinusoidali caratterizzate dai suoni fondamentali e dai
loro armonici. Dal punto di vista della produzione del suono, il timbro è determinato dalla natura (forma e
composizione) della sorgente del suono e dalla maniera in cui questa viene posta in oscillazione.
La scomposizione di un suono nelle proprie componenti sinusoidali fondamentali è detta analisi in frequenza. La
frequenze vengono misurate in Hz, ovvero oscillazioni al secondo. Le armoniche di un suono sono suoni con
frequenze che sono multipli interi del suono principale. Nella musica, tanto più un suono è composto da diverse
componenti, tanto più esso risulta complesso: si va dal suono di un flauto dolce, composto dalla fondamentale e da
pochissime armoniche, al suono degli strumenti ad arco, composto da moltissime frequenze armoniche secondarie.
Tanto più le frequenze secondarie che si sovrappongono alla principale non sono armoniche (ovvero hanno
frequenze che non sono multipli interi della fondamentale), tanto più ci si avvicina al rumore.
Suono 61

Suoni e rumori
Si può distinguere il concetto di suono da quello di rumore. Il suono è in generale una sensazione che nasce
nell'uomo quando una perturbazione meccanica si propaga in un mezzo elastico facendolo vibrare. Per questa
ragione molto spesso abbiamo a che fare con suoni i cui stimoli acustici hanno le componenti in frequenza (vedi
trasformata di Fourier) multipli della frequenza fondamentale. Il rumore è comunemente identificato come una
sensazione uditiva sgradevole e fastidiosa o intollerabile. Tuttavia alcuni studiosi ritengono che la differenza di
significato tra "suono" e "rumore" sia legata alla controllabilità dell'emissione acustica, e non dalla sua gradevolezza.
L'orecchio umano è sensibile agli stimoli acustici le cui frequenze siano comprese fra i 16-20 Hz e i 20 kHz.
L'orecchio umano non è ugualmente sensibile a tutte le frequenze, ma è più sensibile nel campo compreso fra 2 KHz
e 5 KHz, ed è molto meno sensibile alle frequenze estremamente elevate o estremamente basse. Questo fenomeno è
molto più pronunciato ai bassi livelli di pressione sonora che non agli alti livelli. Ad esempio, un segnale a 50 Hz
con un livello di pressione sonora di 85 dB dà luogo alla stessa intensità soggettiva di un segnale di 70 dB a 1.000
Hz. Pertanto affinché uno strumento per la misura del rumore reagisca nella stessa maniera dell'orecchio umano, si
deve dotarlo di un filtro di ponderazione che ne simuli la risposta. Questo filtro, definito dalla norma CEI è
denominato "A".

Note
[1] Vedi anche:
• Corso di Fisica (http:/ / hyperphysics. phy-astr. gsu. edu/ hbase/ sound/ intens. html) della Georgia State university
• Calcolatore de pressione sonora (http:/ / www. sengpielaudio. com/ calculator-soundlevel. htm)
[2] Cioè forza per unità di area: nel Sistema Internazionale di unità di misura, la pressione è espressa in pascal (simbolo Pa) cioè Newton su
metro quadro.
[3] Si tratta in effetti di una sovrapressione, cioè della variazione di pressione determinata dal suono.
[4] A volte indicati come dBspl (dB sound pressure level - livello di pressione sonora) per distinguerli dall'analoga misura di livello d'intensità.
[5] Oltre alla soglia del silenzio, si trovano anche riferimenti alla cosiddetta soglia del dolore, che però ha una definizione assi più soggettiva. I
valori riportati variano tra i 120 e i 140 dB, corrispondenti a pressioni comprese tra 20 e 200 pascal.
[6] In realtà bisognerebbe anche tenere conto del fatto che la risposta dell'orecchio umano dipende anche dalla frequenza del suono.
[7] Nel Sistema Internazionale di unità di misura, l'intensità è quindi espressa in watt su metri quadri ( )
[8] Valgono anche le relazioni (analogamente al caso della pressione)

[9] A volte indicati come dB-SIL (dB sound intensity level - livello di intensità sonora) per distinguerli dall'analoga misura di livello di pressione.

Voci correlate
• Acustica
• Diffusore di Schroeder
• Infrasuono
• Ultrasuono
• Velocità del suono
• Altoparlante
Suono 62

Altri progetti
• Wikimedia Commons contiene file multimediali su Suono
• Wikizionario contiene la voce di dizionario «Suono»

Collegamenti esterni
• Video didattici sul suono (http://fisica.decapoa.altervista.org/fisica/index.php?w0=suono)

Segnale acustico
Un segnale acustico è una trasmissione di informazione tramite un fenomeno acustico ovvero vibrazionale del
mezzo di trasmissione (aria, acqua, solido, ecc..).
Le vibrazioni acustiche sono costituite da frequenze normalmente udibili dagli esseri umani, da circa 20 Hz a circa
22 000 Hz. Al di sotto si hanno gli infrasuoni, udibili da elefanti e grossi animali. Al di sopra si hanno gli ultrasuoni,
udibili da cani, cetacei e pipistrelli.
Tipicamente una sorgente emette le vibrazioni acustiche che si trasmettono attraverso il mezzo fino a raggiungere la
destinazione. In questo modo viene trasmessa l'informazione.
Esempio: la bocca produce il suono della voce, l'aria lo trasmette all'orecchio dell'interlocutore.

Voci correlate
• Suono

Segnale elettrico
In elettrotecnica, e specialmente in radiotecnica e nell'elettronica, un segnale elettrico è, molto brevemente, una
variazione di corrente o di tensione all'interno di un conduttore o in un punto di un circuito.
Caratteristica di un segnale elettrico è la possibilità di veicolare un'informazione: se all'interno di un filo elettrico
scorre sempre una corrente costante di, ad esempio, 1 mA, la prima volta che andremo a misurare questa corrente
riceveremo l'informazione che il valore della corrente è appunto di 1 mA; ma se eseguiremo ulteriori misurazioni
(sapendo già a priori che la corrente non sta variando), otterremo sempre lo stesso valore, e non otterremo quindi
nessuna informazione aggiuntiva. Se però la corrente che scorre nel filo viene fatta variare, ad esempio, da una
persona che si trova nella stanza accanto, non potremo sapere a priori quale sarà il valore della corrente ad ogni
successiva misurazione; ognuna di esse, quindi, ci fornirà ogni volta una nuova informazione sul livello di corrente
nel filo. Se la persona che varia la corrente nel filo lo fa seguendo certe regole di cui siamo a conoscenza, sarà
possibile per quella persona comunicare a noi informazione utile.
Ad esempio, la persona potrebbe utilizzare il codice binario, ossia far passare o meno la corrente nel filo, secondo un
piano prestabilito: potrebbe cioè far passare la corrente per un secondo, poi non farla passare per un altro secondo,
poi non farla passare per un altro secondo, poi farla passare per un secondo, e così via.
Se questa persona identifica con "1" un periodo di tempo di un secondo in cui la corrente passa, e con "0" un secondo
in cui la corrente invece non passa, e decide che un carattere alfabetico è identificato da una sequenza di 8 secondi di
accensione/spegnimento della fonte di corrente, potrà descrivere questa sequenza di "accensione/spegnimento" con
una sequenza di "1" e "0", ad esempio 1001011.
Segnale elettrico 63

La persona potrebbe poi, sempre per esempio, decidere che alla sequenza 1001011 corrisponde la lettera K, alla
sequenza 1000001 la lettera A e così via (vedi tabella ASCII).
Se questa persona ci ha precedentemente informato di queste sue decisioni sul significato da attribuire al
passaggio/non passaggio di corrente, noi saremo in grado di ricevere da essa informazioni tramite i segnali elettrici
da essa fatti passare nel filo: ci basterà misurare continuamente la corrente che scorre nel filo, confrontarla con le
tabelle e convenzioni che la persona ci ha precedentemente comunicato, e potremo facilmente ricostruire
l'informazione originaria posseduta dalla persona nell'altra stanza: avremo così utilizzato un segnale elettrico per far
passare informazioni da un luogo ad un altro.
Il tipo di segnale visto è digitale, ma esistono anche segnali di tipo analogico. Brevemente, prendendo sempre
l'esempio della corrente, potremmo far sì che la corrente stessa non venga semplicemente fatta o non fatta passare,
ma regolata in modo continuo, così ad esempio da far passare prima 1 mA, poi 2 mA, poi aumentare fino a 5,
scendere fino a 0.5 e così via. Potremmo poi associare, ad esempio, il livello di corrente alla temperatura presente in
una stanza, ad esempio inserendo nel nostro circuito un sensore che appunto inserisce nel circuito una corrente
proporzionale alla temperatura misurata; se sappiamo che il sensore è tarato in modo da far passare 1 mA quando
misura 10 gradi, 2 mA quando ne misura 20 e così via, misurando il segnale analogico di corrente presente nel filo
saremo in grado di conoscere la temperatura nella stanza.

Definizione
Si considera segnale una grandezza fisica la cui variazione nel tempo trasmette un'informazione.

Classificazione
I segnali vengono classificati in varie categorie, a seconda delle loro proprietà.
In riferimento al tempo si definisce:
• segnale a tempo continuo: l'asse dei tempi può assumere un qualsiasi valore reale,
• segnale a tempo discreto: l'asse dei tempi assume solo valori discreti, ad esempio 1, 2, 3...
In riferimento alla variabile dipendente si distinguono:
• segnale ad ampiezza continua: i valori assunti dall'ampiezza del segnale sono numeri reali appartenenti ad un
intervallo, cioè possono assumere uno qualsiasi degli infiniti valori compresi tra un minimo ed un massimo;
• segnale ad ampiezza quantizzata: i valori assunti dall'ampiezza del segnale sono numeri naturali [con segno], cioè
appartengono ad un insieme finito di valori precisi.
• segnale bipolare o bidirezionale: assume nel tempo sia valori di tensione negativi che valori positivi.
• segnale unipolare o monodirezionale: assume nel tempo solo valori di tensione negativi o positivi.
Da queste distinzioni si definiscono:
• segnale analogico: segnale a tempo continuo e ad ampiezza continua
• segnale digitale o numerico: segnale a tempo discreto e ad ampiezza quantizzata.
Inoltre, in base alla possibilità di prevedere l'ampiezza futura, i segnali si distinguono in:
• segnale deterministico: segnale di cui si conosce esattamente l'andamento dell'ampiezza in funzione del tempo;
• segnale aleatorio o stocastico: l'andamento dell'ampiezza è caratterizzabile solo in termini statistici, cioè
l'ampiezza del segnale è una variabile aleatoria;
Un segnale può anche essere periodico o non periodico, si dice periodico quando una parte di questo si ripete nel
tempo ugualmete. La parte che si ripete viene detta periodo.
Segnale elettrico 64

Altri campi
In informatica, i segnali sono uno strumento di comunicazione tra processi.
In teoria dei segnali è definito come "grandezza fisica variabile nel tempo, a cui è assegnata un'informazione"
In acquisizione dati si parla anche di condizionamento dei segnali

Rapporto segnale/rumore
Nell'ambito di una trasmissione dati reale attraverso un sistema di telecomunicazione o un qualsiasi sistema
elettronico al segnale si associa sempre del rumore, almeno quello di tipo termico, così che acquista importanza ai
fini della rilevazione del segnale informativo il rapporto segnale/rumore: tanto maggiore è tale rapporto tanto più il
segnale informativo trasmesso è puro e facilmente decodificabile, tanto più è basso tale rapporto tanto più il segnale
informativo è corrotto dal rumore e più facilmente si commettono errori in fase di decodifica.

Altri progetti
• Wikimedia Commons contiene file multimediali su Segnale elettrico

Analogico
In generale, un segnale analogico è la rappresentazione o trasformazione di una grandezza fisica tramite una sua
analoga.
Esempi:
• secondi (tempo) ↔ angolo della lancetta dell'orologio
• segnale acustico → segnale elettrico (microfono)
• segnale elettrico → segnale acustico (altoparlante)
• temperatura ↔ altezza in mm del termometro a mercurio
La rappresentazione numerica di una grandezza analogica è quasi sempre data da un numero reale (con precisione
teoricamente infinita) o da una loro combinazione. Nella pratica, però, il segnale televisivo o delle schiere di sensori
è rappresentato mediante numeri complessi, intesi come coppie di reali.
In elettronica, per analogico si intende il modo di rappresentare il segnale elettrico all'interno di una data
apparecchiatura (che lavora sotto potenziale elettrico); il segnale è detto analogico quando i valori utili che lo
rappresentano sono continui (infiniti). Cioè se prendessimo in esame un intervallo spazio temporale A - B (tipo
quello rappresentato da un potenziometro ed i suoi relativi valori Min(A) e MAX(B)) si passerebbe da Min a MAX
per una infinità di mutazioni elettriche, non numerabili in R (dal latino continuum = congiunto, unito insieme).
Analogico si contrappone a digitale (=discreto). Analogico significa "continuo", "non discreto".
In parole povere, se considerassimo il semplice ed unico potenziometro (quello del volume) presente su di un
amplificatore di un impianto hi-fi, non saremo mai in grado, una volta mutata la posizione fisica del potenziometro,
di riportarlo una seconda volta sulla stessa posizione (cioè sul medesimo valore di resistenza elettrica) o, più
volgarmente, allo stesso e medesimo volume.
Analogico 65

Voci correlate
• Digitale
• Segnale discreto

Digitale (informatica)
In informatica ed elettronica con digitale ci si riferisce a tutto ciò che viene rappresentato con numeri o che opera
manipolando numeri. Il termine deriva dall'inglese digit, che significa cifra, che a sua volta deriva dal latino digitus,
che significa dito.

Aspetti generali
Un determinato insieme di informazioni viene rappresentato in forma digitale come sequenza di numeri presi da un
insieme di valori discreti, ovvero appartenenti a uno stesso insieme ben definito e circoscritto. Attualmente "digitale"
può essere considerato come sinonimo di "numerico", e si contrappone invece alla forma di rappresentazione
dell'informazione detta analogica, che non è analizzabile entro un insieme finito di elementi.

Specificità tecniche
Ciò che è digitale è contrapposto a ciò che invece è analogico, cioè non numerabile, non analizzabile entro un
insieme discreto di elementi. Digitale è riferito dunque alla matematica del discreto che lavora con un insieme finito
di elementi, mentre ciò che è analogico viene modellizzato con la matematica del continuo che tratta un'infinità
(numerabile o non numerabile) di elementi.
È possibile convertire un segnale analogico in uno equivalente digitale, costituito da una serie di numeri, questo
processo è chiamato digitalizzazione. A seconda degli scopi a cui è destinata la conversione, questa può essere
effettuata in modo grossolano e approssimativo, oppure in modo molto accurato e preciso, in ogni caso il segnale
digitalizzato perde sempre qualcosa rispetto all'originale analogico, non sarà mai identico.
Un tipico esempio è la conversione di un'onda sinusoidale (più o meno regolare), se il circuito di conversione usa un
numero di bit insufficienti, risulta visibile geometricamente, una notevole differenza fra il segnale analogico e il
segnale digitalizzato, costituito da un insieme di spezzate (tratti costanti ai valori dell'insieme discreto, tipicamente 0
e 1) del segnale digitale.
L'uso attuale più comune del digitale è nel campo audio, in cui un segnale analogico può venire approssimato
sufficientemente bene. In alcune applicazioni la qualità del segnale digitale riprodotto risulta indistinguibile
dall'originale analogico. Tale conversione è frequente quanto la discretizzazione di variabili continue in matematica
o statistica (aspetto più generale di un problema soprattutto pratico).
Per esempio, un orologio con le lancette è analogico, perché la posizione di ognuna delle sue 3 lancette (ore, minuti e
secondi) può indicare uno qualsiasi degli infiniti punti che formano la circonferenza del quadrante dell'orologio
stesso, punti che quindi non sono numerabili. Al contrario in un orologio digitale le cifre che compongono l'ora, i
minuti e i secondi indicano solo e soltanto gli 86.400 possibili momenti in cui può essere suddiviso, in secondi, un
giorno (24 ore x 60 minuti x 60 secondi).
Un oggetto viene digitalizzato, cioè reso digitale, se il suo stato originario (analogico) viene "tradotto" e
rappresentato mediante un insieme numerabile di elementi. Per esempio una foto, normalmente formata da un
infinito numero di punti ognuno dei quali formato di un'infinita gamma di colori, viene digitalizzata, e quindi tradotta
in foto digitale, allorché la sua superficie la si rappresenti divisa in un numero discreto di "punti" (in genere piccoli
quadrati o rettangoli detti pixel) ognuno dei quali formato di un colore tra i 16.777.216 possibili (se codificati in
RGB, e cioè in una combinazione di 256 sfumature di rosso, 256 di verde e 256 di blu), ovvero 8 bit per colore.
Digitale (informatica) 66

Molte tecnologie ricorrono al digitale per ottenere la riproduzione di un'onda (sonora o luminosa) che è analogica; il
modem converte appunto un segnale analogico inviabile attraverso i doppini telefonici in un segnale richiesto dal pc
o altro dispositivo elettronico che funziona tramite bit (0/1) e richiede un segnale digitale. I moderni televisori LCD
funzionano principalmente con segnali digitali, mentre i televisori della precedente generazione CRT avevano un
funzionamento basato primariamente su segnali analogici.

Voci correlate
• Analogico
• Comunicazioni

Segnale discreto
Per segnale discreto o segnale discreto nel tempo si intende una
successione di valori di una certa grandezza dati in corrispondenza di
una serie di valori discreti nel tempo. In altri termini, è una funzione, o
un segnale, con valori forniti in corrispondenza ad una serie di tempi
scelti nel dominio dei numeri interi. Ciascun valore della successione è
chiamato campionamento. A differenza dei segnali continui, un
segnale discreto non è funzione di una variabile continua, pur potendo
Campionamento di un segnale
essere ottenuto campionando un segnale variabile con continuità nel
tempo. Quando un segnale discreto è composto da una serie di valori
ottenuti in corrispondenza di istanti spaziati uniformemente nel tempo,
si dice che è associato ad una particolare frequenza di campionamento;
la frequenza di campionamento non è direttamente desumibile nella
sequenza dei valori campionati, ma può essere fornita come dato
separato.

Acquisizione
Segnale digitale
I segnali discreti possono avere diverse origini, ma in linea di massima
le tecniche di acquisizione rientrano in uno dei due seguenti gruppi:
• Campionamento a frequenza costante o variabile di un segnale analogico.
• Totalizzando i valori assunti da una variabile entro dati intervalli di tempo. Ad esempio: il numero di persone che
usando ogni giorno un certo ascensore.

Segnali digitali
Un segnale digitale è un segnale discreto che può assumere soltanto valori appartenenti ad un insieme discreto. Il
procedimento di conversione di un segnale continuo campionato in valori di tempo discreti in un segnale digitale è
detta quantizzazione. Questo procedimento, noto anche come conversione analogico-digitale, provoca perdità di
informazione in quanto i valori effettivamente assunti dal segnale sono troncati o arrotondati. Quindi i segnali
digitali sono sempre un'approssimazione dei segnali a valore continuo da cui originano. Esempi di segnali digitali
sono quelli ad 8-bit (256 livelli, cioè valori), 16-bit (65,536 livelli), 32-bit (4,3 miliardi di livelli), e così via. Anche
se spesso il numero di livelli di un segnale digitale viene espresso da potenze di due, la definizione vale anche per un
qualsiasi altro numero di quantizzazioni.
Segnale discreto 67

Voci correlate
• Campionamento

Quantizzazione (elettronica)
Quando si misura una grandezza, l'insieme di valori che essa può assumere in natura è un insieme continuo e
composto da infiniti punti.
A volte però nelle comunicazioni di tipo numerico o digitali il valore della grandezza in questione deve essere
convertito in formato discreto. Ciò avviene preventivamente grazie ad un processo di campionamento in ascissa
(tempo).
Affinché una grandezza sia trasmissibile e codificabile con un numero finito di bit ovvero in forma numerica, è però
necessario che essa possa assumere solo un numero finito di valori di codominio discreti; ciò avviene tramite un
successivo processo di quantizzazione del valore in ordinata della grandezza in questione.
Per ottenere ciò i valori possibili della grandezza in questione vengono innanzitutto limitati tra un massimo ed un
minimo intorno a dei valori discreti preventivamente definiti definendo così le relative regioni di decisione e la
dinamica del quantizzatore stesso: in tal modo il valore analogico della grandezza originaria, in corrispondenza del
valore campionato in ascissa, verrà ricondotto al più prossimo dei valori discreti preventivamente definiti tramite il
processo di decisione.
Con la quantizzazione vengono però introdotti degli errori detti errori di quantizzazione pari alla differenza tra il
valore quantizzato e il suo valore "reale" nel campo continuo. L'errore massimo possibile che potrà essere introdotto
volta per volta sarà quindi pari alla metà dell'intervallo discreto discriminabile o regione di decisione, nel caso limite
in cui il valore di ingresso si collochi esattamente a metà tra due valori discreti di uscita ovvero sulla frontiera di due
regioni di decisione contigue. L'insieme di questi errori conduce al rumore di quantizzazione. Il Signal to Noise
Quantization Ratio (SNQR) misura la bontà del processo di quantizzazione ed è il parametro che più influisce sulla
qualità del segnale digitalizzato.
Nella conversione analogico-digitale al processo di quantizzazione segue quello di codifica del valore discreto in
ordinata.
La quantizzazione in particolare può essere di due tipologie: uniforme e non uniforme.

Quantizzazione uniforme
Quantizzatore uniforme = PCM Uniforme
La dimensione degli intervalli di decisione in cui si suddivide l'insieme dei possibili valori è sempre la medesima.
Ovunque cada (all'interno della dinamica) il valore quantizzato, l'accuratezza dell'operazione sarà sempre la stessa.
Detto n il numero di bit del quantizzatore,
1. il suo numero di livelli sarà
2. l'ampiezza di ogni livello sarà
3. e la varianza sarà
Quantizzazione (elettronica) 68

Quantizzazione non uniforme


Si creano intervalli più piccoli (e quindi più
accurati) dove la concentrazione di valori
dei campioni è più alta e intervalli più
grandi (e quindi meno accurati) dove la
concentrazione di valori di campioni è più
bassa; facendo così si presta quindi più
attenzione nella quantizzazione di valori che
si presentano con maggiore probabilità
diminuendo così l'errore di quantizzazione.
La quantizzazione è un processo
irreversibile, che modifica il segnale
originario, approssimandone il valore con
uno vicino, ma non identico. Per questo il
processo di quantizzazione introduce
rumore. Il rumore di quantizzazione in
uscita dal filtro di ricezione in un sistema di comunicazione è bianco e gaussiano.

La potenza media del rumore di quantizzazione si calcola come:

Rapporto Segnale-Rumore (Ru o SNR)


Il rapporto tra il segnale ed il rumore, in uscita da un sistema di comunicazione è un parametro importante per
definire la qualità della comunicazione stessa. Si indica con Ru (o SNR), ed è definito dal rapporto tra la potenza del
segnale e quella del rumore.
Viene stabilito prima della realizzazione del sistema di comunicazione un tetto massimo oltre il quale non si può
salire perché la qualità sia accettabile (detto Ru0).
Dimensionare un sistema significa anche scegliere il corretto numero di bit per quantizzare il segnale trasmesso: in
queste formule compare sempre un termine 2n, che verrà appunto scelto per fare in modo di rispettare le specifiche.
Si deve inoltre ricordare che il dimensionamento del sistema va fatto considerando il caso peggiore in cui ci si
potrebbe venire a trovare: dato che il rumore è inversamente proporzionale alla frequenza di campionamento, il caso
peggiore in relazione ad sarà .

Voci correlate
• Convertitore analogico-digitale
• Conversione analogico-digitale
Bit 69

Bit
In informatica ed in teoria dell'informazione, la parola bit ha due significati molto diversi, a seconda del contesto in
cui rispettivamente la si usa:
• un bit è l'unità di misura dell'informazione (dall'inglese "binary unit"), definita come la quantità minima di
informazione che serve a discernere tra due possibili alternative equiprobabili.
• un bit è una cifra binaria, (in inglese "binary digit") ovvero uno dei due simboli del sistema numerico binario,
classicamente chiamati zero (0) e uno (1);
La differenza di significato tra le due definizioni, può riassumersi con una frase come: "la ricezione degli ultimi 100
bit (simboli binari) di messaggio ha aumentato la nostra informazione di 40 bit (quantità di informazione)" (la
quantità di informazione portata da un simbolo dipende dalla probabilità a priori che si ha di riceverlo).

Il bit come quantità di informazione


In questo contesto, un bit rappresenta l'unità di misura della quantità d'informazione.
Questo concetto di bit è stato introdotto dalla teoria dell'informazione di Claude Shannon nel 1948, ed è usato nel
campo della compressione dati e delle trasmissioni numeriche.
Intuitivamente, equivale alla scelta tra due valori (sì/no, vero/falso, acceso/spento), quando questi hanno la stessa
probabilità di essere scelti. In generale, per eventi non necessariamente equiprobabili, la quantità d'informazione di
un evento rappresenta la "sorpresa" nel constatare il verificarsi di tale evento; per esempio, se un evento è certo, il
suo verificarsi non sorprende nessuno, quindi il suo contenuto informativo è nullo; se invece un evento è raro, il suo
verificarsi è sorprendente, quindi il suo contenuto informativo è alto.
Matematicamente, la quantità d'informazione in bit di un evento è l'opposto del logaritmo in base due della
probabilità di tale evento. La scelta del numero 2 come base del logaritmo è particolarmente significativa nel caso
elementare di scelta tra due alternative (informazione di un bit), ma è possibile usare anche (numero di Nepero),
usando dunque il logaritmo naturale; in tal caso l'unità di misura dell'informazione si dice "Nat".
Nel caso di due eventi equiprobabili, ognuno ha probabilità 0,5, e quindi la loro quantità di informazione è -log2(0,5)
= 1 bit. Se la probabilità di un evento è zero, cioè l'evento è praticamente impossibile, la sua quantità di informazione
è infinita. Se la probabilità di un evento è uno, cioè l'evento è praticamente certo, la sua quantità di informazione è
-log2(1) = 0 bit. Se ci sono due possibili eventi, uno con probabilità 25% e l'altro con probabilità 75%, il verificarsi
del primo evento convoglia l'informazione di -log2(0,25) = 2 bit, mentre il verificarsi del secondo evento convoglia
l'informazione di -log2(0,75) =~ 0,415 bit.
Il contenuto informativo (o entropia) di un generatore di eventi (detto "sorgente") è la media statistica dei contenuti
informativi di ogni possibile valore, ovvero la somma delle informazioni pesate per la probabilità del corrispondente
valore.
Nel caso dei due valori con probabilità 25% e 75%, il contenuto informativo della sorgente è:
0,25 x -log2(0,25) + 0,75 x -log2(0,75) =~ 0,811 bit.
Cioè la sorgente genera meno di un bit per ogni evento.
Nel caso di due eventi equiprobabili, si ha:
0,5 x -log2(0,5) + 0,5 x -log2(0,5) = 0,5 x 1 + 0,5 x 1 = 1 bit.
Cioè la sorgente genera esattamente un bit per ogni evento.
Bit 70

Il bit come cifra binaria


In questo contesto il bit rappresenta l'unità di definizione di uno stato logico. Definito anche unità elementare
dell'informazione trattata da un elaboratore. La rappresentazione logica del bit è rappresentata dai soli valori {0, 1}.
Ai fini della programmazione è comune raggruppare sequenze di bit in entità più vaste che possono assumere valori
in intervalli assai più ampi di quello consentito da un singolo bit. Questi raggruppamenti contengono generalmente
un numero di stringhe binarie pari ad una potenza binaria, pari cioè a 2n; il più noto è il byte (chiamato anche
ottetto), corrispondente ad 8 bit, che costituisce l'unità di misura più utilizzata in campo informatico. Altri
raggruppamenti di questo tipo sono i seguenti:
• nibble 4 bit, la metà di un byte
• word di lunghezza variabile, corrisponde a 16 o 32 o 64 bit a seconda del tipo di macchina. (L'API di Windows
definisce il tipo di dato WORD come un numero intero di 16 bit senza segno su tutte le piattaforme. Questa
circostanza, unita alle normali esigenze di retrocompatibilità dei nuovi sistemi, fa sì che spesso la lunghezza di un
word venga fissata pari a 16 bit indipendentemente dall'hardware.)
• double word pari a 2 word (DWORD o LONGWORD)
• quad word pari a 4 word (QWORD)
• kibibyte 1024 byte, indicato con KiB
• mebibyte 1024 kibibyte, indicato con MiB
• gibibyte 1024 mebibyte, indicato con GiB
• tebibyte 1024 gibibyte, indicato con TiB
• pebibyte 1024 tebibyte, indicato con PiB
• exbibyte 1024 pebibyte, indicato con EiB
• zebibyte 1024 exbibyte, indicato con ZiB
• yobibyte 1024 zebibyte, indicato con YiB
NB: Le espressioni word, double word e quad word vengono usate come tipo di dato in programmazione
(prevalentemente in linguaggio assembly e in linguaggio C).

Voci correlate
• Algebra di Boole
• Sistema numerico binario
• Qubit
• Unità di misura
• Ordini di grandezza (dati)
• Byte
• Binit (pacchetto di bit)
• Trit
• Qutrit
• Nibble
Profondità di bit 71

Profondità di bit
In audio digitale, la profondità di bit (bit depth) indica la quantità di bit di informazioni presenti per ogni campione,
descrivendone quindi la risoluzione. Gli esempi più comuni sono il CD audio, registrato a 16 bit, e il DVD audio,
che supporta una profondità fino a 24 bit.
Un insieme di campioni audio digitali contiene le informazioni che, convertite in segnale analogico, permettono di
ricostruire e riprodurre la forma d’onda. In Pulse-Code modulation (PCM, modulazione codificata di impulsi) la
profondità influisce sull’intervallo dinamico e sul rapporto segnale-rumore. Non influisce invece sulla frequenza, che
è definita solamente dalla frequenza di campionamento.
La relazione tra la profondità e l’intervallo dinamico è approssimabile in un rapporto di 1:6 (all’aumento di un bit di
risoluzione, l’intervallo dinamico aumenta di 6 decibel). L’audio digitale a 24 bit ha un intervallo dinamico massimo
teorico di 144 decibel, a differenza dei 96 decibel del 16 bit. Tuttavia l’intervallo dinamico massimo finora ottenibile
è di circa 120 decibel, a causa delle limitazioni intrinseche ai circuiti integrati.
L’importanza della bit depth nell’audio PCM è che essa determina l’intervallo dinamico massimo. In una ideale
registrazione PCM, in cui la frequenza di campionamento è ben al di sopra del limite di Nyquist e a cui non è stato
applicato noise shaping, l’intervallo dinamico in decibel è 1.76 + 6.02 * numero di bit. Questa formula viene spesso
semplificata in 6 decibel per bit, portando al valore comune di 96 decibel per i 16 bit dei CD audio e 144 per i 24 bit.

Sample and hold


In elettronica, il circuito sample and hold
(abbreviato S&H) è un campionatore
utilizzato come interfaccia tra un segnale
analogico che varia velocemente nel tempo e
un dispositivo successivo, spesso un
convertitore analogico-digitale (ADC, analog
to digital converter). L'effetto di questo
circuito è di mantenere il valore analogico
costante per il tempo necessario al convertitore
o ad altri circuiti successivi per compiere delle
operazioni sul segnale.

Nella maggior parte dei circuiti si utilizza un


Schema base di un circuito S&H.
condensatore a bassa capacità C per
conservare la tensione analogica, più un
interruttore (costituito solitamente da un MOSFET, che ha una piccola resistenza di ingresso intrinseca R), il quale
connette e disconnette il condensatore all'ingresso analogico. Al source del transistor è collegato un buffer, che
mantiene l'impedenza di ingresso globale elevata.

La procedura di utilizzo consiste nell'iniettare nel gate del transistor un segnale impulsivo, permettendo così al
source del MOSFET di raggiungere (in modo pressoché istantaneo, date le grandezze del partitore RC) la tensione
del generatore in ingresso. Nell'istante successivo all'immissione dell'impulso, l'interruttore si chiude, perciò il
condensatore non si scarica, "memorizzando" così il segnale di ingresso. Ripetendo tale procedura più volte, si
ottiene in uscita una rappresentazione "a scalino" della tensione di ingresso. La frequenza con cui l'interruttore viene
aperto o chiuso è la frequenza di campionamento del sistema.
Sample and hold 72

Il motivo della necessità di un simile


circuito è evidente: nell'ADC l'input viene
comparato con una serie di voltaggi prodotti
da un convertitore digitale-analogico interno
finché le due misure non corrispondono
(entro un certo margine di errore). Nel caso
l'ADC fosse collegato direttamente al
segnale da convertire, senza un circuito
S&H che ne mantenga il valore, l'input
potrebbe variare durante il processo di
comparazione, portando ad una conversione
inaccurata o completamente errata.
Grafico delle tensioni in un circuito S&H, nell'esempio di un ingresso sinusoidale.
Spesso i sample and hold sono utilizzati
quando vi è la necessità di analizzare più
segnali: ciascun ingresso viene acquisito e mantenuto utilizzando un segnale di clock comune a tutti i circuiti, in
modo da poter leggere comodamente i valori.
È essenziale che la capacità abbia poche perdite, così da mantenere costante la tensione di ingresso, e che non abbia
carico, cioè abbia una grande impedenza di ingresso.

Voci correlate
• Convertitore analogico-digitale
• Convertitore digitale-analogico
• Frequenza di campionamento
Pulse-code modulation 73

Pulse-code modulation
In elettronica e telecomunicazioni la pulse-code modulation (letteralmente "modulazione codificata di impulsi"), in
acronimo PCM, è un metodo di rappresentazione digitale di un segnale analogico. Il metodo utilizza un
campionamento dell'ascissa del segnale a intervalli regolari; i valori letti vengono poi quantizzati in ordinata ed
infine digitalizzati (in genere codificati in forma binaria). La PCM è ampiamente utilizzata nei sistemi di telefonia,
ma si basano su questo principio anche molti standard video, come l'ITU-R BT.601. Poiché la PCM pura richiede un
bitrate molto elevato, gli standard video di consumo come DVD o DVR sono basati su sue varianti che fanno uso di
tecniche di compressione. Molto frequentemente, la codifica PCM viene impiegata per facilitare le trasmissioni
digitali in forma seriale.

Modulazione
Nel diagramma un'onda sinusoidale (rossa) è
campionata e quantizzata. L’onda sinusoidale è
campionata a intervalli regolari rappresentati dai trattini
sull’asse delle x. Per ogni campione, uno dei valori
disponibili sull’asse delle y è scelto da opportuni
algoritmi. Questo produce una rappresentazione
discreta del segnale di ingresso che può essere
facilmente codificata in digitale per essere memorizzata
e manipolata. Per l'onda sinusoidale rappresentata sulla
destra possiamo verificare che i valori campionati sono
quantizzati con i valori 9, 11, 12, 13, 14, 14, 15, 15, 15,
14, etc. Codificando questi valori in binario avremo le
seguenti parole di 4 bit : 1001, 1011, 1100, 1101, 1110, Campionamento e quantizzazione di un segnale (rosso) a 4 bit

1110, 1111, 1111, 1111, 1110, etc. Questi valori


digitali possono essere processati o analizzati da un analizzatore di segnali digitali o da una semplice CPU. Diversi
canali PCM possono anche essere multiplexati di solito per trasmettere una maggior quantità di dati su un unico
mezzo trasmissivo. Questa tecnica è chiamata Time Division Multiplexing (TDM, o multiplazione a divisione di
tempo), ed è largamente usata nei moderni sistemi di telefonia pubblica. Queste operazioni sono effettuati da un
unico circuito integrato chiamato ADC (analog-to-digital converter) a cui va fornito solamente il clock e
l’alimentazione, in uscita produce direttamente la codifica digitale del segnale analogico in ingresso.

Demodulazione
Per ricavare in ricezione il segnale campionato di ingresso si utilizza la demodulazione, cioè il contrario della
modulazione. Passato ogni periodo di campionamento è letto il seguente valore e l’uscita si porta quasi
istantaneamente al nuovo valore. Come risultato di queste variazione istantanee si avranno un alto numero di
armoniche indesiderate (maggiori di ) che si possono eliminare attraverso un filtro analogico. Teoricamente è

impossibile rappresentare discretamente un segnale con banda infinita ma secondo il teorema del campionamento se
si utilizza una frequenza di campionamento molto più alta di quella del segnale (pari a due volte sua banda di
frequenza ) il segnale ricostruito in ricezione non si discosterà molto da quello originario. L’elettronica utilizzata per
riprodurre un accurato segnale analogico da dati discreti è simile a quella usata per generare il segnale digitale.
Questi dispositivi sono chiamati DAC (digital-to-analog converters), e operano in modo simile agli ADC. Producono
in uscita una tensione o una corrente (dipende dal tipo) secondo il valore presente in ingresso. Questo segnale di
Pulse-code modulation 74

uscita viene generalmente filtrato e amplificato prima di essere utilizzato.

Limitazioni
Ci sono due fonti di errore implicite nel PCM:
• scegliere un valore discreto “vicino” a quello del segnale analogico per ogni campione (errore di quantizzazione).
• nessuna misura è effettuata tra due campioni; secondo il teorema del campionamento ogni componente di
frequenza superiore o uguale a sarà distorta o persa completamente (effetto di aliasing).

Poiché i campioni dipendono dal tempo è necessario un clock molto preciso per un’accurata riproduzione. Se il clock
di codifica o decodifica non è preciso ne risentirà la qualità del segnale in uscita dal dispositivo. Un piccolo errore tra
i due clock non è motivo di preoccupazione benché sia costante, tuttavia se l’errore non è costante si va incontro ad
una distorsione considerevole soprattutto nei segnali audio e video.

Digitalizzazione
Nel PCM convenzionale, il segnale analogico può essere modificato (ad esempio mediante compressione del livello
audio) prima di essere digitalizzato. Una volta effettuato il passaggio alla forma digitale, il segnale PCM è di solito
soggetto ad ulteriori elaborazioni (per esempio compressione dei dati).
Alcune forme particolari di PCM combinano insieme l'elaborazione e la codifica dei segnali. Le vecchie versioni di
questi sistemi applicavano l'elaborazione nel dominio analogico come parte della conversione analogico-digitale,
mentre le implementazioni più recenti la svolgono nel dominio digitale. Queste semplici tecniche sono state poi rese
obsolete dalle moderne tecniche di compressione audio digitale.

Differential pulse-code modulation


La differential pulse-code modulation (DPCM) codifica i valori della PCM tramite le differenze tra il valore
successivo e quello precedente. Per i segnali audio questo tipo di codifica riduce il numero di bit richiesti per
campione di circa il 25% rispetto al PCM.
La DPCM è una tecnica di predizione dei campioni utilizzata per la trasmissione di segnali analogici in formato
numerico (digitale). La tecnica prevede la quantizzazione e codifica binaria dell'errore tra la predizione generata e il
campione analogico in ingresso. Il valore di predizione viene ottenuto mediante un predittore più complicato rispetto
a quelli utilizzati in tecniche più semplici ma meno precise e tiene conto della funzione di autocorrelazione di un
segnale analogico. In particolare il valore predetto è dipendente da N campioni precedenti ad ognuno dei quali è
assegnato un "peso" a cui corrisponde il proprio coefficiente Ci.
La DPCM viene calcolata mediante l'espressione:

dove Tc esprime il tempo di campionamento 1/fc del segnale analogico in ingresso al sistema.
Il valore dei coefficienti Ci è ottenuto attraverso un calcolo matriciale che tiene conto appunto della autocorrelazione
Rx(i). Il valore di predizione sarà tanto più preciso quanto meglio è possibile stimare la funzione di autocorrelazione
stessa.
Pulse-code modulation 75

Adaptive differential pulse-code modulation


L'adaptive DPCM (ADPCM) è una variante del DPCM che rende arbitraria la dimensione dei passi di
campionamento, così da consentire ulteriori riduzioni della larghezza di banda richiesta per un dato rapporto
segnale-rumore.

Modulazione delta
Esiste anche la modulazione delta, che può essere vista come una variante della DPCM: con questo metodo di
compressione si richiede che ogni valore campionato differisca dal precedente di +1 o -1; sotto queste condizioni,
può essere trasmesso un singolo bit che dice se il nuovo campione è maggiore o minore del precedente.
L'occupazione di banda è di 1/4 rispetto al PCM classico. La modulazione delta è adottata dai sistemi di
telecomunicazioni militari (NATO e non) sin dagli anni settanta.

Codifica per la trasmissione


La PCM può essere sia return-to-zero (RZ) sia non-return-to-zero (NRZ). Nei sistemi NRZ è necessaria la
sincronizzazione è quindi non ci possono essere lunghe sequenze di 1 o di 0. Nei sistemi PCM binari la densità di 1 è
chiamata appunto “ones-density”. La Ones-density è spesso controllata con una tecnica di precodifica chiamata Run
Length Limited, con cui il codice PCM è leggermente allungato e viene garantito un limite di ones-density prima
della modulazione. In altri casi sono aggiunte occasionali variazioni di livello nel flusso. Un'altra tecnica per il
controllo della ones-density è l'uso dello scrambler che fa sembrare il flusso dati pseudo-random, l’originario segnale
può essere estratto mediante un’operazione inversa. Lunghe sequenze di 0 e di 1 sono ancora possibili ma altamente
improbabili.

Storia della PCM


La PCM, come molte altre grandi invenzioni sembra essere semplice ed ovvia. Il motivo principale che portò alla
campionatura dei segnali era la necessità di far passare su un unico cavo diversi campioni provenienti da diverse
fonti telegrafiche. La TDM (time-division multiplexing) fu inventata nel 1853, dallo statunitense M.B. Farmer.
L'ingegnere elettrico W.M. Miner, nel 1903, usò un commutatore elettro-meccanico per la multiplazione a divisione
di tempo di diversi segnali telegrafici, applicò in seguito questa tecnologia alla telefonia. Ottenne flussi audio
intelligibili per canali campionati a 3500–4300 Hz: al di sotto la comunicazione era insoddisfacente. Questa TDM
usava canali PAM (pulse-amplitude modulation) e non PCM.
Paul M. Rainey della Western Electric nel 1926 brevettò un convertitore analogico-digitale che però non andò mai in
produzione. L'ingegnere inglese Alec Reeves, ignaro del lavoro precedente, pensò alla PCM per le comunicazioni
vocali nel 1937 mentre lavorava per la International Telephone and Telegraph in Francia. Descrisse la teoria e i
vantaggi ma non ne derivarono usi pratici. Reeves brevettò questi studi in Francia nel 1938, e nel 1943 negli Stati
Uniti.
La prima trasmissione di un discorso mediante tecniche digitali fu utilizzata per le comunicazioni di alto livello degli
Alleati durante la Seconda guerra mondiale nel 1943.
Non prima della metà del 1943 i tecnici dei Bell Labs che inventarono il sistema SIGSALY (usato per le
comunicazioni degli Alleati), vennero a conoscenza che la codifica binaria PCM era già stata proposta da Alec
Reeves. La PCM negli anni ’50 usava un tubo a raggi catodici con una griglia perforata per la codifica. Come in un
oscilloscopio il raggio si muoveva orizzontalmente alla frequenza di campionamento e lo spostamento verticale era
controllato dal segnale analogico d’ingresso. La griglia era progettata non per produrre codice binario semplice, bensì
codice Gray.
Pulse-code modulation 76

Riferimenti
• Franklin S. Cooper, Ignatius Mattingly (1969). Computer-controlled PCM system for investigation of dichotic
speech perception. Journal of the Acoustical Society of America 46: 115.
• Ken C. Pohlmann, Principles of Digital Audio, 2nd ed., Carmel, Indiana, Sams/Prentice-Hall Computer
Publishing, 1985. ISBN 0-672-22634-0
• D. H. Whalen, E. R. Wiley, Philip E. Rubin, and Franklin S. Cooper (1990). The Haskins Laboratories pulse code
modulation (PCM) system. Behavior Research Methods, Instruments, and Computers 22: 550-559.
• Bill Waggener, Pulse Code Modulation Techniques, 1st ed., New York, NY, Van Nostrand Reinhold, 1995. ISBN
0-442-01436-8
• William N. Waggener, Pulse Code Modulation Systems Design, 1st ed., Boston, MA, Artech House, 1999. ISBN
0-89006-776-7

Collegamenti esterni
• Ralph Miller [1] and Bob Badgley invented multi-level PCM independently in their work at Bell Labs on
SIGSALY: U.S. Patent 3912868 [2]: N-ary Pulse Code Modulation.
• According to the Inventors Hall of Fame, B.M Oliver and Claude Shannon are the inventors of PCM as described
in 'Communication System Employing Pulse Code Modulation,' U.S. Patent 2801281 [3] filed in 1946 and 1952,
granted in 1956.
• Information about PCM [4]: A description of PCM with links to information about subtypes of this format (for
example Linear Pulse Code Modulation), and references to their specifications.

Note
[1] http:/ / www. ralph-miller. org/
[2] http:/ / patft. uspto. gov/ netacgi/ nph-Parser?patentnumber=3912868
[3] http:/ / patft. uspto. gov/ netacgi/ nph-Parser?patentnumber=2801281
[4] http:/ / www. digitalpreservation. gov/ formats/ fdd/ fdd000016. shtml
Campionamento 77

Campionamento
• Nella teoria dei segnali il campionamento è una tecnica che consiste nel convertire un segnale continuo nel
tempo in un segnale discreto, valutandone l'ampiezza a intervalli di tempo regolari.
• In statistica il campionamento è un metodo per selezionare un campione rappresentativo di un determinato
insieme di dati, in modo da ottenere risultati generalizzabili (nel campo della qualità, nella demografia eccetera).
• In musica un campionamento è la tecnica di composizione di suoni o brani musicali mediante l'uso di un
campionatore.
• In chimica il campionamento è l'insieme delle operazioni atte a produrre un campione significativamente
rappresentativo della sostanza da analizzare.
• Nell'industria il campionamento è il procedimento che consente di sottoporre al Controllo qualità aziendale una
porzione sufficientemente significativa di una partita di merce acquistata o prodotta.

Campionamento (teoria dei segnali)


Nella teoria dei segnali il campionamento è una tecnica che consiste nel convertire un segnale continuo nel tempo
in un segnale discreto, valutandone l'ampiezza a intervalli di tempo regolari. In questo modo, a seguito di una
successiva operazione di quantizzazione e conversione, è possibile ottenere una stringa digitale (discreta nel tempo e
nell'ampiezza) che approssimi quella continua originaria.
In parole povere il campionamento consiste nell'andare a "sentire" (misurare, registrare) il valore del segnale
analogico in diversi istanti di tempo. Il tempo T che intercorre tra una valutazione e l'altra si chiama periodo di
campionamento. La frequenza di campionamento F=1/T è invece l'inverso del periodo di campionamento.
Il teorema che stabilisce quale sia la frequenza minima di campionamento con una determinata caratterizzazione in
frequenza (trasformata di Fourier) affinché il segnale analogico possa essere ricostruito a valle a partire da quello
discreto in input è il teorema del campionamento di Nyquist, ovvero:

Dove è la frequenza di campionamento ed è la massima frequenza dello spettro del segnale da campionare.
Conversione analogico-digitale 78

Conversione analogico-digitale
La conversione analogico-digitale è un procedimento che associa a un segnale analogico (tempo continuo e
continuo nei valori) un segnale numerico (tempo discreto e discreto nei valori). Questo procedimento oggi è
effettuato esclusivamente tramite circuiti integrati dedicati, o circuiti ibridi.
Nonostante la teoria fosse pronta da molto tempo, la "rivoluzione digitale" che ha modificato in qualche misura il
modo di vivere delle persone, consentendo una vera e propria "tecnologicizzazione" di massa, inizia nei primi anni
ottanta. Si trattava, sostanzialmente, di risolvere due problemi di carattere prettamente tecnologico: aumentare la
velocità di elaborazione dei circuiti e diminuirne l'ingombro; più tardi si cominciò a scontrarsi anche con
problematiche legate al consumo energetico. Tutto si è risolto con l'integrazione sempre più spinta dei circuiti,
permessa anche dal miglioramento delle prestazioni dei transistori MOSFET.
L'idea che sta alla base della digitalizzazione è la seguente: qualsiasi grandezza fisica di interesse (tensione, corrente,
pressione, velocità...) viene misurata e il valore della sua misura codificato come numero binario; se la grandezza
assume diversi valori nel tempo, essa sarà misurata a intervalli regolari, dando luogo ad una sequenza di numeri.
Lo schema rappresenta il procedimento completo.

La conversione analogico-digitale si può suddividere in quattro parti principali:


1. filtraggio del segnale
2. campionamento del segnale
3. quantizzazione dei campioni
4. codifica dei campioni quantizzati

Voci correlate
• Convertitore analogico-digitale
• Convertitore digitale-analogico
Convertitore analogico-digitale 79

Convertitore analogico-digitale
Analog to Digital Converter (ADC), in italiano convertitore
analogico-digitale, è un circuito elettronico in grado di convertire un
segnale Analogico con andamento continuo (ad es. una tensione) in
una serie di valori discreti (vedi teoria sulla conversione
analogico-digitale). Il convertitore digitale-analogico o DAC compie
l'operazione inversa.

Risoluzione
La risoluzione di un ADC indica il numero di valori discreti che può
produrre. È usualmente espressa in Bit. Per esempio, un ADC che
codifica un ingresso analogico in 256 livelli discreti ha una risoluzione
di 8 bit, essendo 28 = 256. La risoluzione può anche essere definita
elettricamente, ed espressa in volt. La risoluzione in volt di un ADC è
uguale alla minima differenza di potenziale tra due segnali che
vengono codificati con due livelli distinti adiacenti. Alcuni esempi Convertitore AD su USB
possono aiutare:

• Esempio 1:
• Range compreso tra 0 e 10 volt
• Risoluzione dell'ADC di 12 bit: 212 = 4096 livelli di quantizzazione
• La differenza di potenziale tra due livelli adiacenti è 10 V / 4096 = 0,00244 V = 2,44 mV
• Esempio 2:
• Range compreso tra -10 e 10 volt
• Risoluzione dell'ADC di 14 bit: 214 = 16384 livelli di quantizzazione
• La differenza di potenziale tra due livelli adiacenti è 20 V / 16384 = 0,00122 V = 1,22 mV
Nella pratica, la risoluzione di un convertitore è limitata dal rapporto segnale/rumore (S/N ratio) del segnale in
questione. Se è presente troppo rumore all'ingresso analogico, sarà impossibile convertire con accuratezza oltre un
certo numero di bit di risoluzione. Anche se l'ADC produrrà un valore, questo non sarà accurato essendo i bit meno
significativi funzione del rumore e non del segnale. Il rapporto S/N dovrebbe essere di circa 6 dB per bit.

Tipi di risposta
La maggior parte degli ADC sono lineari, il che significa che sono progettati per produrre in uscita un valore che è
funzione lineare del segnale di ingresso. Un altro tipo comune di ADC è quello logaritmico, che è usato in sistemi di
comunicazioni vocali per aumentare l'entropia del segnale digitalizzato.
L'istogramma di un segnale vocale ha la forma di due curve esponenziali inverse, e l'ADC non lineare cerca di
approssimare questo con una funzione di densità di probabilità quadrata come a-law o μ-law, funzioni logaritmiche.
Il segnale distorto ha un range dinamico inferiore, e la sua quantizzazione aggiunge meno rumore al segnale
originale rispetto a quanto farebbe un quantizzatore lineare con la stessa risoluzione in bit.
L'accuratezza dipende dall'errore della conversione. Questo errore è formato da due componenti: un errore di
quantizzazione e un errore di non-linearità (o infedeltà alla curva desiderata nel caso di ADC volutamente
non-lineari). Questi errori sono misurati con un'unità chiamata LSB (less significant bit = bit meno significativo) ed
indica fino a che punto i bit rappresentano segnale e quanti siano solo rumore. In un ADC a 8 bit, un errore di 1 LSB
è pari ad un errore di 1/256 ossia circa del 0,4%; è un modo per dire che l'ultimo bit è causale. In un ADC a 16 bit
Convertitore analogico-digitale 80

con un errore di 4 LSB significa che l'errore risulterà pari a 4/(216) ossia 0,006%.
L'errore di quantizzazione è dovuto alla risoluzione finita dell'ADC ed è una imperfezione intrinseca di tutti i tipi di
ADC. La grandezza dell'errore di quantizzazione su un campione è compresa tra zero e un LSB.
Tutti gli ADC soffrono di errori di non-linearità causati da imperfezioni fisiche, facendo deviare la loro uscita da una
funzione lineare (o da un'altra funzione, in caso di ADC volutamente non-lineari). Questi errori possono a volte
essere attenuati con una calibrazione.
Parametri importanti per la linearità sono non-linearità integrale (INL) e non linearità differenziale (DNL).

Sampling rate
Il segnale analogico è tempo-continuo ed è necessario convertirlo in un flusso di valori discreti. È quindi necessario
definire una frequenza alla quale campionare i valori discreti del segnale analogico. Questa frequenza è chiamata
sampling rate (frequenza di campionamento) del convertitore.
L'idea chiave è che un segnale di banda limitata che varia con continuità può essere campionato e poi riprodotto
esattamente dai valori tempo discreti con un algoritmo di interpolazione se la frequenza di campionamento è almeno
pari al doppio della banda del segnale (Teorema di Nyquist-Shannon). L'accuratezza tuttavia è limitata dall'errore di
quantizzazione.
Poiché nella pratica un ADC non può effettuare una conversione istantanea, il valore d'ingresso deve
necessariamente rimanere costante durante il tempo in cui il convertitore esegue la conversione (chiamato tempo di
conversione o conversion time). Un circuito d'ingresso chiamato sample/hold svolge questo compito - spesso si usa
un condensatore per immagazzinare la tensione del segnale in input e un interruttore elettronico per disconnettere il
condensatore dall'ingresso. Molti ADC realizzati su circuiti integrati realizzano il sottosistema di sample/hold
internamente.

Aliasing
Tutti gli ADC lavorano campionando il proprio input ad intervalli discreti di tempo. L'output di conseguenza è
un'immagine incompleta dell'input e non c'è modo di sapere, guardando soltanto l'output, che valori abbia assunto
l'input tra due istanti di campionamento adiacenti. Se è noto che l'ingresso varia lentamente confrontato con la
frequenza di campionamento, allora si può presumere che esso sia sempre contenuto tra i due estremi in
quell'intervallo. Il risultato diretto che si osserva riproducendo un segnale campionato ad una frequenza inferiore
della sua banda è che le componenti del segnale a frequenze superiori verranno riprodotti a frequenza diverse,
inferiori alla frequenza di campionamento. Ad esempio, campionando a 1.5 kHz un'onda sinusoidale a 2 kHz verrà
trasformata in una onda a 500 Hz (ed in opposizione di fase). Il problema dell'aliasing può essere osservato anche
visivamente, basta far caso che in televisione o al cinema (dove l'immagine è campionata a 25 Hz), oggetti in
rotazione a frequenza superiori, come pale di elicottero o ruote di automobili, spesso ci appaiano girare lentamente, o
addirittura al contrario, rispetto a quanto ci si aspetterebbe.
Per eliminare l'aliasing, l'ingresso di un ADC deve essere filtrato (low-pass) per rimuovere le frequenze superiori a
quelle di campionamento. Questo filtro è chiamato anti-aliasing ed è essenziale in un sistema ADC.
Convertitore analogico-digitale 81

Dither
Il dithering consiste nell'introdurre artificialmente del rumore nel
segnale di ingresso al fine di migliorare la qualità di conversione
superando la limitazione di una risoluzione finita. Anche se può
sembrare assurdo che del rumore possa migliorare la qualità si può
mostrare come questo sia vero con un semplice esempio numerico.
Supponiamo che il segnale di ingresso sia sempre pari e costante al
valore di 0,34 Volt e che il nostro convertitore abbia una risoluzione di
0,1 volt. In assenza di rumore il segnale sarà campionato e
approssimato come una sequenza di valori pari a 0,3 V, il livello più Dithering di un segnale costante
vicino del quantizzatore. Se invece sommiamo del rumore bianco, cioè
un segnale con valore medio nullo, con una varianza pari a 0,1 V (pari alla risoluzione del convertitore, 1LSB)
avremo che il segnale oscillerà ora tra 0,24 V e 0,44 V con il risultato che i campioni avranno i valori di 0,2, 0,3 o
0,4 Volt. Per le proprietà statistiche del rumore, il valor medio dei campioni, invece di 0,3 volt, sarà di 0,34 V: in
pratica il rumore ha annullato l'errore medio.

Osservando la figura, è chiaro come l'errore in assenza di dither si sommi nel tempo essendo le due linee spesse
parallele mentre la linea sottile, oscillando attorno al valore esatto, lo approssima in valor medio sempre di più al
passare del tempo.

Strutture ADC
In elettronica ci sono cinque modi comuni di implementare un ADC:
• Un ADC a conversione diretta (Flash ADC) ha un comparatore per ognuno dei livelli di voltaggio riconosciuti
dal quantizzatore. Un ADC flash ad 8-bit avrà 2^8-1 (=256-1) comparatori. Il segnale di ingresso arriva a tutti i
comparatori. Porteranno in uscita un valore di saturazione positivo tutti quelli in cui la tensione del segnale di
ingresso è maggiore di quella di soglia per quel determinato bit. Attraverso un priority encoder solo il maggiore di
essi attiverà la propria uscita, quello del livello corrispondente. I convertitori flash sono i più veloci in assoluto e
sono usati per campionare segnali in alta frequenza, fino a diversi GHz. Poiché il numero di comparatori necessari
cresce esponenzialmente con il numero dei bit richiesti, i convertitori flash raramente hanno più di 8 bit di
risoluzione.
• Un ADC ad approssimazioni successive (SAR - Successive Approximation Register) usa un comparatore e un
DAC, ad ogni passaggio l'ADC prova a impostare un bit, partendo dal MSB e usando il DAC confronta il segnale
campionato con il segnale di ingresso in feedback. Questo convertitore individua un bit ad ogni iterazione in una
sorta di ricerca binaria e la risoluzione è limitata solo dalle esigenze di sample-rate e dal rumore in ingresso.
• Un ADC ad inseguimento (a codifica-delta) ha un contatore up-down collegato ad un DAC. Un comparatore
confronta il segnale di uscita del DAC con il segnale di ingresso e interrompe il conteggio quando i valori sono
abbastanza vicini tra loro. Quando questo succede il contatore contiene il livello quantizzato del segnale. Questi
convertitori sono usati spesso per leggere grandezze fisiche che non variano con elevata velocità ma che devono
essere lette con molta precisione.
• Un ADC a doppia rampa (Dual Slope) (o ad integrazione) produce un segnale a dente di sega che sale, per poi
cadere velocemente a zero. Il segnale di ingresso viene integrato facendo salire la rampa mentre un contatore
segna il tempo. Quando la rampa raggiunge un livello noto il conteggio termina e indica il valore quantizzato del
segnale. Questo tipo di ADC è sensibile alla temperatura poiché può alterare il clock usato per segnare il tempo o
alterare il voltaggio di riferimento per la rampa e deve essere ricalibrato spesso.
• Un ADC a pipeline (noto anche come subranging quantizer) è simile al ADC ad approssimazioni successive
ma invece di individuare un bit alla volta individua un blocco di bit; in un primo passo avviene una conversione
Convertitore analogico-digitale 82

grezza del segnale che viene poi riconvertito da un DAC; quindi si quantizza la differenza tra il segnale originario
e quello campionato, eventualmente si può procedere a quantizzazioni sempre più fini con passi successivi. Se ad
esempio supponiamo di avere un quantizzatore a 4-bit che operi con un range di [0÷2,56 V] (quindi con una
risoluzione di 0,16 V) e un altro quantizzatore a 4-bit che operi però tra [0 V ÷ 0,16 V] con una risoluzione di
0,01 V. Dopo aver quantizzato il segnale di ingresso con il primo quantizzatore la differenza tra il segnale
quantizzato e quello di ingresso sarà al massimo quello della risoluzione, e può essere letto dal secondo
quantizzatore. Se il segnale di ingresso era pari a 2.50 V, il primo campionatore identificherà il livello 15 (1111 in
binario), che corrisponde ad un valore di 2,40 V, la differenza di 1,0 V viene quantizzata dal secondo con il livello
10 (1010 in binario); unendo i codici si ottiene 1111 1010 ossia un valore a 8 bit.

Difetti del convertitore analogico-digitale


Uno dei vari difetti di questo tipo di convertitore è la perdita di informazione che è uguale al quanto cioè 5
volt/256=19,3 millivolt circa dove 256 rappresenta le varie combinazioni possibili di 8 bit.[1]

Tipi fi convertitori analogico-digitali


I convertitori analogico-digitali si dividono in[2] :
• veloci
• e lenti ma più precisi.
Esistono, tra l'altro, vari tipi di convertitori analogico-digitali adatti ciascuno per uno scopo[3] :
• ad 11 kHz par la registrazione della voce umana;
• a 22 kHz per la registrazione su nastro;
• a 44 kHz per la registrazione su cd.

Note
[1] convertitori analogico-digitali (http:/ / www. antoniosantoro. com/ add. htm)
[2] Il convertitore analogico-digitale (http:/ / www. oocities. org/ drmarzi/ labview/ convad. htm)
[3] ADC (convertitore analogico digitale) TOP (http:/ / it. emcelettronica. com/ adc-convertitore-analogico-digitale-top)

Voci correlate
• Quantizzazione (elettronica)
• Convertitore digitale-analogico
• Modem
• DSP
• Adc0804
Convertitore analogico-digitale 83

Collegamenti esterni
• Nota applicativa sul miglioramento della conversione mediante dithering (http://www.atmel.com/dyn/
resources/prod_documents/doc8003.pdf)
• Migliorare la risoluzione di un sistema di conversione AD tramite la tecnica di sovracampionamento e media
(https://www.silabs.com/Support Documents/TechnicalDocs/an118.pdf)
• Descrizione dei principali parametri che quantificano la bontà di un sistema di conversione AD (SINAD, ENOB,
SNR, THD, THD + N, SFDR) (http://www.analog.com/static/imported-files/tutorials/MT-003.pdf)

Frequenza di campionamento
La frequenza di campionamento è la misura espressa in hertz del
numero di volte al secondo in cui un segnale analogico viene misurato
e memorizzato in forma digitale (da "digit" che in inglese significa
numero).
In altre parole la frequenza di campionamento è lo strumento che si
utilizza per tradurre un fenomeno naturale in una rappresentazione
numerica. Il fenomeno naturale è comprensibile all'umanità, mentre la L'onda di un segnale analogica...

rappresentazione numerica al Computer e tutte quelle macchine che


sono basate sul bit.
Ogni singola misurazione del segnale corrisponde ad un numero
memorizzato, e viene detta campione; nella produzione dei campioni
avvengono generalmente innumerevoli errori di campionamento,
ascrivibili soprattutto alla stessa forma digitale con cui sono
memorizzati, che per forza di cose deve essere rappresentata su un
numero di cifre finito; se nella teoria è sufficiente, nota la larghezza di ... e il campionamento del segnale
banda del segnale, applicare il teorema del campionamento di
Nyquist-Shannon per ottenere la frequenza ideale, tale da consentire la completa ricostruzione del segnale a partire
dai suoi campioni, nella pratica la ricostruzione perfetta risulta spesso impossibile, ed anzi si introducono
volontariamente degli errori di precisione per ridurre il numero di cifre necessarie, procedimento che prende il nome
di quantizzazione. Nella maggior parte delle applicazioni ciò non costituisce un problema, perché una
rappresentazione approssimata è più che sufficiente a consentire un'interpretazione corretta del segnale (ad esempio
nel caso di segnali sonori, grafici o multimediali).

Un esempio è il supporto digitale nato dallo studio della frequenza di campionamento di segnali audio è il "cd" o
"compact disc", esso prevede che il segnale audio analogico sia prima digitalizzato ad un frequenza di 44,1 kHz a 16
bit (la larghezza di banda delle frequenze udibili è di 22 kHz per il teorema del campionamento di Nyquist-Shannon
la frequenza di campionamento deve al minimo essere il doppio che quindi risulta 44,1 kHz)
Frequenza di campionamento 84

Audio
Nell audio digitale, le più comuni frequenze di campionamento sono:

Frequenza di Utilizzo
campionamento

8 000 Hz telefono e comunicazioni senza fili walkie-talkie

11 025 Hz un quarto della frequenza di campionamento degli audio CD; utilizzata per audio a bassa qualità PCM, MPEG e per analisi
audio della banda passante per i subwoofer

22 050 Hz La metà della frequenza di campionamento degli audio CD; utilizzata per audio a bassa qualità PCM, MPEG e per l'analisi
dell'energia alle basse frequenze. Utilizzabile per digitalizzare i precedenti formati audio analogici del XX secolo come ad
esempio i 78 giri.

32 000 Hz miniDV digital video camcorder, nastri video digitali con canali extra per le informazioni audio (es. DVCAM con 4 Canali
per l'Audio), DAT, Digitales Satellitenradio tedesca, compressione audio digitale NICAM, utilizzata per la televisione
analogica in alcuni stati. Radiomicrofoni di alta qualità.

44 100 Hz audio CD, utilizzata spesso con la compressione audio MPEG-1 per la creazione di (VCD, SVCD, e MP3). Molte
apparecchiature professionali utilizzano (o hanno presente come opzione) la frequenza di 44,1 kHz, inclusi mixer,
equalizzatori, compressori, reverberi, crossover, registratori e radiomicrofoni professionali.

47 250 Hz Frequenza del primo registratore commerciale PCM della Denon

48 000 Hz Utilizzata per miniDV, digitale terrestre, DVD e per la produzione di film.

50 000 Hz Frequenza dei primi registratori commerciali degli ultimi anni '70 da 3M a Soundstream

50 400 Hz Frequenza di campionamento utilizzata dal registratore audio digitale Mitsubishi X-80.

88 200 Hz produzione di un audio CD (multipla di 44 100 Hz).

96 000 Hz DVD-Audio, alcune tracce DVD LPCM, tracce audio del formato BD-ROM (Disco Blu-ray) e HD DVD (High-Definition
DVD).

176 400 Hz produzione di un audio CD (multipla di 44,100 Hz).

192 000 Hz DVD-Audio, alcune tracce DVD LPCM, tracce audio del formato BD-ROM (Disco Blu-ray) e HD DVD (High-Definition |
DVD). Registratori e sistemi di editing in Alta definizione

2 822 400 Hz SACD, 1-bit sigma-delta modulation processo di campionamento conosciuto come Direct Stream Digital, sviluppato da
Sony in collaborazione con Philips

Voci correlate
• Campionamento audio
• Campionatore
• Teorema del campionamento di Nyquist-Shannon
Teorema del campionamento di Nyquist-Shannon 85

Teorema del campionamento di Nyquist-Shannon


In teoria dei segnali, il teorema del campionamento mette in relazione il contenuto di un segnale campionato con la
frequenza di campionamento e le componenti minime e massime di frequenza del segnale originale, definendo così
la minima frequenza necessaria per campionare un segnale senza perdere informazioni, detta frequenza di Nyquist
o cadenza di Nyquist.
Il teorema afferma che, sotto le opportune ipotesi, la minima frequenza di campionamento necessaria per evitare
ambiguità nella ricostruzione del segnale con larghezza di banda finita e nota è pari al doppio della sua massima
frequenza.
Il teorema, comparso per la prima volta nel 1949 in un articolo di C. E. Shannon, dovrebbe chiamarsi
Whittaker-Nyquist-Kotelnikov-Shannon (WNKS), secondo l'ordine cronologico di chi ne dimostrò versioni via via
più generalizzate.

Segnale analogico Segnale analogico campionato

In pratica il teorema del campionamento pone un vincolo per la progettazione di apparati di conversione
analogico-digitale: se si ha a disposizione un campionatore che lavora a frequenza , è necessario mandargli in
ingresso un segnale a banda limitata da .

In generale un segnale analogico non è limitato in frequenza, ma dovrà essere filtrato per eliminare le componenti di
frequenza maggiore di , a tale scopo si usa un filtro anti-alias.

Il teorema del campionamento è utilizzato molto spesso anche in analisi statistica per stabilire il numero di
esperimenti da eseguire per collezionare un numero di dati (campioni) sufficienti per poter ricostruire correttamente
una funzione non nota in alcuni punti, per esempio in punti inaccessibili a causa di vincoli fisici oppure
semplicemente per ottenere dati tra due punti campionati tramite un esperimento. Congiuntamente a spline e a
funzioni di regressione permette di eseguire analisi piuttosto elaborate su segnali di origine fisica (temperature,
pressioni, conteggio di globuli bianchi e rossi, conteggio di stelle...)

Enunciato
Un segnale a banda limitata da può essere univocamente ricostruito dai suoi campioni

presi a frequenza , se .

Dimostrazione
Sia la Trasformata di Fourier di . Poiché ha come limite di banda , risulta per

. Sia , allora per ipotesi: .


Teorema del campionamento di Nyquist-Shannon 86

Fig. 1: La funzione

Sia la funzione periodica di periodo che coincide con nell'intervallo .

Fig. 2: La funzione è la trasformata di


fourier del segnale campionato .
Come si nota è periodica di periodo e
coincide con in .

Il suo sviluppo in serie di Fourier sarà:

Poiché in possiamo porre:

Osserviamo ora che è l'antitrasformata di Fourier di , cioè:

Dalle e si ottiene:

Definiamo:

allora:
Teorema del campionamento di Nyquist-Shannon 87

La e la mostrano che ,e quindi anche la sua antitrasformata , possono essere ricostruite sulla
base della conoscenza di , come volevasi dimostrare.

Spiegazione

Fig. 3: Se ha componenti in frequenza

maggiori di allora le ripetizioni periodiche di

si sovrappongono ed il segnale
ricostruito risulta distorto.

Lo spettro di un segnale campionato (Fig. 2 e 3) è uguale allo spettro del segnale originale ripetuto periodicamente in
frequenza. Il periodo di questa ripetizione è uguale alla frequenza di campionamento , quindi se la frequenza
massima del segnale originale supera (Fig. 3) le ripetizioni nello spettro del segnale campionato si

sovrappongono. Questa sovrapposizione rende impossibile l'esatta ricostruzione del segnale originale (l'ipotesi alla
base del passaggio (1) non è più soddisfatta) e tale ricostruzione risulterà distorta (aliasing). Per questo motivo ogni
apparato di conversione analogico-digitale ha un filtro anti-alias a monte del campionatore, il ruolo di tale filtro è
quello di eliminare dal segnale in ingresso le componenti di frequenza maggiori della metà della frequenza di
campionamento dell'apparato .
Teorema del campionamento di Nyquist-Shannon 88

Nota
Se si ha a disposizione un apparato di conversione A/D che lavora ad una data frequenza e si è interessati alle
componenti di un segnale che superano si possono seguire strade diverse:

1. Comprare uno strumento più veloce


2. Utilizzare tecniche di sottocampionamento
La seconda opzione è realizzabile quando le frequenze di interesse sono racchiuse in un range
, anche se sia che superano (quello che conta è la differenza). In

questo caso tuttavia il limite imposto dal teorema del campionamento non è più sufficiente a garantire un
campionamento corretto.

Collegamenti esterni
• spazioscuola.altervista.org [1]

Voci correlate
• Trasformata di Fourier
• Aliasing
• Campionamento
• Dithering

Note
[1] http:/ / spazioscuola. altervista. org/ UndersamplingAR/ UndersamplingARnvIT. htm
Convertitore digitale-analogico 89

Convertitore digitale-analogico
Il Digital (to) Analog Converter (DAC), in italiano Convertitore digitale-analogico, è un componente elettronico
in grado di produrre sul suo terminale di uscita, un determinato livello di tensione o di corrente, in funzione di un
valore numerico che viene presentato al suo ingresso; ad esempio, ad un valore pari ad 1 corrisponderà una tensione
di uscita di 0,1V, ad un valore di 2 avremo 0,2V così via. La tabella di conversione dal valore digitale a quello
analogico prende il nome di LUT (Look-Up Table) e può avere caratteristiche proporzionali (come nel precedente
esempio), o può seguire un andamento del tutto arbitrario, a seconda del suo impiego.
Una larga diffusione ad uso domestico dei DAC si ha nei riproduttori digitali di suoni, nel controllo dell'apertura del
diaframma nelle macchine fotografiche, nei controlli digitali (volume, luminosità) dei televisori e in tutte quelle
situazioni nelle quali un'informazione numerica deve controllare una grandezza di tipo analogico.
Le caratteristiche del DAC hanno più o meno rilevanza a seconda dell'impiego; ad esempio la risoluzione è
estremamente importante per le misure di precisione e la riproduzione di brani musicali ad alta fedeltà, e la qualità
sarà tanto più alta, quanto maggiore sarà la grandezza massima riproducibile sul suo ingresso digitale. Si va dagli 8
bit (256 livelli di tensione) dei DAC più semplici (telecomandi ecc.), ai 12 bit per i controlli di precisione (strumenti
di misura, multimetri, oscilloscopi), ai 16 bit per i riproduttori musicali ad alta fedeltà (16 bit permettono di
riprodurre una dinamica di 96 dB), fino ad arrivare al DVD che, con i suoi 24 bit di risoluzione, consente una
dinamica teorica di ben 144 dB.
All'aumentare della risoluzione, però, corrisponde un maggior numero di elaborazioni per ottenere la tensione
d'uscita; in altre parole, più è elevata la risoluzione del DAC e più la sua elaborazione ne risulterà rallentata.
Pertanto, la scelta della risoluzione dovrà obbligatoriamente tenere conto della velocità del dispositivo impiegato,
rispetto all'utilizzo al quale è destinato.

Struttura circuitale
• DAC a resistenze di Emettitore potenza del 2
I convertitori DAC a commutazione di corrente hanno una coppia differenziale per pilotare le linee di uscita (Io e
-Io) e ricevono la corrente da commutare dal collettore di un transistor tipicamente bipolare, il cui emettitore ha una
singola resistenza verso l'alimentazione negativa. La base di tutti i transistor è pilotata dal servosistema di
riferimento; la loro uscita è tipicamente una corrente e, se il riferimento è un segnale esterno, il DAC diventa DAC
Moltiplicatore
• DAC a rete R-2R
La singola resistenza di Emettitore dà problemi costruttivi, a causa del grande rapporto tra la resistenza dell'MSB e
quella dell'LSB.
Una tecnica in grado di rendere facile la costruzione di reti con un ottimo comportamento in un'ampia variazione
termica è la R-2R, dove i valori della rete sono solo due, e quindi mettendo 2N+1 resistenze nel circuito avremo una
rete ad N bit.
L'uscita di questo convertitore è quasi sempre una corrente.
• DAC flash
Questo convertitore è un convertitore a resistenza d'emettitore singola od a rete R-2R, il cui dato d'ingresso passa
attraverso un flip-flop D, aggiunto per evitare il jitter e migliorare i percorsi dei segnali all'interno del componente.
• DAC CMOS moltiplicante
Se le linee della rete R-2R sono commutate direttamente senza passare attraverso un transistor, ed al nodo principale
viene fornito un segnale, questo circuito moltiplica il dato d'ingresso D per la tensione d'ingresso ottenendo
.
Convertitore digitale-analogico 90

L'uscita di questo convertitore è una tensione.


• DAC ad 1 bit o convertitore Sigma-Delta
Usando una tecnica di sovracampionamento si può commutare la tensione di pilotaggio di un integratore, la cui
uscita sarà filtrata a frequenza molto inferiore.
Questo convertitore è a basso costo e rende grandi risoluzioni senza necessità di circuiti precisi, infatti la precisione
avviene digitalmente all'interno della logica di pilotaggio, e le sole parti precise saranno la tensione di riferimento e
la velocissima frequenza di clock.
L'uscita di questo convertitore è una tensione.
• DAC a capacità commutate
Questo convertitore è spesso usato nei microcontrollori, e la sua attività si svolge nello scambio di carica tra un
riferimento (destinato a caricare un condensatore MOS) ed un punto di misura.
La tensione d'uscita è data dalla posizione dei commutatori CMOS.

Voci correlate
• Convertitore analogico-digitale
• Modulazione Sigma-Delta

Modulazione Sigma-Delta
La modulazione Sigma-Delta (ΣΔ; o Delta-Sigma, ΔΣ) è un metodo per tradurre segnali ad alta risoluzione in
segnali a bassa risoluzione tramite l'uso della modulazione a densità di impulsi. Questa tecnica ha visto accrescere la
propria utilizzazione in una vasta gamma di componenti elettronici moderni, come convertitori analogico-digitali, i
sintetizzatori di frequenza, gli alimentatori switched, e il controllo dei motori. Uno dei primi e più diffusi utilizzi
della modulazione sigma-delta è la conversione dei dati. Un circuito ADC o un DAC che implementa questa tecnica
più raggiungere facilmente una risoluzione molto elevata, utilizzando anche una tecnologia CMOS a basso costo,
cioè la tecnologia utilizzata per produrre i circuiti integrati digitali; per questo motivo, anche se la modulazione
sigma-delta fu presentata per la prima volta all'inizio degli anni sessanta, si è diffusa solo di recente, procedendo
passo passo con l'affinamento delle tecnologie in silicio. Quasi tutti i venditori di circuiti integrati analogici offrono
convertitori sigma-delta.

Conversione analogico-digitale
Per il convertitore analogico-digitale (ADC), questo metodo può essere pensato come un oscillatore controllato in
tensione, dove la tensione di comando è la tensione da misurare, e dove la linearità e la proporzionalità sono
determinate da una retroazione negativa.
L'uscita dell'oscillatore è rappresentata da un treno di impulsi, in cui ogni impulso ha un'ampiezza conosciuta e
costante pari a V, e durata dt; ognuno di essi ha pertanto un integrale noto pari a Vdt. Varia però l'intervallo di
separazione: l'intervallo tra gli impulsi è determinato dall'anello di reazione in modo tale che un ingresso di tensione
bassa produca un intervallo lungo tra gli impulsi, mentre un livello alto di tensione in ingresso produca un intervallo
breve. In effetti, a meno di errori negli switch, l'intervallo tra gli impulsi è proporzionale all'inverso della media della
tensione di ingresso durante l'intervallo e pertanto, l'intervallo ts è un campione della media della tensione di ingresso
proporzionale a V/ts. L'anello di reazione è costruito in modo tale che l'integrale dell'ingresso sia associato
all'integrale del treno di impulsi.
Modulazione Sigma-Delta 91

Il conteggio finale sull'uscita rappresenta la digitalizzazione della tensione di ingresso, e si determina contando gli
impulsi prodotti nel modo descritto sopra in un determinato periodo di tempo pari a Ndt; il conteggio che si ottiene è
Σ. L'integrale del treno di impulsi è ΣVdt, che viene prodotto durante un intervallo di durata Ndt e pertanto il valor
medio della tensione di ingresso nel periodo considerato è VΣ/N; essendo questo il valor medio delle medie, è
soggetto a una piccola varianza. L'accuratezza raggiunta dipende dall'accuratezza con cui si conosce V e la
precisione (o risoluzione) sta all'interno del tempo di un singolo conteggio in N.
Gli impulsi detti sopra possono essere trattati come una funzione δ (delta) di Dirac in un'analisi formale, e il
conteggio è definito come Σ (sigma). Sono questi impulsi ad essere trasmessi per la modulazione sigma-delta; nella
conversione analogico-digitale, invece, essi sono conteggiati per calcolare la somma Σ.
La figura 1 rappresenta un diagramma a blocchi
semplificato dell'analogo di un convertitore digitale
realizzato con sigma-delta
Sotto il diagramma a blocchi vi sono le forme d'onda
nei punti etichettati da 1 a 5 per un ingresso di 0,2V
sulla sinistra e di 0,4V sulla destra.
Nella maggior parte delle applicazioni pratiche,
l'intervallo di somma è maggiore, se comparato con
la durata dell'impulso e per i segnali che
rappresentano una frazione significativa del fondo
scala, la variabile separazione degli intervalli è
piccola, se comparata con l'intervallo di somma. Il
teorema del campionamento di Nyquist-Shannon
impone l'acquisizione di almeno due campioni per
periodo, per riuscire a ricostruire il segnale di
ingresso. I campioni appropriati, secondo questo
criterio, sono due conteggi successivi Σ presi in due
intervalli di somma contigui. L'intervallo di somma,
che deve accomodare un gran numero di conteggi per
ottenere la precisione voluta, è inevitabilmente lungo,
e pertanto il convertitore può operare solo a
frequenze relativamente basse. Risulta pertanto
conveniente rappresentare la tensione di ingresso (1) Fig. 1: diagramma a blocchi e forme d'onda di un ADC sigma-delta.
come costante su un intervallo di alcuni impulsi.
Modulazione Sigma-Delta 92

Considerando dapprima le forme


d'onda sulla sinistra: la tensione (1) è
l'ingresso, e in questo breve intervallo,
è costante a 0,2V. Il treno di impulsi a
delta è mostrato in (2) e la differenza
tra (1) e (2) è rappresentata in (3).
Questa differenza viene integrata per
produrre la forma d'onda (4); il
rivelatore di soglia genera un impulso
(5) che ha inizio quando l'onda (4)
attraversa la soglia e che ha termine
quando (4) ridiscende al di sotto della
soglia. All'interno dell'anello, (5) fa da
trigger per il generatore di impulsi, ed
all'esterno del loop, incrementa il Fig. 1a: effetto degli impulsi di clock
contatore. L'intervallo in cui avviene la
somma è un tempo prefissato: quando questo raggiunge il massimo, il contatore viene resettato.

È necessario che il rapporto tra la durata dell'impulso e l'intervallo di somma sia uguale al massimo conteggio (full
scale range); è allora possibile che la durata dell'impulso e l'intervallo di somma siano definiti dallo stesso clock,
ovviamente tramite un'opportuna scelta della logica e dei contatori. Ciò porta il vantaggio che nessun intervallo deve
essere definito con precisione assoluta, dato che risulta importante solo il rapporto. Pertanto, per ottenere
l'accuratezza complessiva, è necessario solamente che l'ampiezza dell'impulso sia definita accuratamente.
Alla destra della figura, l'ingresso è ora di 0,4V e la somma, durante l'impulso, vale -0,6V rispetto a -0,8V della parte
sinistra. Pertanto, la pendenza negativa durante l'impulso è minore a destra rispetto a sinistra.
Inoltre la somma vale 0,4V a destra durante l'intervallo, rispetto agli 0,2V della parte a sinistra. La pendenza positiva
al di fuori dell'impulso è pertanto più alta a destra che a sinistra.
L'effetto risultante è che l'integrale (4) attraversa la soglia più velocemente a destra che a sinistra; un'analisi completa
mostrerebbe che in effetti, l'intervallo di attraversamento della soglia a destra è la metà rispetto a quanto avviene a
sinistra. Pertanto la frequenza degli impulsi è raddoppiata; si vede quindi che il conteggio a destra ha il doppio della
velocità rispetto al conteggio a sinistra.
La costruzione delle forme d'onda illustrate in (4) è possibile anche tramite i concetti associati alla funzione delta di
Dirac, dato che tutti gli impulsi con ugual ampiezza producono per definizione, una volta integrati, lo stesso gradino
di tensione. Allora (4) viene costruita usando uno scalino intermedio (6) in cui ogni impulso integrato viene
rappresentato da uno scalino di ampiezza assegnata, che decade verso lo zero con velocità stabilita dalla tensione in
ingresso. L'effetto della durata finita dell'impulso è mostrata in (4) tramite una linea che parte dalla base del gradino
a zero volt, per intersecare il decadimento da (6) alla durata completa dell'impulso.
Come detto, la Figura 1 rappresenta un semplice diagramma a blocchi dell'ADC Sigma-Delta, in cui i vari elementi
funzionali sono stati separati; il diagramma è indipendente da qualsiasi implementazione particolare. Molte
applicazioni particolari cercano di definire la durata dell'impulso e l'intervallo di somma dal clock stesso, come
discusso sopra, ma in modo tale che l'inizio dell'impulso sia ritardato fino al successivo fronte del clock. L'effetto di
questo ritardo è mostrato in Figura 1a, per una sequenza di impulsi generata ogni 2,5 cicli di clock. Sono
rappresentati prima gli impulsi generati immediatamente non appena la soglia viene superata, e poi gli impulsi
ritardati dal clock.
Modulazione Sigma-Delta 93

Bibliografia
• R. Jacob Baker, CMOS Mixed-Signal Circuit Design, Second Edition, , 2009. http://CMOSedu.com/
• R. Schreier, G. Temes, Understanding Delta-Sigma Data Converters, , 2005. ISBN 0-471-46585-2
• S. Norsworthy, R. Schreier, G. Temes, Delta-Sigma Data Converters, , 1997. ISBN 0-7803-1045-4
• J. Candy, G. Temes, Oversampling Delta-sigma Data Converters, , 1992. ISBN 0-87942-285-8

Altri progetti
• Wikimedia Commons contiene file multimediali su Modulazione Sigma-Delta

Aliasing
L'aliasing (letteralmente impersonazione), o distorsione da campionamento lento, da sottocampionamento o
equivocazione, nell'elaborazione dei segnali è il fenomeno per il quale due segnali analogici diversi possono
diventare indistinguibili una volta campionati: questo costituisce un serio problema che si riflette direttamente
sull'uscita del sistema in esame, alterandone la veridicità.
L'aliasing può verificarsi sia nel tempo (aliasing temporale) che nello spazio (aliasing spaziale).
I segnali analogici vengono spesso convertiti in digitale per essere successivamente elaborati o archiviati. Durante
questa conversione analogico-digitale il segnale viene sottoposto a due distinte discrezioni: la discrezione dei tempi,
detta campionamento, e la discrezione delle ampiezze, detta quantizzazione.
Nella conversione digitale-analogica il segnale digitale viene trasformato nuovamente in un segnale analogico
operando una interpolazione.

Campionamento di un segnale sinusoidale


Campionando un segnale sinusoidale con una certa frequenza l'insieme
dei punti che si acquisiscono non permettono di identificare
univocamente una sola sinusoide. Dato che, tramite l'analisi di Fourier,
ogni segnale continuo può essere visto come sovrapposizione di seni e Esempio di aliasing dovuto ad un campionamento
coseni risulta importante in teoria dei segnali riuscire a limitare questa a frequenza insufficiente
ambiguità.

Il teorema del campionamento di Nyquist-Shannon


Un importante risultato matematico in questo ambito è dato dal teorema del campionamento di Nyquist-Shannon.
Questo afferma che, per campionare un segnale senza perdita di informazione, bisogna campionarlo con frequenza
almeno doppia rispetto alla frequenza della massima componente spettrale del segnale informativo (detta anche
frequenza di Nyquist)

Diagnostica per immagini

Ecografia
Nell'esame ecografico che sfrutta il Doppler si può incorrere nell'artefatto dell'aliasing. È tipico del Doppler pulsato e
del colorDoppler, mentre non si verifica col Doppler continuo e nel Power Doppler.
Si verifica quando la frequenza campionata è più alta della metà della frequenza emessa dalla sonda. Per tal motivo
l'immagine viene rappresentata come diretta in senso inverso rispetto alla direzione reale. Per esempio il flusso
Aliasing 94

sanguigno verrà codificato con un colore contrario alla direzione del flusso rispetto alla sonda: per convenzione
infatti il rosso è utilizzato per indicare un flusso verso la sonda, mentre il blu un flusso che si allontana. A causa
dell'aliasing il colore sarà invertito.

Risonanza magnetica
Quando l'oggetto è di dimensioni superiori al campo di vista, l'immagine viene ricostruita con le strutture esterne
ripiegate sullo strato esaminato.

Voci correlate
• Antialiasing
• Filtro anti-alias
• Teorema del campionamento di Nyquist-Shannon

Altri progetti
• Wikimedia Commons contiene file multimediali su Aliasing

Filtro anti-alias
Il filtro anti-alias è un filtro digitale utilizzato prima del campionamento di un segnale, al fine di restringere la
banda del segnale stesso per soddisfare approssimativamente il teorema del campionamento di Nyquist-Shannon.
Dal momento che il teorema dice che un'interpretazione non ambigua del segnale, a partire dal campionamento, è
possibile solo quando la potenza delle frequenze all'esterno della banda di Nyquist è zero, il filtro anti-aliasing
potrebbe soddisfare il teorema. Ogni possibile filtro anti-alias permetterà la presenza di qualche alias; l'ammontare
dell'alias presente nel risultato dipende dalla qualità del filtro.
I filtri anti-alias vengono solitamente usati nei sistemi di elaborazione numerica dei segnali, ad esempio in operazioni
di audio digitale o fotografia digitale; filtri simili vengono utilizzati anche nella ricostruzione dell'output nei lettori
musicali. Infine, il filtro evita l'alias durante la conversione di un campionamento in un segnale continuo, dove la
stop-band rejection è richiesta per garantire l'azzeramento dell'alias.
L'impossibilità teorica di costruire un filtro perfetto non è, in pratica, un grande ostacolo, visto che le considerazoini
pratiche portano a scelte implementative quali il sovracampionamento per creare filtri "sufficientemente buoni".

Filtri anti-alias ottici


In caso di campionamento ottico di un'immagine, ad esempio per i sensori delle fotocamere digitali, il filtro si
chiama anche filtro passa basso ottico, filtro di blur o AA filter. La matematica del campionamento in due
dimensioni è simile a quella del campionamento a dominio di tempo, ma le tecniche implementative del filtro sono
diverse. L'implementazione tipica delle fotocamere digitali si basa su un materiale bi-rifrangente a due strati come il
litio niobato, che rilancia ogni punto ottico in un gruppo di quattro altri punti.[1] La scelta di un particolare filtro
obbliga ad una mediazione tra precisione, aliasing, e fattore di riempimento. In una camera monocromatica,
three-CCD o Foveon X3 il fattore di riempimento da solo, se vicino al 100% con microlenti, è in grado di fornire un
buon effetto anti-alias, mentre nelle camere a colori (CFA, e.g. filtro Bayer) di solito serve un ulteriore filtro per
ridurre l'aliasing ad un livello accettabile.[2]
Filtro anti-alias 95

Applicabilità del sovracampionamento


Una tecnica nota con il nome di sovracampionamento (oversampling) viene solitamente usata nelle conversioni
audio, specialmente nell'output. L'idea consiste nell'usare una frequenza di campionamento superiore, in modo che
un filtro digitale quasi-ideale possa abbassare l'alias fino alla frequenza di Nyquist, mentre un filtro analogico più
semplice può bloccare le frequenza superiori ad una nuova più alta frequenza di Nyquist.
L'obiettivo del sovracampionamento è quello di abbassare i requisiti del filtro anti-alias, o ridurre l'aliasing stesso.
Dal momento che il filtro finale è analogico, il sovracampionamento permette al filtro di essere più economico visto
che i requisiti non sono così rigidi, ed allo stesso tempo permette al filtro di avere una frequenza di risposta più
dolce, e quindi una risposta con una fase meno complessa.
Sull'input si usa un filtro iniziale analogico, il segnale viene campionato ad alte frequenze, e quindi sottocampionato
utilizzando un filtro digitale quasi-ideale.

Forma dello spettro di frequenza


Spesso un filtro anti-aliasing è un filtro passa basso. In ogni caso questo non è necessario. Il teorema del
campionamento di Nyquist-Shannon dice che la frequenza di campionamento deve essere superiore al doppio della
larghezza della banda, non della frequenza massima, del segnale. Per i tipi di segnali limitati dalla larghezza di
banda, ma non centrati sullo zero, si potrebbe usare un filtro passa banda come anti-alias. Ad esempio si potrebbe
fare con un Single-sideband modulation o con un segnale a modulazione di frequenza. Se si volesse campionare un
segnale radio FM sul canale 200, un filtro appropriato sarebbe centrato su 87.9 MHz con una banda di 200 kHz (o
una banda passante da 87.8 MHz a 88.0 MHz), e la frequenza di campionamento non dovrebbe essere inferiore a 400
kHz. In questo caso non è l'audio ad essere campionato, ma lo stesso segnale trasmesso, il che non è comune.

Sovraccarico del segnale


È molto importante evitare un sovraccarico del segnale durante l'applicazione di un filtro anti-alias. Se il segnale è
abbastanza forte, può utilizzare il clipping di un convertitore analogico-digitale, anche dopo il filtraggio. Dal
momento che la distorsione del segnale creata dal clipping dell'onda filtrata ha luogo dopo l'applicazione del filtro, i
suoi componenti saranno sparsi su tutto lo spettro di frequenza, comprese quelle parti di banda che causano l'aliasing.
Nell'audio digitale il segnale "clippato" distorto ha un suono caratteristico che può facilmente essere riconosciuto.

Note
[1] Adrian Davies; Phil Fennessy, Digital imaging for photographers (http:/ / books. google. com/ books?vid=ISBN0240515900&
id=wsxk03-gceUC& pg=PA30& lpg=PA30& ots=BlxgR6ZXmz& dq=anti-aliasing+ lithium-niobate&
sig=YUsQZMtxjtq70oOYWmU1K2yfoNY#PPA30,M1) , Focal Press, 2001. ISBN 0240515900
[2] Brian W. Keelan, Handbook of Image Quality: Characterization and Prediction (http:/ / books. google. com/ books?vid=ISBN0824707702&
id=E45MTZn17gEC& pg=RA1-PA388& lpg=RA1-PA388& ots=noDzLfu2ju& dq=spot+ separation+ in+ optical+ anti-aliasing+ filters&
sig=IWnjfbrjX-oMXNkeW2ZBxH_RBmg) , Marcel–Dekker, 2004. ISBN 0824707702

Voci correlate
• Aliasing
• Anti-aliasing
• Frequenza di campionamento
Dithering 96

Dithering
Il dithering, nella elaborazione numerica di segnali, è una forma di rumore con una opportuna distribuzione, che
viene volontariamente aggiunto ai campioni con l'obiettivo di minimizzare la distorsione introdotta dal troncamento
nel caso in cui si riquantizzino i campioni stessi. Il dithering viene usato abitualmente nell'elaborazione di segnali
video e audio campionati e quantizzati. Il dithering non ha nulla a che vedere col jitter.

Storia
I primi studi teorici sulla quantizzazione delle ampiezze, risalgono alla fine degli anni '50 del secolo scorso. Bernard
Widrow, all'epoca al MIT e attualmente professore alla Stanford University ha mostrato, infatti, che il processo di
quantizzazione, dal punto di vista teorico, ha proprietà analoghe al campionamento del segnale per cui è possibile
estendere il teorema di Nyquist alla quantizzazione dei segnali. [1]
Di fondamentale importanza per lo sviluppo delle teorie legate al dithering è un secondo lavoro in cui vengono
dimostrati due teoremi che illustrano come la somma di rumore, con una certa distribuzione, al segnale quantizzato,
possa essere considerata in modo analogo al filtro antialiasing usato nel processo di campionamento temporale dei
segnali.[2]
Il concetto di dithering viene
ulteriormente approfondito da
Lawrence G. Roberts nella sua tesi di
dottorato nel 1961, presso il MIT,[4]
nonostante egli non abbia usato il
termine dither.

[3]
Definizione provinciale di dither
Dithering 97

Origine del termine "dither"

[5]
La prima definizione in un dizionario di didder

(EN) (IT)
« ...one of the earliest [applications] of dither came in « ...uno dei primi [usi] del dithering avvenne durante la Seconda
World War II. Airplane bombers used mechanical Guerra Mondiale. I bombardieri usarono i computer meccanici
computers to perform navigation and bomb trajectory per orientarsi e calcolare la traiettoria delle bombe.
calculations. Curiously, these computers (boxes filled Curiosamente, questi computer (scatole riempite con centinaia
with hundreds of gears and cogs) performed more d'ingranaggi e ruote dentate) funzionavano più accuratamente
accurately when flying on board the aircraft, and less quando erano impiegati a bordo degli aerei, e meno al suolo. Gli
well on ground. Engineers realized that the vibration ingegneri capirono che la vibrazione prodotta dall'aereo riduceva
from the aircraft reduced the error from sticky moving l'errore causato dai componenti viscosi in movimento. Invece di
parts. Instead of moving in short jerks, they moved more muoversi a scatti, si muovevano con maggiore continuità.
continuously. Small vibrating motors were built into the Vennero inseriti piccoli motorini all'interno dei computer, con
computers, and their vibration was called "dither" from l'intenzione di farli vibrare, e queste vibrazioni vennero chiamate
the Middle English verb 'didderen,' meaning 'to tremble.' 'dither', termine preso dal verbo anglosassone 'didderen', che
Today, when you tap a mechanical meter to increase its significava 'tremare'. Oggi, quando si dà un colpetto ad un
accuracy, you are applying dither, and modern contatore meccanico per aumentarne l'accuratezza, si sta
dictionaries define "dither" as 'a highly nervous, applicando del dithering, ed i moderni dizionari inglesi
confused, or agitated state.' In minute quantities, dither definiscono "dither" come 'stato di elevato nervosismo,
successfully makes a digitization system a little more confusione o agitazione'. In seguito il dithering rese i sistemi
analog in the good sense of the word. » digitali leggermente più analogici, nel senso buono del termine.
 »
(Ken Pohlmann, Principles of Digital Audio (quarta edizione, pagina 46) )
Dithering 98

Il dither nel processo digitale e nell'analisi delle forme d'onda


Il dithering viene spesso usato nei campi dell'audio e video digitali, dove serve per stimare le conversioni e (di solito
in modo facoltativo) alle trasformazioni di profondità di colore; viene utilizzato in molti settori differenti in cui il
processo e l'analisi digitale sono necessari - specialmente nell'analisi delle forme d'onda. Questi usi includono sistemi
digitali quali audio digitale, video digitale, fotografia digitale, sismologia, radar, meteorologia ed altri ancora.
La premessa è che la Quantizzazione e la ri-quantizzazione dei dati digitali genera errori. Se questo errore si ripete ed
è correlato al segnale, se ne ottiene uno ciclico, e matematicamente deterministico. In alcuni campi, specialmente
dove i recettori sono sensibili agli errori, il comportamento ciclico porta ad artefatti indesiderati. In questi ambiti il
dithering permette di avere artefatti non deterministici, che quindi perdono la loro ciclicità. Il campo sonoro è un
esempio primario: l'orecchio umano funziona allo stesso modo di una trasformata di Fourier, in cui individua singole
frequenze. L'orecchio è particolarmente sensibile alla distorsione, o a frequenze addizionali che modificano il colore
del suono. Questa sensibilità si può ridurre rendendo casuale il rumore su tutte le frequenze.

Audio digitale
La versione finale di un brano audio che finisce su di un compact disc, contiene solo 16 bit per campione ma, grazie
al processo di editing audio, i dati crescono in profondità quanto occorre. Più calcoli matematici svolgiamo, più il
campione cresce in profondità: come se si trattasse di aggiungere, moltiplicare o dividere numeri decimali. Alla fine i
dati digitali vengono riportati alla profondità iniziale (16 bit) per poter essere memorizzati su di un CD e distribuiti.
Esistono molti metodi che permettono di tornare ai canonici 16 bit. Ad esempio, si possono semplicemente troncare i
bit in eccesso (troncamento). È anche possibile arrotondare i bit in eccesso al valore più prossimo. Ognuno di questi
algoritmi, comunque, produce un imprevedibile errore nel risultato. Consideriamo, ad esempio, una forma d'onda
composta dai seguenti valori:

1 2 3 4 5 6 7 8

Se la riduciamo del 20% otteniamo questa sequenza:

0.8 1.6 2.4 3.2 4.0 4.8 5.6 6.4

Troncando i valori otteniamo:

0 1 2 3 4 4 5 6

Se invece li arrotondassimo avremmo:

1 2 2 3 4 5 6 6

Se qualsiasi sequenza, compresa quella iniziale, viene processata moltiplicando i valori per 0.8 il risultato conterrà
errori che saranno ovviamente ripetibili. Un'onda rappresentante la funzione di seno quantizzata al valore originario,
ad esempio, comporterà lo stesso errore ogni volta che il suo valore sarà "3.4" visto che il risultato verrebbe
abbassato di 0,4. Ogni volta che il valore è "5", l'errore dopo il processo sarà 0. In ogni caso, l'ammontare dell'errore
cambierà continuamente al modificarsi dei valori. Il risultato ha un comportamento ciclico nell'errore, che mostra la
sua frequenza addizionale sulla forma d'onda (distorsione armonica). L'orecchio è in grado di percepire questo errore
sotto forma di frequenza addizionale.
Non possiamo evitare il riprodursi degli errori in questo procedimento. Prendere un numero a due cifre (4.8) e
trasformarlo in uno ad una cifra (5) produce un errore, e questo è inevitabile. Quello che vogliamo fare è creare un
sistema in cui l'errore non si ripeta al ripetersi dei valori.
Una plausibile soluzione potrebbe essere di prendere un numero a due cifre (4.8) ed arrotondarlo in una delle due
direzioni. Ad esempio, lo arrotondiamo la prima volta a 5, la seconda a 4, e così via. In questo modo la media a
Dithering 99

lungo termine sarà 4.5, invece di 4, ed il valore sarà più simile a quello di partenza, 4.8. Questo metodo produce
ancora un errore deterministico (nonostante sia più complicato). Ogni volta che troviamo il valore 4.8 l'errore sarà
0.2 o -0.8. Quindi il problema non è risolto.
Un'altra soluzione consiste nell'arrotondare il 4.8 in modo che quattro volte su cinque diventi 5, e l'altra diventi 4. In
questo caso la media è esattamente 4.8 ma, sfortunatamente, l'errore è ancora deterministico, ed ancora l'orecchio lo
percepisce (nonostante il sovracampionamento possa limitare il disturbo).
Questo ragionamento porta al dithering. Invece di arrotondare con una ciclicità predicibile, che succederebbe se
lavorassimo in modo casuale? Possiamo arrotondare casualmente vincolando il totale in modo che l'80% delle volte
venga arrotondato a 5, lasciando così la media a 4.8 ma generando un errore irriproducibile. Proprio questo è il cuore
del dithering.
Calcoliamo una serie di numeri casuali compresi tra 0 e 0.9 (ad esempio: 0.6, 0.4, 0.5, 0.3, 0.7, etc.) e li aggiungiamo
al risultato della nostra equazione. Due volte su dieci il risultato verrà troncato a 4 (se 0 o 0.1 vengono aggiunti a
4.8), mentre nei restanti casi il valore diverrà 5; ognuna di queste situazioni ha una possibilità del 20% di diventare 4
e dell'80% di diventare 5. A lungo andare la media sarà 4.8 e la quantizzazione dell'errore diverrà casuale. Il rumore
così ottenuto è percepito meno dall'orecchio.

Per far comprendere al meglio la funzione del dithering, vengono messi a disposizione i seguenti file audio:
Dithering 100

Quando aggiungere il dithering


Il dithering va aggiunto prima di qualsiasi quantizzazione o ri-quantizzazione al fine di prevenire comportamenti non
lineari (distorsione); più bassa è la profondità di bit, più grande deve essere il dither. Il risultato sarà ancora distorto,
ma la distorsione, essendo di natura casuale, viene ridotta a rumore. Qualsiasi processo di riduzione di bit dovrebbe
aggiungere il dither alla forma d'onda prima di applicare la riduzione.

Differenti tipi di dithering


RPDF sta per "Rectangular Probability Density Function" (Funzione rettangolare di densità della probabilità), ed è
equivalente al lancio di un dado. Ogni numero ha la stessa probabilità di uscire.
TPDF sta per "Triangular Probability Density Function" (Funzione triangolare di densità della probabilità),
equivalente al lancio di due dadi. La somma dei dadi ha differenti probabilità d'uscita:
1/1 = 2
1/2 2/1 = 3
1/3 2/2 3/1 = 4
1/4 2/3 3/2 4/1 = 5
1/5 2/4 3/3 4/2 5/1 = 6
1/6 2/5 3/4 4/3 5/2 6/1 = 7
2/6 3/5 4/4 5/3 6/2 = 8
3/6 4/5 5/4 6/3 = 9
4/6 5/5 6/4 = 10
5/6 6/5 = 11
6/6 = 12
il 7 uscirà molto più spesso del 2 o del 12, e la relazione tra queste probabilità viene detta triangolare.
La PDF Gaussiana è equivalente al lancio di infiniti dadi. La relazione tra le probabilità dei risultati ha una forma a
campana detta curva Gaussiana. Il dithering prodotto dalla PDF Gaussiana è quasi coincidente al rumore atmosferico
naturale, il fruscio delle musicassette, ecc.
Il dithering colorato viene a volte descritto come quel dithering che è stato filtrato per differenziarsi dal rumore
bianco. Alcuni algoritmi di dithering usano un rumore che possiede più energia nelle alte frequenze, e meno nella
banda audio critica.
Il noise shaping non è in realtà un dithering, poiché consiste nel "modellare" il rumore, come dice il suo nome,
spostandolo in zone dello spettro audio in cui è meno udibile. Normalmente viene associato al dithering, e quindi
sposta appunto questo rumore. È tuttavia possibile anche usarlo senza dithering. In tal caso il rumore di
ri-quantizzazione rimane distorto, ma viene spostato in zone dello spettro audio in cui è meno udibile.
Dithering 101

Quale dithering usare


Se il segnale da processare deve subire un ulteriore lavoro, dovrebbe essere usato il TPDF che ha l'ampiezza di due
passi di quantizzazione (in modo che i valori calcolati varino tra -1 e +1 o, se vogliamo, tra 0 e 2). Se il dithering
colorato viene usato come processo intermedio, la gamma di frequenze può sfumarsi in un'altra e diventare
vagamente udibile.
Se il segnale da lavorare non deve essere ulteriormente processato (ovvero accettiamo direttamente il risultato del
dithering) è conveniente usare il dithering colorato o il noise shaping, in grado di diminuire enormemente il livello
del rumore udibile spostandone buona parte nell'area non critica.

Fotografia digitale e image processing


Il dithering viene usato in computer grafica per creare l'illusione della
profondità di colore in immagini dotate di una tavolozza limitata
(quantizzazione del colore). In un'immagine sottoposta a dithering, i colori non
disponibili vengono approssimati dalla distribuzione dei pixel colorati con le
tinte disponibili. L'occhio umano percepisce la diffusione come un amalgama
dei colori.[6] Il dithering è simile alla tecnica chiamata halftone nella stampa. Le
immagini trattate con il dithering, particolarmente quelle in cui vengono usati
pochi colori, possono spesso apparire granulari, o composte da puntini.

Applicazione del dithering. I soli colori


usati sono il rosso ed il blu ma, al
rimpicciolirsi dei pixel, il colore appare
viola.

Esempi di dithering
Ridurre la profondità del colore di un'immagine spesso causa effetti
collaterali indesiderati. Se l'immagine originale è una fotografia,
probabilmente i colori saranno migliaia, o addirittura milioni.
Limitarne il numero fa, ovviamente, perdere qualità all'immagine.
Molti fattori possono modificare la qualità risultante, probabilmente il
più significativo di questi è la "larghezza" della tavolozza usata. Ad
esempio, un'immagine di alta qualità (Figura 1) può essere ridotta con
una tavolozza a 256 colori (Web-safe colors). Se i colori dei pixel
originali venissero semplicemente spostati nel colore "più vicino" tra
quelli disponibili, non avremmo applicazione del dithering (Figura 2). Figura 1. Fotografia originale; notare la
Normalmente, questo approccio causa aree di colore uniforme e perdita sfumatura del colore nel dettaglio.

di dettaglio, generando macchie di colore molto diverse dall'originale.


Le aree sfumate appaiono a strisce (effetto banding). L'applicazione del
Dithering 102

dithering può aiutare a limitare questi artefatti visivi e, di solito, crea


un'immagine più simile all'originale (Figura 3). Il dithering permette di
ridurre il banding e la "piattezza" dei colori.
Uno dei problemi legati all'uso di tavolozze preimpostate è dato dal
fatto che molti dei colori necessari non sono presenti, e molti di quelli
presenti non sono necessari; una tavolozza che contenga molte
sfumature di verde è controindicata se non usiamo il verde
nell'immagine, ad esempio. In questi casi è indicato l'uso di tavolozze
ottimizzate. In queste tavolozze i colori vengono scelti basandosi sulla
loro frequenza nell'immagine originale. L'immagine ottenuta presenta Figura 2. Immagine originale a cui è stata
applicata una tavolozza limitata (web-safe color
ulteriori miglioramenti rispetto alla precedente (Figura 4).
palette) senza l'applicazione del dithering. Notare
Il numero di colori disponibili nella tavolozza è un dato importante. Se, le ampie aree con colore uniforme e la perdita di
dettagli.
ad esempio, è composta di soli 16 colori, l'immagine perderà altri
dettagli, oltre ad un incremento dell'effetto banding (Figura 5). Ancora
una volta, il dithering ci aiuta ad aggirare il problema (Figura 6).

Utilizzi del dithering


Tutti i display hardware, comprese le vecchie schede video dei primi
computer o i moderni schermi LCD fino alle fotocamere digitali, sono
in grado di mostrare un limitato numero di colori rispetto alle
periferiche più avanzate. Uno degli usi del dithering permette di
mostrare immagini di qualità su schermi che non lo sono. Ad esempio,
possiamo visualizzare immagini in truecolor su schermi in grado di
Figura 3. Immagine originale con web-safe color
mostrare solo 256 colori alla volta. I colori disponibili verranno usati palette e l'applicazione dell'algoritmo di
per generare un' "approssimazione" dell'immagine originale. Il Floyd-Steinberg. Anche se usiamo la stessa
dithering sfrutta i vantaggi dell'occhio umano, che tende a miscelare tavolozza, l'applicazione del dithering genera
un'immagine più simile all'originale.
due colori se sono posti troppo vicini (acutezza visiva).

Questo uso del dithering, in cui gli schermi dei computer sono la
principale limitazione, viene fatto nel campo del software come i web
browser. Dal momento che il browser raccoglie immagini da fonti
esterne, può essere necessario operare il dithering su quelle troppo
"profonde". A causa di questo problema, venne definita una tavolozza
standard chiamata Web-safe palette, che raggruppa i colori
visualizzabili su tutti gli schermi, a prescindere dal sistema operativo o
dal browser utilizzati.

Un altro utile impiego del dithering è in quelle situazioni in cui il


formato dei file grafici è il fattore limitante. In particolare, il
Figura 4. In questo caso, l'originale è stato ridotto
comunissimo GIF utilizza al massimo 256 colori in molti software di ad una tavolozza ottimizzata a 256 colori, ed è
editing. Le immagini in altri formati, come il PNG, possono avere stato applicato l'algoritmo di Floyd-Steinberg.
restrizioni imposte dalla volontà di limitare la dimensione del file. L'uso di una tavolozza ottimizzata, piuttosto che
di una preimpostata, permette di migliorare
Questo genere di immagini ha una tavolozza predefinita contenente i
ulteriormente l'immagine.
colori utilizzabili all'interno dell'immagine. In questi casi, i programmi
di editing possono sobbarcarsi il compito di applicare il dithering
prima di salvare le immagini nel loro formato.
Dithering 103

Algoritmi di dithering
Esistono molti algoritmi creati per l'applicazione del dithering. Uno dei
primi, ed ancora tra i più popolari, è l'algoritmo di Floyd-Steinberg,
sviluppato nel 1975. Uno dei punti di forza di questo algoritmo è la sua
capacità di minimizzare gli artefatti visivi attraverso un processo di
diffusione dell'errore; solitamente produce immagini più simili
all'originale rispetto a quanto fatto da altri algoritmi similari.

Gli altri metodi comprendono:


• Dithering ponderato (Average dithering): una delle tecniche più Figura 5. Profondità ridotta a 16 colori
(ottimizzati) e niente dithering. Il colore appare a
semplici, è basata sulla selezione di un colore "medio" e
strisce.
sull'assegnazione di colore ai pixel in base a quanto sono "distanti"
da lui
• Dithering ordinato (Ordered dithering): produce un risultato simile a
quello ottenuto nella stampa delle riviste attraverso l'uso
dell'halftone
• Dithering casuale (Random dithering): aggiunge un elemento
casuale ad ogni pixel, creando l'immagine
• Dithering di Albie (Albie dithering): metodo simile al
Floyd-Steinberg, ma ottimizzato per la visualizzazione su schermi
interlacciati
• Dithering di Jarvis (Jarvis dithering): vedi l'immagine a lato per un
esempio Figura 6. Stessa immagine, 16 colori ottimizzati,
ma viene applicato il dithering per ridurre il
banding (effetto a strisce).

Il dithering nei sistemi in


fibra ottica
Lo Stimulated Brillouin Scattering (SBS) è
un effetto ottico non lineare che limita la
potenza ottica utilizzata nei sistemi in fibra
ottica. Il segnale trasmesso può essere
manipolato con il dithering al fine di Dimostrazione delle differenze tra i vari tipi di dithering

limitare il "rumore" trasmesso.


Dithering 104

Note
[1] B.Widrow, “A study of rough amplitude quantization by means of Nyquist sampling theory”, IRE Trans. Circuit Theory, Vol. 3, no. 4, pp.
266-276, Dec. 1956
[2] B. Widrow, “Statistical analysis of amplitude quantized sampled-data systems” Trans. AIEE, Part.II, Vol.79, no. 52, pp.555-568, Jan. 1961
[3] tratta da The Rural Economy of Yorkshire: Comprizing the Management of Landed Estates, and the Present Practice of Husbandry in the
Agricultural Districts of that County, scritto da Mr. Marshall (William), Vol. II, Londra: T. Cadell, 1788.
[4] Lawrence G. Roberts, Picture Coding Using Pseudo-Random Noise, MIT, tesi di dottorato, 1961 online (http:/ / www. packet. cc/ files/
pic-code-noise. html)
[5] Thomas Blount, Glossographia Anglicana Nova: Or, A Dictionary, Interpreting Such Hard Words of whatever Language, as are at present
used in the English Tongue, with their Etymologies, Definitions, &c. Also, The Terms of Divinity, Law, Physick, Mathematics, History,
Agriculture, Logick, Metaphysicks, Grammar, Poetry, Musick, Heraldry, Architecture, Painting, War, and all other Arts and Sciences are
herein explain'd, from the best Modern Authors, as, Sir Isaac Newton, Dr. Harris, Dr. Gregory, Mr. Lock, Mr. Evelyn, Mr. Dryden, Mr. Blunt,
&c., Londra, 1707.
[6] Per approfondire, vedi anche percezione del colore

Voci correlate
• Audio digitale
• Video digitale
• Algoritmo di Floyd-Steinberg
• Comando di valvole proporzionali in PWM

Fonti
• (EN) Aldrich, Nika. " Dither Explained (pdf) (http://www.users.qwest.net/~volt42/cadenzarecording/
DitherExplained.pdf)"
• (EN) Aldrich, Nika. " Digital Audio Explained (http://www.cadenzarecording.com)"
• (EN) Katz, Bob. The Secrets of Dither (http://www.digido.com/portal/pmodule_id=11/pmdmode=fullscreen/
pageadder_page_id=27/)"
• (EN) Katz, Bob. " Mastering Audio (http://www.digido.com/portal/pmodule_id=11/pmdmode=fullscreen/
pageadder_page_id=66/?PHPSESSID=62e494f55b80063f2bf090bf60c0253b)"

Collegamenti esterni
• (EN) DHALF.TXT (http://www.efg2.com/Lab/Library/ImageProcessing/DHALF.TXT) (1991) analizza vari
filtri basati sul Floyd-Steinberg.
• (EN) Cos'e' il Dither? (http://www.hifi-writer.com/he/dvdaudio/dither.htm) Articolo pubblicato su Australian
HI-FI contenente esempi grafici di come il dithering audio riduca le distorsioni.
Audio 105

Audio
L'audio (dal latino audio= udire, ascoltare) è l'informazione elettronica[1] rappresentante il suono. In particolare
l'audio è un flusso informativo avendo il suono una natura temporale. Flusso informativo che scorre all'interno di
apparecchiature elettroniche sotto forma di corrente elettrica per essere manipolato, viaggia nello spazio sotto forma
di onde elettromagnetiche, o all'interno di cavi per telecomunicazioni sotto forma di corrente elettrica o luce, per
essere trasmesso a distanza, viene memorizzato sotto varie forme su vari tipi di supporti per essere conservato.

Ambiti di impiego
L'audio è utilizzato in moltissimi ambiti. Dovunque sia utilizzata l'elettronica per registrare, riprodurre, trasmettere, o
creare il suono è utilizzato l'audio. Gli ambiti più importanti sono: discografia, telefonia, radio, cinema, televisione,
home audio, home video, home theater e home entertainment.

Tipologie

Audio analogico e audio digitale


L'informazione elettronica può essere rappresentata in due forme diverse: analogica o digitale. L'informazione
elettronica in forma analogica è propria dell'elettronica analogica, mentre l'informazione elettronica in forma digitale
è propria dell'elettronica digitale. Nell'elettronica analogica, la prima a svilupparsi, l'informazione elettronica varia
con analogia all'informazione che rappresenta, varia quindi in modo continuo e può assumere un numero anche
molto alto di valori proprio come l'informazione che rappresenta. Nel 1941, con la realizzazione dell'Atanasoff-Berry
Computer, il primo computer elettronico digitale, nasce l'elettronica digitale. Nell'elettronica digitale l'informazione
che si vuole rappresentare in forma elettronica viene codificata in una sequenza di numeri, l'informazione elettronica
varia quindi in modo discreto e può assumere solo un numero limitato di valori, il numero di cifre utilizzato dal
sistema numerico scelto per tale codifica.
L'audio analogico è l'audio rappresentato in forma analogica mentre l'audio digitale è l'audio rappresentato in forma
digitale.
La prima forma di rappresentazione dell'audio ad essere utilizzata è stata quella analogica, l'audio cioè è nato come
audio analogico. Solo successivamente si è iniziato ad implementare ed utilizzare l'audio digitale.
Oggi è in atto un progressivo passaggio dall'audio analogico all'audio digitale, passaggio che rientra in quello più
generale da rappresentazione analogica a rappresentazione digitale dell'informazione elettronica per gli indubbi
vantaggi offerti dalla seconda.
Su tale passaggio è importante sfatare un'idea che si è ormai radicata fortemente tra la gente complice una campagna
mediatica in atto da alcuni decenni ad opera dell'industria elettronica: l'informazione elettronica digitale possiede una
qualità superiore rispetto a quella analogica. Ciò è completamente falso: la qualità dell'informazione elettronica non
dipende dal tipo di rappresentazione utilizzata ma da come viene realizzata tale rappresentazione. I vantaggi della
rappresentazione in forma digitale dell'informazione elettronica sono altri e tutti derivanti dal fatto che in tale
rappresentazione l'informazione elettronica può assumere solo un numero molto limitato di valori (normalmente due
in quanto nella maggior parte dei casi viene utilizzato il sistema numerico binario): è possibile elaborarla,
trasmetterla e copiarla senza degradarla. Nell'elettronica analogica invece, anche utilizzando le apparecchiature più
sofisticate, l'informazione elettronica subisce sempre un degrado nel momento in cui viene trattata (elaborata,
trasmessa, copiata).
Audio 106

Audio monofonico e audio stereofonico


Nel corso dei decenni sono state sviluppate varie tecniche di riproduzione/registrazione del suono ma solo per tre di
esse è stata coniata una denominazione: monofonia, stereofonia e quadrifonia. Tali tecniche hanno dato origine a
varie tipologie di audio.

Audio monofonico o audio monocanale


La prima tecnica di riproduzione/registrazione del suono sviluppata è stata la monofonia, la più semplice di tutte, ma
anche quella che offre le prestazioni minori. Nella monofonia è presente un unico flusso informativo sonoro
destinato ad essere riprodotto da un unico diffusore acustico posizionato frontalmente all'ascoltatore. Per esigenze
particolari, come ad esempio la necessità di servire un ambiente d'ascolto molto ampio, tale flusso informativo può
anche essere riprodotto da più diffusori acustici ma le informazioni sonore riprodotte dai diffusori acustici
rimangono comunque le medesime. L'audio che implementa la monofonia è chiamato audio monofonico (anche
abbreviato in audio mono). Nell'audio monofonico è presente un unico flusso informativo elettronico rappresentante
l'unico flusso informativo sonoro presente nella monofonia. Tale flusso informativo elettronico è chiamato canale
audio (o anche semplicemente canale se chiaro il contesto audio), ed essendocene solo uno nell'audio monofonico
questo viene anche chiamato audio monocanale o "monoaurale"

Audio stereofonico o audio multicanale


In seguito, al fine di conferire maggiore spazialità[2] al suono rispetto a quella permessa dalla monofonia, nasce una
tecnica di riproduzione/registrazione del suono più complessa, la stereofonia. Nella stereofonia sono presenti più
flussi informativi sonori ognuno dei quali destinato ad essere riprodotto da un diverso diffusore acustico posizionato
nell'ambiente d'ascolto secondo regole prestabilite. L'audio che implementa la stereofonia è chiamato audio
stereofonico (anche abbreviato in audio stereo). Nell'audio stereofonico sono presenti molteplici flussi informativi
elettronici rappresentanti i molteplici flussi informativi sonori della stereofonia. Sono presenti cioè molteplici canali
audio, motivo per cui l'audio stereofonico è anche chiamato audio multicanale.[3]
Inizialmente la stereofonia viene implementata utilizzando solo due flussi informativi sonori. Ben presto però, prima
nel cinema (sempre alla ricerca di migliorie al fine di attrarre un maggior numero di spettatori) poi nell'industria
discografia (non altrettanto interessata in quanto tecniche di riproduzione/registrazione del suono più complesse
implicano per gli acquirenti maggiori spese in apparecchiature di riproduzione del suono), al fine di conferire
maggiore spazialità (e quindi maggiore realismo) al suono, il numero di flussi informativi viene aumentato.
Attualmente nel cinema e nell'home theater sono utilizzati comunemente standard audio implementanti forme di
stereofonia che utilizzano 6, 7, o anche 8, flussi informativi sonori. Sono stati inoltre sviluppati standard di audio
digitale implementanti forme di stereofonia che utilizzano decine di flussi informativi sonori (uno di questi standard
è ad esempio il Dolby TrueHD), ma è difficile prevedere se e quando verranno utilizzati tali standard al massimo
delle loro capacità. Per quanto riguarda il cinema è probabile che nel prossimo futuro verranno adottate forme di
stereofonia utilizzanti un numero maggiore di flussi informativi sonori visto che già ora in una sala cinematografica
di medie dimensioni normalmente un canale audio viene riprodotto da più diffusori acustici. In ambito domestico
invece appare improbabile che l'installazione di decine di diffusori acustici sia accolta favorevolmente. Già gli attuali
7 canali audio del Dolby Digital EX e DTS-ES utilizzati nel comune DVD-Video rappresentano un impegno non da
poco, sia in termini di apparecchiature, e quindi di costi, che in termini di spazio occupato. Probabilmente in ambito
domestico ci si muoverà quindi verso tecnologie di elaborazione dell'audio utilizzanti DSP in grado di riprodurre,
con un numero di diffusori acustici non superiore a 7 o 8, un numero maggiore di canali audio.
Un punto è certo, più flussi informativi sonori sono implementati in origine (non in fase di riproduzione dell'audio
utilizzando dei DSP che applicano algoritmi basati su principi di psicoacustica), maggiore è la precisione con cui è
possibile collocare spazialmente un suono in quanto tale precisione è direttamente proporzionale al numero di flussi
informativi sonori utilizzati. Maggiori flussi informativi aumentano la fedeltà di riproduzione del suono
Audio 107

originariamente registrato.

Audio quadrifonico
Una forma particolare di stereofonia è la quadrifonia. Nella quadrifonia sono presenti quattro flussi informativi
sonori ognuno dei quali destinato ad essere riprodotto da un diverso diffusore acustico posizionato nell'ambiente
d'ascolto nel modo seguente: due diffusori acustici sono posizionati frontalmente all'asoltatore, uno sulla sinistra e
uno sulla destra secondo angoli prestabiliti, e due diffusori acustici alle spalle dell'ascoltatore, di nuovo uno sulla
sinistra e uno sulla destra secondo angoli prestabiliti. L'audio che implementa la qudrifonia è chiamato audio
quadrifonico. Nell'audio quadrifonico sono presenti quattro flussi informativi elettronici (quindi quattro canali audio)
rappresentanti i quattro flussi informativi sonori della quadrifonia.
La quadrifonia viene introdotta dall'industria discografia negli anni settanta del XX secolo. Nell'industria
discografica la quadrifonia non riscuote però molto successo e presto viene abbandonata. Solo negli ultimi anni, con
l'introduzione del DVD-Audio e del Super Audio CD, la quadrifonia torna ad essere utilizzata dall'industria
discografica. Sia il DVD-Audio che il Super Audio CD prevedono infatti standard audio che supportano anche la
quadrifonia. L'utilizzo della qudrifonia nel DVD-Audio e nel Super Audio CD attualmente rimane comunque
limitata e quasi sempre si tratta della riedizione di incisioni quadrifoniche degli anni '70. Inoltre sia il DVD-Audio
che il Super Audio CD rappresentano di per sè un settore di nicchia con un numero di pubblicazioni molto limitato
rispetto al CD Audio.

Audio surround
Nella quadrifonia, come in molte altre forme di stereofonia, è presente il surround, cioè il fronte sonoro alle spalle
dell'ascoltatore. L'audio che implementa anche il surround è chiamato audio surround e il canale audio
rappresentante informazioni sonore appartenenti esclusivamente al surround è chiamato canale surround. L'audio
quadrifonico ad esempio presenta due canali surround: i due canali audio destinati ad essere riprodotti da diffusori
acustici posizionati alle spalle dell'ascoltatore.
Commercialmente il surround appare per la prima volta in ambito cinematografico nel 1940 con il film Fantasia[4] e,
diversamente dall'ambito discografico, il suo successo andrà sempre in crescendo tranne un breve periodo negli anni
sessanta del XX secolo nel quale il cinema avrà una forte crisi in seguito all'affermazione della televisione.
Riguardo alle esigenze sonore del cinema e della discografia c'è da rilevare infatti una sostanziale differenza. Le
esigenze sonore nel cinema sono molto maggiori di quelle discografiche. Si pensi ad esempio ad un aereo del quale
viene fatto sentire il suo arrivo in lontanza alle spalle dello spettatore, poi il passaggio sopra la testa, e infine viene
fatto apparire sullo schermo. Nel cinema il surround ha una notevole importanza, è in grado di proiettare lo
spettatore al centro dell'azione rappresentata sullo schermo come se si trovasse realmente all'interno di essa, ha
quindi un fortissimo potere di coinvolgimento dello spettatore e di spettacolarizzazione della scena rappresentata. Al
tal fine, nello specifico, si riproducono le riverberazioni naturali, come ad esempio, grotte, tunnel, etc, aggiungendo
canali audio creati con specifici DSP per poter ricreare ambienti complessi, e a volte puramente irreali, dal punto di
vista sonoro.
Discorso completamente diverso invece per la discografia, ma anche ad esempio per un'opera teatrale o un concerto
trasmesso in televisione o pubblicato in DVD-Video. In questi casi, salvo casi particolari, il suono ha origine
frontalmente e il surround è rappresentato esclusivamente dal riverbero del suono che si crea nell'ambiente d'ascolto
(teatro, stadio, ecc.). Certamente tale surround non è irrilevante, il piacere di ascoltare musica nella propria
abitazione con le medesime sensazioni percepite in un teatro o in uno stadio non si può considerare insignificante. Se
si pensa però che i maggiori fruitori di musica sono i giovani che molto spesso la ascoltano compressa in standard
MP3 e con minuscoli auricolari, si può comprendere perché nella discografia il surround non sia altrettanto affermato
come nel cinema.
Audio 108

Spazializzazione del suono tramite DSP


Con la diminuzione dei prezzi dell'elettronica digitale negli anni ottanta del XX secolo sono diventati disponibili per
l'elettronica di consumo apparecchi audio in grado di eseguire elaborazioni sull'audio fino a qualche decennio prima
impensabili. Elaborazioni volte a conferire spazialità al suono in base a principi di psicoacustica ed eseguite in tempo
reale in fase di riproduzione dell'audio mediante l'uso di DSP (i DSP lavorano nel dominio digitale quindi in caso si
utilizzi audio analogico questo viene convertito prima in audio digitale).
Tali elaborazioni in alcuni casi si possono considerare una discreta alternativa all'audio multicanale dotato già in
origine di canali surround. I casi sono quelli già citati in cui il suono nella realtà ha origine esclusivamente
frontalmente all'ascoltatore e il surround è rappresentato dal riverbero del suono. In questi casi sono in grado di
creare il surround partendo da audio mancante di surround (normalmente audio stereofonico a due canali) dando vita
a quelli che sono chiamati effetti d'ambiente con discreti risultati. Ciò viene implementato sia creando canali
surround diffusi da diffusori acustici posizionati alle spalle dell'ascoltatore sia facendone a meno.
Altri casi in cui riescono ad ottenere discreti risultati sono nella riproduzione di audio multicanale dotato di canali
surround senza l'utilizzo di diffusori acustici posizionati alle spalle dell'ascoltatore. Un esempio di questo tipo di
elaborazione è il Dolby Virtual Speaker sviluppato dalla Dolby Laboratories.
I casi invece in cui ottengono risultati assolutamente insoddisfacenti sono i casi in cui il surround non riguarda solo il
riverbero del suono, come ad esempio nel cinema, e l'audio elaborato non è dotato di canali surround. In tali casi,
anche se creano canali surround riprodotti con diffusori acustici posizionati alle spalle dell'ascoltatore, vengono
aggiunti solamente effetti d'ambiente. Nei casi in cui il surround non riguarda solo il riverbero del suono è
assolutamente d'obbligo che i canali surround siano implementati in origine se si vuole dare ad ogni suono una
precisa collocazione spaziale.
La maggior parte delle elaborazioni audio citate, normalmente, sono disponibili in amplificatori audio di fascia
media o alta, oppure anche come processori audio indipendenti ma nell'Hi-End. Spesso non hanno una
denominazione registrata come nel caso del Dolby Virtual Speaker e nei manuali solitamente sono indicate con la
denominazione generica "modi DSP" mentre sul display degli apparecchi audio vengono differenziate con nomi
come "rock", "pop", "cinema", "sport", ecc. i quali stanno ad indicare il tipo di contenuti audio per cui sono state
sviluppate e per cui sono appropriate.

Notazioni per i canali audio


Con l'affermarsi di modalità audio utilizzanti un numero sempre maggiore di canali audio si sono diffuse tre diversi
tipi di notazioni che hanno lo scopo di fornire alcune informazioni sui canali audio e da cui è possibile, in alcuni casi,
dedurre la tecnica di riproduzione del suono implementata. Tali notazioni sono:

• A.B (dove A rappresenta il numero di canali audio a gamma completa e B il numero di canali audio LFE)

• A/B.C (dove A rappresenta il numero di canali audio a gamma completa destinati ad essere riprodotti da diffusori acustici posizionati
anteriormente all'ascoltatore, B il numero di canali audio a gamma completa destinati ad essere riprodotti da diffusori acustici
posizionati posteriormente all'ascoltatore, e C il numero di canali audio LFE)

• A:B (dove A rappresenta il numero di canali audio discreti e B il numero di canali A sommati al numero di canali audio matriciali codificati
nei canali A)

Il primo tipo di notazione è il più diffuso ma quello che fornisce però il minor numero di informazioni sui canali
audio. Con tale tipo di notazione non è possibile nella maggior parte dei casi dedurre la tecnica di riproduzione del
suono implementata. Ad esempio la notazione 4.0 può riferirsi alla quadrifonia, nella quale due canali audio sono
destinati ad essere riprodotti da diffusori posizionati anteriormente all'ascoltatore e due canali audio posteriormente
all'ascoltatore, oppure alla modalità audio implementata dall'audio Dolby Stereo, Dolby Stereo SR e Dolby Surround
nella configurazione a quattro canali audio per la quale sono previsti tre canali audio destinati ad essere riprodotti da
Audio 109

diffusori posizionati anteriormente all'ascoltatore e un canale audio posteriormente all'ascoltatore. Con questo tipo di
notazione risulta chiara la tecnica di riproduzione del suono implementata solo con le notazioni 1.0 e 2.0,
rispettivamente la monofonia e la stereofonia a due canali ognuno dei quali destinato ad essere riprodotto da un
diverso diffusore acustico posizionato nell'ambiente d'ascolto anteriormente all'ascoltatore, un diffusore sulla destra
dell'ascoltatore e l'altro diffusore sulla sinistra dell'ascoltatore secondo angoli prestabiliti.[5]
Il secondo tipo di notazione è molto meno usato del primo ma, indicando il numero di canali audio destinati ad
essere riprodotti da diffusori acustici posizionati anteriormente all'ascoltatore e il numero di canali audio destinati ad
essere riprodotti da diffusori acustici posizionati posteriormente all'ascoltatore, permette di farsi un'idea abbastanza
precisa sulla tecnica di riproduzione del suono implementata. Ad esempio la notazione 3/1.0 corrisponde alla
modalità audio implementata dall'audio Dolby Stereo, Dolby Stereo SR e Dolby Surround nella configurazione a
quattro canali audio, mentre la notazione 2/2.0 alla quadrifonia.
Il terzo tipo di notazione permette di conoscere il numero di canali audio cosiddetti discreti, rappresentati cioè
ognuno come un flusso informativo distinto, e il numero di canali cosiddetti matrix (o matriciali), codificati cioè
all'interno di canali audio discreti come avviene ad esempio negli standard audio Dolby Stereo, Dolby Stereo SR,
Dolby Surround, Dolby Surround Pro Logic II e Dolby Digital Surround EX.
Questo terzo tipo di notazione viene utilizzato anche in combinazione con i primi due tipi di notazione. Ad esempio,
utilizzando il secondo tipo di notazione in combinazione con il terzo tipo, al Dolby Digital Surround EX, che
prevede un canale audio (posteriore centrale) a gamma completa codificato nei due canali audio posteriore sinistro e
posteriore destro, corrisponde la notazione 3/2:3.0 o la notazione 3/2:3.1 a seconda della presenza o meno del canale
audio LFE.

Note
[1] "Informazione elettronica" non è intesa nel limitato senso di "informazione in forma elettronica", cioè di informazione che si presenta
esclusivamente in forma di corrente elettrica (quando l'informazione è trasmessa diventando un segnale elettrico) o di tensione elettrica
(quando l'informazione è memorizzata in un circuito elettronico), ma nel più ampio senso di "informazione manipolata da un'apparecchiatura
elettronica", quindi di informazione che può assumere una moltitudine di forme diverse (ad esempio la forma di magnetismo quando è
memorizzata in un'audiocassetta oppure la forma di luce all'interno di una fibra ottica quando è trasmessa a distanza).
[2] E quindi maggiore realismo in quanto il suono in natura ha origine quasi sempre da molteplici punti spaziali.
[3] Sull'uso dei termini "audio stereofonico" e "audio multicanale" è però necessario riportare un'importante annotazione: nonostante i termini
"audio stereofonico" e "audio multicanale" siano del tutto sinonimi è molto diffuso un utilizzo diversificato dei due. Solitamente infatti
utilizzando il termine "audio stereofonico" si vuole indicare l'audio presentante due canali, mentre utilizzando il termine "audio multicanale"
solitamente si vuole indicare audio presentante più di due canali.
[4] Il film Fantasia non è solo il primo film commerciale della storia ad essere dotato di audio surround ma anche il primo film commerciale
della storia ad essere dotato di audio stereofonico.
[5] In caso di stereofonia a due canali è infatti questa la tecnica di riproduzione/registrazione del suono che di norma viene implementata.

Voci correlate
• Elettroacustica
• Audio digitale
• Audio multicanale
• Surround
• Alta fedeltà
Audio 110

Altri progetti
• Wikimedia Commons contiene file multimediali su Audio

Audio digitale
L'effetto uditivo (dal latino audire) detto suono consiste nella percezione da parte di un apposito dispositivo
(orecchio di esseri viventi o microfoni artificiali) delle piccole e rapidissime vibrazioni emesse appunto da una
"sorgente sonora" e propagate nell'ambiente circostante da un mezzo atto alla loro propagazione (in genere l'aria, ma
anche acqua e rocce sono sede di fenomeni analoghi). Quindi il suono si genera in natura come vibrazioni
meccaniche, si propaga in analoga maniera e sempre come vibrazioni viene percepito.
Fin dai primordi l'uomo ha cercato di trovare varie soluzioni per facilitare questa naturale propagazione con l'ausilio
di dispositivi artificiali che aumentassero l'efficienza di questa trasmissione, in particolare cercando di far
attraversare al suono spazi maggiori senza essere troppo contaminato da disturbi (detti rumore o noise in inglese) ed
eventualmente essere memorizzato su supporti di memorizzazione che ne permettessero, oltre che il trasporto nello
spazio, anche quello nel tempo, cioè che ne permettessero una memorizzazione permanente. Per far ciò molti artifizi
tecnologici sono stati usati, fino alla definitiva invenzione del telefono (da parte dell'italiano Antonio Meucci,
invenzione però brevettata per primo dall'americano Bell), che permetteva di trasformare i segnali sonori in segnali
elettrici che contenevano tutte le informazioni (o quasi) del segnale sonoro originale, ma che potevano essere più
facilmente (e più velocemente) trasportate nello spazio (tramite fili elettrici in un primo tempo e successivamente
anche tramite onde elettromagnetiche con l'invenzione della radio di Guglielmo Marconi). Per ottenere ciò, al suono
veniva associata un'altra grandezza fisica, con caratteristiche di rigorosa relazione con il suono che rappresentava.
Questa relazione rigorosa con il suono di partenza permetteva all'arrivo della grandezza fisica di essere di nuovo
riconvertita in suono, come ad esempio succede nel ricevitore del telefono, dove la corrente elettrica, che ha
trasportato l'informazione sonora, viene all'arrivo ritrasformata in suono dal piccolo altoparlante inserito nella
cornetta. Questa relazione di corrispondenza viene detta "codifica" del suono in corrente elettrica.
Analoghi criteri di codifica si hanno ad esempio nella memorizzazione dei suoni codificati in parametri magnetici
nel nastro dei registratori magnetici a nastro, o nei parametri geometrici di forma e profondità dei solchi nelle
vecchie registrazioni su dischi di vinile. Le moderne tecnologie informatiche, che mettono a disposizione computer
capaci di elaborare grandi quantità di numeri al secondo, forniscono un'ulteriore e diversa possibilità di codifica dei
suoni, associando ai parametri acustici delle onde sonore delle lunghe serie di numeri (detti anche digit, in italiano
cifra), che li rappresentano piuttosto fedelmente e che possono, con elevata precisione essere riconvertite nei suoni
originali. Questo processo di codifica delle grandezze fisiche continue (analogiche) in serie numeriche di cifre
digitali è detta digitalizzazione e le grandezze sono dette essere rappresentate in maniera digitale. Queste lunghe
serie numeriche possono poi essere memorizzate in memorie al silicio (pen drive ad esempio) o in memorie
magnetiche (hard disk di computer) o infine in memorie ottiche (CD o DVD), per essere trasportate nello spazio e
nel tempo.
Lo stato dell'arte attuale prevede che un segnale audio sia convertito (quindi codificato) in un analogo segnale
elettrico (analogo per informazione contenuta, a meno dell'inevitabile rumore, anche minimo, introdotto da qualsiasi
manipolazione) per mezzo di un microfono, il quale produce, quando viene colpito da una onda meccanica sonora
continua, un segnale elettrico ininterrotto, i cui valori di tensione, normalmente compresi in un range (detto dinamica
del segnale e compreso tra un minimo e un massimo), contengono la forma dell'onda acustica originaria. Un segnale
siffatto, continuo nel tempo e che può assumere con continuità tutti i valori all'interno della sua dinamica, è detto
analogico. Una seconda conversione può essere fatta associando a questo segnale una serie numerica (quindi
digitale) che codifichi con sufficiente precisione la forma d'onda elettrica analogica originaria, ottenendo così la
conversione analogico-digitale, detta brevemente conversione A/D. Per far questo è necessario andare ripetutamente
Audio digitale 111

a leggere i valori di tensione continui della forma d'onda analogica con sufficiente frequenza temporale, cioè
effettuare una lettura sufficientemente fitta di questi valori di tensione, producendo un numero di letture (e quindi di
valori numerici) in genere molto alto per ogni secondo di conversione A/D. Le singole letture sono dette campioni e
il teorema del campionamento afferma che se la frequenza temporale di queste letture (detta frequenza di
campionamento) è sufficientemente grande, non si hanno perdite di informazione rispetto alla forma d'onda
originale. Cioè la serie di numeri prodotta contiene pressoché intatta tutta la informazione sulla forma d'onda
elettrica analogica iniziale. Nei moderni standard tecnologici, in genere le frequenze di campionamento spaziano
dagli 8.000 campioni al secondo (Samples per second, S/s) per la voce telefonica, fino ai 44.100 e più campioni al
secondo per la qualità musicale. Queste letture di valori di tensione possono poi cadere in un qualsiasi punto della
dinamica del segnale, cioè ogni singolo campione può avere un valore compreso tra il minimo e il massimo
possibile. Quindi potenzialmente si possono avere infiniti valori di lettura di tensione per ogni singolo campione. Per
completare l'opera di conversione del segnale da analogico in digitale, va ora suddivisa tutto il possibile range
dinamico del segnale in un numero finito di intervalli e ogni singolo intervallo va codificato con un valore digitale
ben determinato. Queste due operazioni si chiamano quantizzazione e codifica di sorgente. La quantizzazione in
genere suddivide il range dinamico del segnale in un numero di intervalli potenza del due (2^n intervalli), in maniera
tale che ogni singolo campione cadrà inevitabilmente in uno degli intervallini quantizzati e potrà così essere
codificato digitalmente con n bit. I valori più ricorrenti di digitalizzazione attualmente usati vanno da un minimo di 8
bit per campione in campo telefonico (range dinamico del segnale suddiviso in 256 intervallini), fino a 20 e più bit
per campione (range dinamico del segnale suddiviso in un milione e più di intervallini). Naturalmente all'aumentare
del numeri dei bit per campione aumenta la fedeltà del segnale campionato alla forma d'onda originale e si riduce
l'imprecisione introdotta dalla quantizzazione (rumore di quantizzazione), ma va osservato che già 8 bit per
campione quasi basterebbero per soddisfare i vecchi criteri di alta fedeltà (HiFi). La serie numerica che così discende
è detta segnale audio digitale e contiene in sé tutte le informazioni necessarie per ricostruire la forma elettrica
originale, che a sua volta era l'immagine quasi perfetta della forma d'onda acustica che l'aveva originata. Volendo, si
potrebbe quindi ora procedere alla sua conversione da digitale ad analogica con convertitori D/A, per riottenere la
forma elettrica originale, che una volta inviata ad un altoparlante riproduce il suono originario. Tutto questo processo
costa in termini di introduzione di rumore vario, ma con le moderne tecniche questo può facilmente essere tenuto
sotto una soglia in genere accettabile. Un ultimo passo è in genere fatto in questo settore. Il segnale audio digitale
prodotto dai convertitori A/D è in genere codificato con un certo numero di bit per ogni campione e così una
registrazione audio di 60 secondi campionata a 44.100 campioni al secondo, con ogni campione codificato con 16
bit, dà per risultato una sequenza di 44.100 campioni al secondo per 60 secondi, pari a 2.646.000 campioni, che
vanno ora moltiplicati per 16 bit per campione, ottenendo una serie di 42.336.000 bit. Questo segnale audio digitale
così codificato è detto “raw”, cioè grezzo. Un secondo livello di codifica è ora possibile, che consenta di comprimere
le informazioni in sequenze numeriche più corte e che occupino meno bit per ogni secondo di conversione. Con le
moderne tecniche di codifica si arriva a comprimere il suono in maniera molto efficace, come ad esempio nello
standard mp3, tanto usato per diffondere musica e suoni in generale.

Voci correlate
• Conversione analogico-digitale
• Teorema del campionamento
• quantizzazione
• Alta fedeltà (HiFi)
• Elaborazione numerica dei segnali
• Codifica di sorgente
• Codifica di canale
• Codec
• Compressione audio
Audio digitale 112

• Sintetizzatore
• Periferiche audio per computer

Altri progetti
• Wikimedia Commons contiene file multimediali su Audio digitale

Collegamenti esterni
• (IT) Panoramica sui più usati Formati Audio Digitale [1]
• (IT) Digital Audio Central - Portale italiano sull'audio digitale [2]

Note
[1] http:/ / portalesapere. altervista. org/ viewtopic. php?topic=Formati-audio-digitale
[2] http:/ / www. digitalaudiocentral. com

Clipping (audio)
Il Clipping è una forma di distorsione digitale

Dettagli
Essa si mostra quando un segnale in ingresso ad un dispositivo di campionamento supera la capacità dello stesso.
Segnali della sua presenza sono piccoli scoppiettii e crepitii. Esistono dei programmi che permettono l'eliminazione
di tale disturbo.

Bibliografia
• Dal vinile al digitale. Giorgio Sitta. Editore Apogeo, 2004. ISBN 9788850322121
Sintetizzatore 113

Sintetizzatore
Il sintetizzatore (abbreviato anche synth
dal termine in inglese) è uno strumento
musicale che appartiene alla famiglia degli
elettrofoni. È un apparato in grado di
generare autonomamente segnali audio,
sotto il controllo di un musicista o di un
sequencer. Si tratta di strumenti che possono
generare imitazioni di strumenti musicali
Il sintetizzatore Oberheim OB12
reali o creare suoni non esistenti in natura.
Si possono avere anche sintetizzatori
software, che assolvono a questo compito interamente a livello software (quindi, generando audio a partire da una
sequenza di suoni predeterminata).

Il sintetizzatore è generalmente comandato per mezzo di una tastiera simile a quella del pianoforte, ma non mancano
realizzazioni destinate ad essere gestite mediante il fiato, la pressione, le corde di una chitarra o altri tipi di controller
come sensori a raggi infrarossi.

Breve storia
Agli inizi del novecento il piano sonoro era stato molto sfruttato: si era
arrivati ad un punto in cui i suoni e le combinazioni di questi erano
state totalmente utilizzate. Infatti il sistema temperato, che divide la
scala in 12 semitoni, era giunto in saturazione.
Si continuò per molto tempo ancora ad usare il sistema su cui si basa Il
clavicembalo ben temperato di Bach, ma in quel periodo grazie anche
alla letteratura (Proust) e soprattutto alla allora nascente psicoanalisi
(Freud) si sentì l'esigenza di scoprire nuove forme. Queste nuove forme
Telharmonium, Thaddeus Cahill 1897
dovevano rappresentare l'inconscio cercando l'inaudito (mai sentito), i
primi esponenti furono: Ferruccio Busoni ed Edgar Varèse. Il limite, se
si pensa che siamo agli inizi del novecento, era l'utopia di questa nuova forma che non poteva essere concretizzata.
Furono due i musicisti che si accostarono a loro volta a questo argomento, in modi diversi, ma sicuramente con
ottimi risultati Claude Debussy e Bela Bartok, tali da far interessare anche la musica cosiddetta colta. Il primo
basando la sua ricerca sull'intuizione, il secondo facendo perno sulla ricerca.

Il futurismo approdò anche nella musica tramite Luigi Russolo, utilizzando il rumore della quotidianità tramite degli
strumenti chiamati intonarumori che erano delle grandi scatole generatrici di rumori di cui si variava l'altezza
muovendo una particolare leva. Successivamente si ebbero strumenti quali le onde Martenot e il thelarmonium.
Nascono così i primi sistemi elettromeccanici per la produzione di nuovi suoni (nuovi intervalli). Erano
essenzialmente dei grandi oscillatori che intonavano il suono a varie altezze, riproducendo tutte le altezze intermedie.
Sintetizzatore 114

Il primo vero sintetizzatore polifonico fu il Novachord della Hammond


degli anni '40, che non ebbe però particolare fortuna a causa degli alti
costi.
Il cinema ebbe un'influenza sullo sviluppo della musica elettronica, ma
il primo strumento elettronico efficiente si ha solo nei primi anni
cinquanta con il sintetizzatore di Belar-Olson realizzato negli studi
della RCA frutto di una collaborazione fra scienziati e musicisti. Tale
strumento raggruppava degli oscillatori analogici di grandi dimensioni
per generare il suono, un modulatore ad anello con l'uscita che è la
somma e la differenza delle frequenze d'ingresso e diversi filtri
d'elaborazione. Ne resta qualche traccia in una collezione di album
dimostrativi prodotti dalla stessa RCA al fine di diffondere le capacità
timbriche dell'apparecchio. L'apparecchio era enorme, complesso da
manovrare e delicato nella sua manutenzione; la programmazione delle
note, del ritmo e delle (relative) variazioni timbriche avveniva Trautonium, 1928
attraverso un lungo nastro di carta perforata che, fatto transitare sotto
ad una contattiera a pettine, permetteva di prevedere l'apertura o chiusura dei diversi circuiti. Contrariamente a
quanto alcuni credono, il Synthesizer RCA non venne utilizzato nella colonna sonora del film Il pianeta proibito, di
Fred McLeod Wilcox del 1956; per questo lavoro, i coniugi Louis e Bebe Barron realizzarono circuitazione
valvolare originale, in grado di produrre timbriche (per l'epoca) inusitate; probabilmente, il lavoro dei Barron per
Forbidden Planet rappresenta il primo esempio "nobile" di circuit bending applicato alla produzione sonora.

Tra i primi compositori di musica elettronica ci fu Milton Babbitt che imitò i suoni dell'orchestra usando strumenti
elettronici. Particolare importanza ebbe la città tedesca di Darmstadt sede di riunioni di musicisti dal 1956 al 1961 in
cui si tennero dei corsi di fondamentale importanza per il futuro, tra i partecipanti ricordiamo: Luigi Nono, Bruno
Maderna, Luciano Berio, Pierre Boulez, Karlheinz Stockhausen, John Cage, Edgar Varèse.
Nascono le prime composizioni che non imitano più il suono di strumenti esistenti, bensì fanno del timbro il
parametro principale della musica: "noi possiamo comporre il suono"; si utilizzano così le componenti
microscopiche delle onde sonore a differenza di prima che si componeva su timbri preesistenti. Anche in America si
verifica lo stesso con John Cage che sceglie la casualità nella composizione mentre gli altri coetanei sviluppano la
costruzione timbro dopo timbro. In Francia alla fine degli anni cinquanta negli studi della televisione francese ORTF
nasce la Musique concrète (Pierre Henry, Pierre Schaeffer), si usano giradischi rallentati ed ogni tipo di nuove
sonorità; si sviluppano studi in tutta Europa, in Italia nasce il Centro di Fonologia Musicale della RAI nei primi anni
sessanta.
Un passo avanti si è verificato negli anni Sessanta, con l'introduzione di versioni ridotte di sintetizzatori, destinati
alla creazione di timbriche inusuali, in alcuni gruppi di musica progressive; ad esempio i Van der Graaf Generator ed
i Pink Floyd.
Verso la fine degli anni Sessanta, comparvero i primi esemplari di sintetizzatori portatili, fabbricati in piccole serie
per impiego nella musica dal vivo; precursori di questa generazione furono Robert Albert Moog e Alan R. Pearlman,
rispettivamente fondatori delle più note Case produttrici di questi strumenti: Moog Inc. e ARP Instruments.
Il periodo fino alla fine degli anni '70 vide lo sviluppo di strumenti monofonici (possibilità di suonare un tasto solo
alla volta) con tecnologia esclusivamente a sintesi sottrattiva, sviluppati su scelte progettuali diverse: ad esempio, i
sintetizzatori Moog erano largamente apprezzati per il suono sempre leggermente stonato e pertanto molto ricco,
mentre i prodotti ARP avevano fama di estrema intonazione e stabilità.
Un'eccezione riguardava il Mellotron, strumento destinato alla riproduzione di suoni naturali preregistrati; di fatto, lo
strumento disponeva di uno spezzone di nastro magnetico per ogni tasto non chiuso ad anello, bensì lasciato libero
Sintetizzatore 115

entro apposite guide contenute nel mobile sotto la tastiera vera e propria: premendo i tasti, si poteva suonare lo
strumento originale. Naturalmente una tecnica di questo tipo poteva funzionare soltanto con suoni privi di sostegno,
di durata limitata ai pochi secondi trasferibili sui segmenti di nastro magnetico. Lo strumento era polifonico
(possibilità di suonare più tasti contemporaneamente) e la sua introduzione sul mercato discografico causò un
notevole interesse.
I primi esemplari di sintetizzatore analogico polifonico risalgono all'inizio anni '80, e presentavano generalmente
grossi problemi di intonazione e stabilità nel tempo, oltre all'ovvia complessità nel gestire contemporaneamente sia
oscillatori che filtri.
Uno sviluppo nel senso dell'intonazione, giunse dall'industria dei semiconduttori, con la produzione di circuiti
integrati per la realizzazione di organi elettronici e strumenti analoghi; nei sintetizzatori polifonici del periodo, si
otteneva la generazione digitale della forma d'onda, e relativa elaborazione analogica sottrattiva; il risultato era una
perfetta intonazione dello strumento, ma contemporaneamente una perdita di corposità del suono, dovuta alla
perfetta messa in fase fra i generatori, situazione che non si verifica in natura, come nel caso di una sezione d'archi o
di ottoni.
Infatti, in un'orchestra, ogni singolo strumento crea il proprio timbro caratteristico indipendentemente dagli altri;
l'insieme di questa ricca struttura armonica genera il suono polifonico al quale siamo abituati.
Una soluzione giunse dalla giapponese Roland, con due serie di strumenti (Juno(vedi Juno 106) e Jupiter) che
implementavano una filosofia molto interessante: utilizzo di generatori analogici, mantenuti intonati da un
generatore digitale. In questo modo l'intonazione restava propria del sistema digitale, mentre ogni singolo oscillatore
poteva produrre la propria forma d'onda in modo asincrono rispetto agli altri, a tutto vantaggio del realismo
polifonico.
Ancora, altri produttori svilupparono soluzioni in questa direzione: la ARP Instruments produsse l'ARP Omni, che
impiegava un generatore digitale unico, secondo un classico schema da organo elettronico, mentre la tastiera agiva
su una serie di formatori d'onda indipendenti. Lo strumento aveva una sezione destinata alla riproduzione di
orchestra d'archi e questa tecnica permise allo strumento il raggiungimento di standard di realismo fino ad allora
impensabili. Grande cura fu inoltre dedicata al modulo di effetto chorus (simulazione del suono prodotto da un coro),
che utilizzava tre linee di ritardo in parallelo, rigorosamente tarate su tempi primi fra loro, per evitare qualunque
effetto di periodicità e di artificiosità nell'ascolto.
L'ARP Omni, disponendo inoltre di tre sezioni indipendenti (archi, ottoni, bassi), sia per timbro che per tecnologia
utilizzata, rappresenta il primo esperimento in scala industriale di strumento multitimbrico (un timbro diverso per
ogni nota suonata).
Andando avanti in questa direzione, la ARP Instruments, ora in gravi difficoltà finanziarie [1], cedette il suo ultimo
progetto, Chroma, alla americana Fender, che lo mise in commercio nel 1982 ad un prezzo sbalorditivo anche oggi:
sedici milioni e mezzo di Lire di allora (circa 8.000 Euro odierni). Il Chroma disponeva di sedici oscillatori
analogici, perfettamente intonati come nello stile ARP (impiegando la tecnologia charge-pump), di sedici filtri e
sedici amplificatori, tutti controllati mediante un microprocessore, con possibilità di interfacciarsi ad un computer
Apple ][ [2] per ottenere una vera polifonia multitimbrica; il risultato era (ed è) del tutto eccezionale sia sotto il
profilo tecnico che della performance dal vivo.
Una delle caratteristiche dell'utilizzo del microprocessore, oltre al supporto di memorie per i vari timbri a
disposizione del musicista, riguarda la generazione delle modulazioni. In un sintetizzatore analogico, un modulo a
controllo di tensione (v.) può essere oggetto di modulazione da parte di più moduli contemporaneamente: Keyboard
Follow, oscillatore a bassa frequenza (LFO), ADSR, controlli estemporanei come pedali di espressione e/o Pitch
Wheel e così via. Viene da sé che, trovandosi in un sistema di tipo analogico, la somma di tutte queste variabili porta
facilmente ad errori e imprecisioni, che si traducono in inopportune stonature ed effetti non desiderati dal musicista.
Il Chroma simulava tutte queste tensioni sotto forma di numeri, eseguendo la somma algebrica dei valori di tutte
queste sorgenti modulanti direttamente nei registri del microprocessore, senza errore alcuno. Solo il dato finale
Sintetizzatore 116

veniva convertito in valore analogico (con un DAC a 12 bit) ed inoltrato al modulo da controllare; il risultato era
ancora una volta di una precisione straordinaria.
Sempre nel 1982, la giapponese Yamaha segnò un passo importantissimo in questo sviluppo, mettendo in commercio
il sintetizzatore DX-7, a modulazione di frequenza a 6 operatori; lo strumento suonava splendidamente e forniva
suoni di ricchezza e complessità fino ad allora impensabili (campane, molle d'acciaio, violini con l'attacco
dell'archetto e così via). La sua comparsa segnò il declino dei numerosi strumenti a sintesi sottrattiva esistenti
all'epoca, e aprì la strada in modo sempre più standardizzato alla tecnologia digitale.
Pochi anni più tardi, fecero la loro comparsa altri tipi di sintesi digitale; in effetti, una volta poste le basi per
fabbricare in larga scala strumenti gestiti da microprocessori sempre più potenti, risultò assai semplice adottare
tecniche innovative per adattarsi alle crescenti esigenze dei musicisti.
Da menzionare la tecnologia RS-PCM di Roland (1988), che per evitare l'effetto di suono riprodotto (opaco, poco
incisivo), tipico dei numerosi campionatori dell'epoca, utilizza un generatore a sintesi additiva, controllato da un
profilo descrittivo del suono originale, che poteva risiedere su economiche schedine inseribili. Il risultato è di rara
brillantezza e presenza, dovuta alla vera e propria rigenerazione del suono mediante armoniche prodotte all'istante,
quindi non riprodotte. Un ulteriore beneficio viene dalla quantità di memoria necessaria per archiviare i suoni o
adottarne di nuovi: laddove un campionatore necessita di archiviare le forme d'onda per intero, con grande dispiego
di memoria, la tecnica RS-PCM richiede soltanto di memorizzare il modo (il profilo) con cui la sintesi additiva deve
essere articolata. Questa tecnica è tuttora utilizzata nei pianoforti digitali della stessa Casa.

Tecnica

Sintesi additiva
Partendo dal presupposto per il quale il timbro caratteristico di un dato strumento è prodotto dalla fondamentale più
una determinata distribuzione delle armoniche, è possibile ricreare un suono naturale partendo dalla somma di un
certo numero di frequenze fondamentali (segnali sinusoidali) e distribuendole nello spettro sonoro. Tale tecnica, pur
permettendo teoricamente di poter riprodurre qualsiasi suono esistente, in realtà è di estrema complessità; infatti,
laddove la sintesi sottrattiva agisce su un consistente numero di armoniche, già patrimonio del segnale grezzo
originale, qui abbiamo la necessità di controllare un numero elevatissimo di fondamentali, che molto probabilmente
andranno modulate individualmente, per ottenere una risposta convincente all'ascolto. Si tratta pertanto di una
tecnica complessa, che non ha incontrato molto successo nella produzione industriale di strumenti musicali
elettronici (è però interessante nell'ambito della ricerca).

Sintesi sottrattiva
Da un generatore di segnale con elevata produzione di armoniche (ad esempio onda quadra, onda triangolare, dente
di sega, etc) si interviene con un sistema di filtri allo scopo di modificare il timbro e quindi la forma d'onda.Esempi
di sintesi sotrattiva si possono ritrovare anche negli strumenti musicali tradizionali dove la selezione del timbro è
ottenuta in maniera meccanica tramite la cassa armonica come nella chitarra o nel violino.È inoltre possibile variare
frequenza del filtro (cut off) ed il guadagno Q (Peak o resonance) tramite opportuni controlli. I filtri possono essere
realizzati con tecnologia analogica (reti RC o componenti discreti) oppure nel dominio digitale tramite dsp. Altri
parametri fondamentali nella catena di sintesi analogica sono l'inviluppo (ADSR), il controllo del volume (VCA) e
gli effetti di vibrato (LFO). I primi sintetizzatori a sintesi sotrattiva erano implementati tramite sistemi modulari
analogici dove era possibile interconnettere e controllare ogni modulo a piacimento. In seguito sono stati sviluppati i
primi sintetizzatori normalizzati dove l'utente poteva scegliere fra alcune configurazioni di base scelte dal
costruttore. Una grande rivoluzione è stata l'implementazione della sintesi sotrattiva nel dominio digitale, dove un
semplice dsp puo' sostituire le funzioni centinaia di moduli analogici. Alcuni esempi di celebri sintetizzatori
analogici a sintesi sotrattiva sono i sistemi modulari Moog, i giapponesi Korg Monopoly, e Roland Jupiter 8 ed gli
Sintetizzatore 117

americani Arp 2600 e Sequential Circuits prophet 5. Tra i sintetizzatori digitali a sintesi sotrattiva ricordiamo in
Clavia Nord Lead, Roland JP8000 e korg MS 2000.

Sintesi granulare
Sistema di sintesi del suono che si basa su una concezione corpuscolare del suono; questo viene quindi generato
mediante lo sviluppo di grani sonori che vengono poi sommati per generare suoni complessi.

Modulazione di Frequenza e di Fase


Sperimentata da John Chowning presso il centro CCRMA della Stanford University, questa tecnica è divenuta di
grande popolarità tramite una fortunata serie di sintetizzatori prodotta dalla giapponese Yamaha, a partire dal 1982.
Il concetto parte dalla possibilità di modulare in banda audio la frequenza di una fondamentale mediante un altro
segnale (puro cioè sinusoidale nelle prime versioni commerciali Yamaha, di complessità differente nelle
implementazioni successive): sotto questa azione, il segnale modulato modifica la propria fase in funzione del
segnale modulante, perdendo così la caratteristica di segnale puro e arricchendosi di nuove armoniche; il risultato è
estremamente variabile in funzione del rapporto aritmetico fra le frequenze e dell'ampiezza del segnale modulante:
maggiore è l'ampiezza del segnale modulante, maggiore sarà la distribuzione di armoniche nel segnale fondamentale.
Ciò permette di ottenere timbriche di eccezionale verosimiglianza, soprattutto operando con combinazioni di più
generatori (nel caso di Yamaha, fino a sei nel sintetizzatore DX-1) e operando sullo schema di combinazione dei
generatori (detti operatori), sull'inviluppo di ampiezza e di frequenza degli stessi.
Questo procedimento è molto più vicino alla generazione naturale del suono di quanto si immagini; nel momento in
cui il suono viene prodotto, ad esempio con una chitarra acustica, la corda viene spostata dal proprio stato di quiete e
rilasciata: ciò provoca un'oscillazione della corda corrispondente alla sua fondamentale, sommata allo "sforzo" del
pizzico. In questo esempio, la fondamentale della corda è l'oscillatore modulato, mentre l'andamento nel tempo della
componente del pizzico rappresenta l'oscillatore modulante. L'ampiezza di entrambi degrada con l'andare del tempo,
fino al naturale smorzamento del suono, ovvero si delineano due differenti curve di inviluppo per i due generatori. Il
suono risultante sarà pertanto diversamente colorato in funzione dell'intensità e della modalità (dita o plettro) del
pizzico.
Un esempio ancora più evidente lo si trova nella tecnica slap per il basso elettrico, o nelle varianti del pianoforte
acustico (piano elettrificato Yamaha, piano a puntine). Nel caso degli archi, è lo sfregamento dell'archetto sulla corda
a creare la componente modulante. Non a caso, la modulazione di frequenza e di fase trova l'eccellenza nella
riproduzione proprio di queste categorie di strumenti.

Campionamento
Un segnale audio può essere registrato sia in modo analogico, trasferendone la modulazione di ampiezza su un
supporto magnetico, sia in modo digitale, effettuando una misurazione a campioni della sua ampiezza nel dominio
del tempo, e riportandone i valori in un elaboratore, sotto forma di numeri. Se la frequenza di campionamento è
sufficientemente elevata (2 volte la frequenza da campionare per un sistema binario, secondo il teorema di Shannon),
il segnale audio può essere così trasferito nella memoria di un elaboratore e successivamente riprodotto, procedendo
alla sua rigenerazione inviando, con velocità regolare, i valori misurati ad un Convertitore digitale-analogico (DAC),
che provvederà a fornire una tensione analogica in uscita, destinata ad essere amplificata ed ascoltata.
Realizzando un registratore digitale di questo tipo, è possibile ottenere una riproduzione eccezionalmente realistica
dei suoni con ampiezza costante (es. organo, strumenti a fiato, archi), un po' più complessa invece la riproduzione
dei suoni con un andamento variabile nel tempo, come nel caso del pianoforte, degli strumenti a corde pizzicate e
delle percussioni.
Un campionatore, quindi, deve necessariamente fornire le opportune possibilità di agire sul segnale campionato,
modificandone la distribuzione delle armoniche e dell'ampiezza nel tempo, in modo da restituirgli quella naturalezza
Sintetizzatore 118

corrispondente allo strumento originario.

Il Controllo in Tensione (V.C.)


Una certa quantità di parametri da controllare (intonazione, frequenza dei filtri, ampiezza del segnale, andamento nel
tempo e così via) richiederebbe un'operatività estremamente articolata per poter suonare un sintetizzatore in tempo
reale; infatti, i primi esperimenti erano realizzati sfruttando la registrazione multitraccia per poter ascoltare insieme il
prodotto di più sessioni di registrazione; successivamente, si pensò di poter controllare tutti questi parametri per
mezzo di una tensione variabile: il musicista modificava una tensione ruotando una manopola, e una serie di
oscillatori poteva variare tutta insieme la propria intonazione. Andando oltre, un secondo problema riguarda la
riproduzione delle armoniche nello spettro dell'esecuzione musicale; un sintetizzatore a sintesi additiva, con filtro
regolato per produrre un suono di trombone alle basse frequenze, produrrà un suono via via più flebile man mano
che ci si avvicina alle note più alte, poiché il filtro ha una frequenza fissa e non si adatta al nuovo segnale che lo
attraversa. L'adozione del V.C. ha permesso di realizzare il Keyboard Follow, ovvero una tensione che varia con la
posizione del tasto premuto sulla tastiera, che va ad alterare contemporaneamente l'oscillatore controllato in tensione
(VCO, Voltage-controlled oscillator) in modo da intonare la nuova nota, ed il filtro (Voltage-controlled filter, VCF)
per adattarlo alla nuova frequenza, per estrarne le armoniche nel modo opportuno. Una terza implementazione del
sistema a controllo di tensione riguarda l'unità di amplificazione del suono (VCA, Voltage Controlled Amplifier),
permettendo di creare suoni con intensità programmabile e variabile nel tempo.

Generatori a bassa frequenza (LFO, Low Frequency Oscillator; modulazione periodica)


Per fornire un effetto piacevole ed espressivo al suono di una forma d'onda filtrata in modo statico da un sistema di
filtri, si possono sommare oscillazioni periodiche a frequenza subsonica (es. da 0 a 10 Hz) alla tensione che controlla
l'oscillatore, il filtro e/o l'amplificatore d'uscita. Gli effetti così ottenuti prendono il nome di vibrato quando il LFO
modula la frequenza di lavoro del VCO, tremolo quando il LFO modula l'ampiezza del VCA, mentre la
modulazione del filtro (VCF) permette di creare effetti del tipo "wah-wah".

Generatori di Inviluppo (modulazione aperiodica o transitoria)


Una caratteristica importante del suono di qualsiasi strumento musicale è l'espressione, ovvero la possibilità, per il
musicista, di indurre lo strumento a variare un poco la timbrica, l'intensità e anche l'intonazione durante l'esecuzione,
per rendere il suono più gradevole: si pensi ad esempio all'esecuzione di una sonata per pianoforte, o ad un assolo di
violino, parti nelle quali la differenza di intensità, di ricchezza acustica e di vibrato permette di sottolineare alcuni
passaggi, trasmettendo una determinata emozione all'ascoltatore.
Nel caso dei sintetizzatori, si può intervenire su vari parametri, ma resta sempre il problema delle esecuzioni dal
vivo, che richiederebbero una squadra di tecnici per manovrare tutti i controlli nel modo e nella sequenza desiderate
dall'esecutore. Inoltre, va osservato che molte di queste variazioni seguono uno schema fisso: si pensi ad esempio
all'attacco in crescendo di una sezione d'archi, sempre uguale per ogni tasto che viene premuto.
Per riprodurre questo genere di modulazioni non periodiche, si ricorre a generatori di transitori di tensione,
programmabili, in modo da generare il medesimo profilo della grandezza controllata ad istanti preimpostati (es.
pressione di un tasto della tastiera). Alla pressione del tasto, il generatore di transienti genera una tensione crescente,
che raggiunge un proprio massimo, per poi decadere ad estinguere l'effetto dopo il rilascio del tasto (coda, filtro
passa-basso che diminuisce la frequenza di taglio, oscillatore che stona leggermente e così via).
Esistono in genere diversi schemi di generatore di transienti (o di inviluppo): AR, ADSR, AHDSR, AHDBDR e
molti altri. L'AR (Attack, Release) definisce un tempo di salita della tensione alla pressione del tasto, ed un tempo di
discesa al suo rilascio: adatto quindi per iterazioni semplici quali archi, fiati e voci.
ADSR (Attack, Decay, Sustain, Release) permette di creare un transitorio più vicino a strumenti caratterizzati da un
attacco specifico (pianoforte, tromba, percussioni); alla pressione del tasto, la tensione di controllo sale in un tempo
Sintetizzatore 119

definito dal parametro Attack fino ad un picco massimo fisso; subito dopo, la tensione scende con la velocità definita
dal parametro Decay, fino a stabilizzarsi sul valore impostato dal parametro Sustain; infine, al rilascio del tasto, il
parametro Release provvede a determinare in quanto tempo la tensione controllata ritornerà allo zero.
Quelli più complessi come AHDSR (Attack-Hold-Decay-Sustain-Release) e AHDBDR
(Attack-Hold-Decay-Breakpoint-Decay-Release) sono meno diffusi, ma cominciano diffondersi nei più evoluti
sintetizzatori assieme alla possibilità di creare inviluppi completamente personalizzati.

Distorsione di fase - Phase Distortion


Presente nei sintetizzatori CASIO della serie CZ, sul mercato a partire dal 1984, trattasi di una differente
implementazione di un principio analogo alla sintesi FM, tipica questa della serie DX della Yamaha, decisamente più
impegnativa per l'utente in sede di programmazione.
La più semplice configurazione per la sintesi FM, che non è dominio esclusivo delle macchine digitali, prevede che
vi siano due oscillatori dei quali uno prende il nome di modulatore e l'altro di carrier. Per comodità del
programmatore, nelle macchine digitali, tali oscillatori sono ordinati in blocchi, con generatori di inviluppo, mixer e
amplificatori, che prendono il nome di operatori. Questi possono essere collegati tra loro in varie configurazioni
utilizzando gli algoritmi, sorta di patch prestabilite, un po' come si farebbe su un analogico modulare. Per prevedere
con certa precisione la variazione del contenuto armonico in base ai valori inseriti, il sintetista dovrà possedere
alcune nozioni di matematica non proprio elementari, quali sono ad esempio le funzioni di Bessel.
Si consideri inoltre che all'interno del DX7, in vendita a partire dal 1983, in ognuno dei sei operatori era
implementata la sola forma d'onda sinusoide ed erano disponibili vari algoritmi. Diversamente, nella distorsione di
fase, sebbene gli oscillatori in gioco siano solo due, e l'uno possa modulare l'altro, dalle loro tavole possono essere
lette onde molto più complesse delle semplici sinusoidi, un po' come nel TX81Z, macchina a quattro operatori sul
mercato a partire dal 1986 - il lettore pensi che esistono sistemi FM Synclavier che arrivano a gestire fino a dodici
operatori.
Dalla variazione della lettura dei dati dalle tavole deriva il caratteristico suono della serie CZ, capace di emulare
senza troppi calcoli per il programmatore anche il comportamento dei filtri risonanti, grazie a delle funzioni a
"finestra" che consentono una variazione del contenuto armonico di partenza, enfatizzando certe frequenze, anche
con un solo oscillatore, e non due operatori come nella sintesi FM.

Elenco di sintetizzatori a sintesi sottrattiva


• Moog Modular
• Minimoog
• ARP Odyssey
• ARP Axxe
• ARP Pro-DGX
• ARP Chroma
• Roland serie Jupiter
• Elka synthex
• Farfisa Sound Maker 11122E
• Oberheim OB-XA
• Sequential Prophet 5
• Sequential Prophet 600
• Yamaha CS80
• Korg MS-10
• Korg Polysix
• EMS AKS-Synthi A
Sintetizzatore 120

• polivoks

Elenco di sintetizzatori a sintesi additiva


• Kawai K5
• Hammond A100

Elenco di sintetizzatori a sintesi FM


• Yamaha DX7
• Yamaha DX21
• Korg DS-8

Macchine ibride
• Yamaha SY22 - rompler 12bit + FM 2op - vettoriale
• Sequential Circuits Prophet VS - rompler 12bit + filtri analogici - vettoriale
• Ensoniq SQ80 - rompler 8bit + filtri analogici + AM
• Korg Poly800 - DCO + sintesi additiva rudimentale + filtro analogico
• Korg Wavestation - Wavesequence + filtro digitale non risonante - vettoriale
• PPG Wave2 - Wavetable + filtri analogici
• Yamaha FS1R - FM 8op + Formant Synthesis
• Korg Z1 - MOSS - vettoriale
• Korg DSS-1 - campionamento 12bit + sintesi additiva + filtro analogico
• Roland D50 - LAS + rompler - vettoriale
• Kawai K1 - rompler 8bit + AM - vettoriale
• Commodore SID 6581 - DCO + RingMod + filtro analogico
• Kurzweil K2600 - VAST

Voci correlate
• Synth pop
• Vocoder
• Crumar
• Farfisa
• Musica elettronica
• Musica ambient
• Drum machine
• Musica disco
Sintetizzatore 121

Altri progetti
• Wikimedia Commons contiene file multimediali su Sintetizzatore

Collegamenti esterni
• ProgSounds [3] Risorse gratuite per sintetizzatori, guide, programmi e altro.
• VST 4 FREE [4] Galleria dei sintetizzatori Virtuale

Note
[1] http:/ / www. rhodeschroma. com/ ?id=arp
[2] http:/ / www. rhodeschroma. com/ ?id=apple2interface
[3] http:/ / www. progsounds. com
[4] http:/ / www. vst4free. com/

Sintesi granulare
La sintesi granulare è un metodo base della sintesi del suono che opera con degli elementi acustici elementari
chiamati microsound(s) o grani.

Il metodo
La sintesi granulare è spesso basata sullo stesso principio del campionamento ma include anche tecnologie di tipo
analogico. L'idea è quella di creare suoni complessi a partire da una grossa quantità di suoni semplici. I grani sono di
durata compresa tra 1 e 50 millisecondi e possono essere combinati assieme ognuno dei quali riprodotto a differente
velocità, fase e volume. Il risultato non è un unico tono, ma una nuvola di suoni che viene manipolata in maniera
differente da qualsiasi altro suono naturale o da qualsiasi altro metodo di sintesi. Cambiando la forma d'onda,
l'inviluppo, la durata, la posizione spaziale e la densità dei grani possono essere creati molti suoni diversi. Il risultato
può essere utilizzato nella musica o come materiale per ulteriori modifiche con altri metodi. Le possibilità di effetti
che possono essere prodotti includono la modulazione d'ampiezza, il time stretching, lo scattering stereo o
multicanale, il riordinamento random, il morphing.
La teoria della sintesi granulare nasce dalle ricerche di Dennis Gabor su come l'uomo comunica e ascolta. In passato
c'è stata una disputa fra Gabor e il compositore greco Iannis Xenakis che rivendicava l'invenzione di questa tecnica.
Curtis Roads è spesso accreditato come la prima persona che ha implementato una tecnica digitale di sintesi
granulare. Il compositore canadese Barry Truax è stato uno dei primi a implementare una versione real-time di
questa tecnica di sintesi.
Dennis Gabor considerava il suono come una somma di funzioni gaussiane elementari traslate nel dominio del tempo
e della frequenza. Queste funzioni elementari venivano chiamate acoustic quanta ed usate come base per la
creazione di un suono. Secondo la formulazione di Gabor un segnale era considerato come una combinazione
di diverse versioni di una finestra di sintesi :

con:

l'intervallo di tempo e l'intervallo di frequenza soddisfano la relazione e ≤ .


Sintesi granulare 122

Iannis Xenakis sviluppò la sintesi granulare come esigenza nel periodo dei nastri magnetici in cui non c'era una
grande varietà di timbri e di suoni da poter manipolare, ma solo oscillatori e filtri. In questo contesto si ottenevano
suoni in maniera dinamica ritagliando parti di nastri e riassemblando il tutto assieme. Da qui si sviluppò la sua
tecnica che consisteva nello specificare la durata e la velocità (frequenza) di riproduzione di ogni singolo grano.

Approcci
Si possono individuare due approcci differenti alla sintesi granulare:
• sound granulation: basato sui grani sonori acquisiti da una sorgente o una registrazione precedente
• grani sintetici: basato sulla sintesi astratta di grani

Sound granulation
La costruzione del suono attraverso grani avviene mediante la loro sovrapposizione con il metodo dell'Overlap and
Add cioè attraverso sovrapposizioni parziali dei grani. Con questo sistema è possibile riprodurre suoni reali in
maniera accurata e successivamente modificarli nelle loro caratteristiche dinamiche. Ogni singolo grano è
moltiplicato per una finestra temporale che provvede a creare fade-in e fade-out. I grani lunghi tenderanno a
mantenere l'identità timbrica del suono originale. I grani corti tenderanno invece ad assumere un carattere di tipo
impulsivo (cioè un comportamento come quello che si riscontra nell'attacco di ogni suono).
È importante l'organizzazione temporale dei grani per evitare artefatti a causa delle discontinuità. Questo rende il
controllo del suono creato molto delicato e meritevole di attenzione. È possibile estrarre grani da differenti tipologie
di suoni per creare textures ibride ad esempio cominciando da una texture e finendo con un'altra texture.

Sintesi astratta
In questo caso i grani sono forme d'onda arbitrarie il cui inviluppo e la cui ampiezza sono funzioni gaussiane. I grani
sono organizzati in una nuvola su di un piano cartesiano con in ordinata i tempi e in ascissa le frequenze.
Nella sintesi granulare asincrona si immagina di scorrere l'asse dei tempi, all'incontro con un grano posizionato in
alto o in basso a seconda della sua frequenza si attiva e si fa cominciare l'esecuzione. Ogni grano avrà il suo timbro,
la sua durata e la sua frequenza e il suono sarà creato dalla somma di tutti i singoli grani che cominciano via via che
si incontrano nello scorrere dell'asse dei tempi creando un effetto complessivo.
Alcuni esempi sono:
• un applauso formato dalle mani di molte persone che cominciano ed eseguono il gesto in maniere e in momenti
diversi
• il cadere delle foglie dato dalla somma del suono di ogni singola foglia
Con questo metodo è possibile modellare molti suoni rumorosi o di tipo texture perché le proprietà statistiche
complessive, in questi casi, sono più importanti dell'esatta evoluzione del suono. Proprio come nel mondo reale
quando ci sono realizzazioni multiple dello stesso evento/fenomeno (come negli esempi sopra riportati) ci si può
aspettare questo tipo di suoni.
La durata dei suoni caratterizza la texture. Una durata breve produce un suono rumoroso, una media durata (decine di
millisecondi) produce gorgoglio/sbattimento, una durata lunga (centinaia di millisecondi) suoni come tremolo
aperiodici o jittering della posizione spaziale. Quando i grani sono distribuiti in una regione di frequenze limitata il
suono assumerà un carattere da cui si riconosce il pitch (la nota corrispondente), mentre se la regione di frequenze è
ampia la texture avrà un carattere complessivo più confuso.
Sintesi granulare 123

Libri
• Curtis Roads Microsound, 2001, Cambridge, MIT Press. ISBN 0-262-18215-7
• E. R. Miranda Computer Sound Design: Synthesis Techniques and Programming, 2002, Oxford, Focal Press.
ISBN 0-240-51693-1

Software
• Chaosynth
• Reason
• Density

Linguaggi di programmazione
• Csound linguaggio e software per la musica che include la tecnica di sintesi granulare
• SuperCollider linguaggio di programmazione per sintesi audio in real time
• Max/Msp
• Puredata (Pd) linguaggio di programmazione grafico per audio e video in real time
• ChucK linguaggio di programmazione audio per tecniche di sintesi in real time
• Real-time Cmix linguaggio di programmazione audio per tecniche di sintesi in real time che includono molti
algoritmi di sintesi granulare

Voltage-controlled filter
Il Voltage-controlled filter, noto anche con l'acronimo VCF, è un filtro controllato in tensione.
Nei sintetizzatori musicali, il VCF è il componente responsabile di gran parte della timbrica riprodotta dallo
strumento. Negli strumenti musicali acustici, l'andamento delle armoniche, oltre ad altri parametri acustici,
considerati nel dominio del tempo, presentano variazioni sia periodiche (es. tremolo, vibrato) che aperiodiche
(decadimento del suono); in un sintetizzatore è possibile simulare l'andamento di variazione delle armoniche
prodotte da un oscillatore controllato in tensione (VCO), controllando i parametri del filtro mediante l'impiego di
tensioni, a loro volta generate da un generatore di inviluppo o da controllori manuali (es. Pitch Wheel, pedali).
Il filtro in un sintetizzatore opera generalmente su tre parametri: frequenza di taglio, fattore di risonanza (Q) e
modalità di filtro; quest'ultima può essere di tipo passa basso, passa banda, passa alto o elimina banda (notch). La
tensione o le tensioni di controllo possono agire su più variabili, conferendo al filtro un funzionamento dinamico e
variabile nel tempo.
Oscillatore controllato in tensione 124

Oscillatore controllato in tensione


L'oscillatore controllato in tensione, noto anche con l'acronimo VCO, dall'inglese voltage controlled oscillator, è
un dispositivo elettronico con lo scopo di produrre un'oscillazione periodica, il cui periodo, e di conseguenza la
frequenza, è determinato dal valore assoluto di una tensione applicata ad un ingresso di controllo. In termini
matematici la relazione generica tensione/frequenza può essere espressa come:

L'impiego di VCO si ha
prevalentemente nei sistemi
phase-locked loop (PLL) e nei
sintetizzatori musicali di tipo
analogico.
La caratteristica più critica del VCO
consiste nella linearità della
corrispondenza fra la tensione di
ingresso e la frequenza in uscita. In un
circuito elettronico di tipo analogico,
giocano un fattore determinante le
caratteristiche spurie delle forme
d'onda, poiché introducono un ritardo
pressoché costante al variare della Schema dell'oscillatore controllato in tensione

frequenza, causando una non-linearità


nel controllo in tensione.
Per ovviare a questo problema, il VCO viene impiegato all'interno di un intervallo di funzionamento, nel quale si
conosce l'errore introdotto e si può applicare una correzione complementare.
Come tutti i dispositivi analogici, il funzionamento del VCO risente in modo vistoso delle variazioni di temperatura
e della tensione di alimentazione; particolare attenzione, quindi, viene prestata nella loro realizzazione.

Funzionamento
La corrente entrante nel circuito si divide in funzione delle due resistenze e : = ; ad entrambi
i capi dell'amplificatore la tensione è /2, grazie al partitore di tensione formato da tali resistori. La corrente che
attraversa carica il condensatore; l'amplificatore, che è parte di un circuito integratore, tende a mantenere
l'ingresso invertente ad una tensione uguale a quella dell'ingresso non invertente: cerca quindi di contrastare l'azione
della reazione. Il secondo operazionale è un trigger di Schmitt, il cui morsetto invertente è collegato all'uscita del
primo operazionale. Il trigger trasforma il segnale uscito dall'integratore in una tensione ben definita: tale tensione
varia tra due valori di tensione a seconda che l'ingresso superi una certa soglia o sia inferiore ad una seconda soglia,
minore della prima. L'uscita del trigger è quindi collegata a sua volta al transistore: la tensione così generata
determina l'accensione o lo spegnimento di quest'ultimo componente. Quando il transistore si accende il
condensatore si carica, mentre nel periodo in cui il transistore è spento il condensatore si scarica per compensarlo.
Questo provoca un continuo lavoro di bilanciamento da parte dell'amplificatore integratore, che restituisce un'onda
triangolare al secondo blocco. Il trigger trasforma tale segnale in un'onda quadra della medesima frequenza, facendo
ripartire il ciclo.
I parametri che determinano la frequenza del segnale che esce dall'amplificatore sono la resistenza , che ha la
funzione di regolare il flusso di corrente che arriva al condensatore: tanto più è grande R1 tanto più lentamente
avverrà la carica del condensatore; ed il condensatore C: tanto più grande è la capacità tanto più lungo sarà il tempo
Oscillatore controllato in tensione 125

di carica. Quindi la frequenza f del segnale che arriverà all'out1 sarà inversamente proporzionale alla capacità C e
alla resistenza R, mentre sarà proporzionale all'entità del segnale d'ingresso, /2.
Nel trigger di Schmitt la tensione di riferimento è nulla, in quanto è collegato a massa. La tensione alla quale il
trigger fa commutare l'uscita è la tensione che compare sul morsetto non invertente dell'operazionale: quando V-
supera o diventa più piccola di V+, avendo retroazione positiva, l'uscita ha un guadagno elevatissimo e satura subito.
Nel caso l'ingresso sia maggiore della tensione di riferimento, ovvero maggiore di zero in questo caso, essa è:

essendo e identiche, dove è il valore alto dell'uscita. Nel caso l'ingresso sia minore della tensione di
riferimento si ha invece:

dove è il valore basso dell'uscita. Il trigger commuta quindi quando l'ingresso posto sul morsetto
invertente supera V+ o scende sotto V-.

Calcolo della frequenza


La corrente che entra nell'integratore è

conoscendo la capacità C, e sapendo che la corrente che entra nel condensatore è I, si ha:

essendo nel condensatore I = CdV/dt. Sapendo che il primo amplificatore genera un'onda triangolare di ampiezza
, si ha:

Ed essendo il periodo di carica τ = RC del condensatore pari alla metà del periodo totale, si ha che

Avendo in precedenza ricavato

si ha:

Da cui, essendo f = 1/T si ricava:

Si può notare che la frequenza f è inversamente proporzionale alla capacità C e alla resistenza , mentre è
proporzionale all'entità del segnale d'ingresso, pari a /2. L'operazione successivamente compiuta dal trigger è
quella trasformare l'onda triangolare in onda quadrata.
Oscillatore controllato in tensione 126

Collegamenti esterni
• (EN) Schemi di oscillatori controllati in tensione [1]
• (EN) VCO e buffer a transistor [2]

Note
[1] http:/ / my. integritynet. com. au/ purdic/ voltage-controlled-oscillators. htm
[2] http:/ / www. cel. com/ pdf/ appnotes/ an1034. pdf

Amplificatore controllato in tensione


L'amplificatore controllato in tensione, noto anche come VCA (acronimo di Voltage Controlled Amplifier), è un
dispositivo elettronico realizzato anche in tecnologia IC avente funzione di amplificatore.
La caratteristica particolare di questo circuito, consiste nel metodo usato per controllare il livello del segnale di
uscita, rispetto al segnale presente al suo ingresso. Il controllo viene effettuato tramite la variazione di una tensione
continua applicata in un preciso punto del circuito; l'attenuazione del segnale in uscita risulta proporzionale alla
tensione di controllo, quando questa aumenta, il segnale viene attenuato. I modelli più utilizzati di VCA sotto forma
di circuito integrato sono basati sui Current Controlled Amplifier LM3080 e LM13700 con semplici circuiti di
generazione della corrente di controllo.

Collegamenti esterni
• Esempi di VCA [1]
• Schemi di VCA [2]
• VCA a pentodo [3]
• University of Toronto mostra un Voltage Controlled Amplifier ad operazionale e fotocellula [4]

Note
[1] http:/ / www. uni-bonn. de/ ~uzs159/ vca. html
[2] http:/ / www5b. biglobe. ne. jp/ ~houshu/ synth/
[3] http:/ / www. cgs. synth. net/ tube/ vca. html
[4] http:/ / glogger. mobi/ v/ 31470/
Campionatore 127

Campionatore
Il campionatore (in inglese sampler) è uno
strumento musicale elettronico che è in
grado di acquisire campioni audio per
riconoscerne un suono approssimativo alle
note musicali del pentagramma.
Un campionatore deve avere
necessariamente una dotazione base
composta da
• un ingresso audio tramite il quale
acquisire il segnale da campionare.
• un convertitore analogico-digitale per
digitalizzare il segnale audio in ingresso.
• una memoria per memorizzare i
campioni.
AKAI MPC2000 sampler
• un convertitore D/A (Digitale/Analogico)
per riconvertire il segnale ed inviarlo alle uscite analogiche.
• una uscita audio tramite la quale il segnale campionato viene inviato alle apparecchiature esterne.
Inoltre sono presenti vari controlli manuali e unità visive per modificare i suoni.
È possibile che il campionatore sia dotato anche di ingressi ed uscite digitali.

Procedimento
Il campionamento audio è il procedimento di conversione in forma digitale di un segnale audio analogico, per creare
i campioni audio.
Questo processo può essere suddiviso in tre fasi:
1. Campionamento, in cui vengono misurati i livelli di tensione che il segnale audio analogico assume nel tempo
2. Quantizzazione, in cui ogni misura del segnale analogico fatta al punto 1. viene convertita per approssimazione in
una sequenza di bit
3. Memorizzazione, dove tutti i dati digitali vengono scritti in memoria.
Questo è un processo comune a tutte le apparecchiature audio digitali, che sfruttano cioè il campionamento, e non
solo ai campionatori.
L'accuratezza del campionamento è direttamente proporzionale alla frequenza di campionamento e al numero di bit
usati per la quantizzazione.
Durante la fase di lettura dei campioni, ovvero quando vogliamo suonare i campioni in memoria, il processo sarà
l'esatto inverso di quello descritto sopra: i campioni digitali vengono riconvertiti in una sequenza di valori di tensione
e inviati alle uscite audio del campionatore.
Per variare l'intonazione del campione, volendone fare un uso musicale, il campionatore varierà la velocità di
riproduzione del campione rendendola più veloce o più lenta a seconda se si desideri una nota più acuta o più grave.
L'orecchio umano percepirà il variare della velocità di riproduzione del campione, ovvero la variazione di cicli al
secondo, come un cambio di intonazione del campione.
Campionatore 128

Modalità di campionamento
I campioni sono di solito registrazioni digitali di strumenti musicali acustici o elettronici, registrati su più tonalità per
garantire una fedeltà sonora costante su tutta l'estensione della tastiera e con diverse dinamiche per conservare la
personalità dello strumento. Tuttavia i campionatori sono molto utilizzati anche per riprodurre effetti speciali ed
elaborazioni di suoni artificiali.
È possibile campionare qualsiasi tipo di suono o rumore e, grazie al campionatore, è possibile suonarlo. Tuttavia è
più facile imbattersi in campionamenti di strumenti musicali, perlopiù acustici. Attualmente, grazie alla grande
disponibilità di memoria nelle apparecchiature digitali, si fa spesso uso del multicampionamento che consiste nel
campionare più note di uno stesso strumento per aumentare l'espressività e la veridicità del risultato.
Esistono tre tipi di multicampionamento: campionamento orizzontale, campionamento verticale e campionamento
dimensionale.
Nel campionamento orizzontale di uno strumento non viene campionata una sola nota per poi essere letta a varie
velocità variandone l'intonazione, ma vengono campionate diverse note per evitare di snaturare il carattere timbrico
dello strumento.
Nel campionamento verticale, lo strumento viene campionato su più livelli di dinamica.
Nel campionamento dimensionale, vengono campionate le diverse tecniche esecutive di uno strumento.
Il numero di campioni che si possono riprodurre contemporaneamente prende il nome di polifonia, e nei
campionatori più comuni varia da un numero di 16 note fino a 128 note.
Per via della rapidità con cui il campionatore gestisce i frammenti di audio, nella musica elettronica viene utilizzato
spesso dai DJ che memorizzano i loop (segmenti ciclici di audio) per dare vita ad originali composizioni on the fly
(al volo, create al momento).
La riproduzione ciclica del campione (loop) è inoltre indispensabile per sfruttare al meglio la memoria del
campionatore.
Infatti, riproducendo ciclicamente (loop) la fase successiva all'attacco di un campione, è possibile simulare
artificialmente il decadimento e il sostegno naturale di un suono senza tuttavia averlo campionato effettivamente.
Questo permette di risparmiare moltissimo spazio in memoria, dovendo campionare solo la porzione iniziale del
suono.
Inoltre, senza la possibilità della riproduzione ciclica, il suono sostenuto di molti strumenti ad eccitazione continua
come ad esempio l'organo, cioè strumenti che continuano a suonare continuamente finché sono eccitati, non sarebbe
campionabile o costringerebbe alla necessità di una quasi infinita quantità di memoria.
Il campionatore può integrare un processore di effetti digitali nonché molti dei moduli presenti nei sintetizzatori
(Inviluppi, filtri, LFO). Questi possono essere usati tanto per stravolgere il suono campionato tanto per aumentare il
realismo del campionamento.
Proprio come in un sintetizzatore, all'interno della stessa patch (preset) è possibile sovrapporre campionamenti
diversi (layer) oppure dividere orizzontalmente la tastiera in più zone assegnando ogni zona ad un suono diverso.
Campionatore 129

Origini
Una forma primitiva di strumento musicale basato su campioni di suono fu il Mellotron (successivamente
ribattezzato Novatron), uno strumento a tastiera che recava sotto ogni tasto uno spezzone di nastro dove era stata
pre-registrata la nota dello strumento. Il Mellotron tuttavia non può essere definito un campionatore in quanto si
limitava a riprodurre suoni registrati a parte.
Il primo vero campionatore fu il CMI (Computer Musical Instrument) della ditta australiana Fairlight, sviluppato nei
primi anni ottanta.

I giorni nostri
Attualmente, proprio come è accaduto con i sintetizzatori, i campionatori sono stati inglobati ed integrati all'interno
dei computer.
Il vantaggio è che i computer, disponendo di quantità maggiore di memoria RAM e di hard disk, consentono di
immagazzinare un quantitativo sempre maggiore di campioni audio, anche ad elevata definizione.
Sebbene i dischi rigidi fossero più capienti delle RAM, i campioni dovevano comunque essere caricati prima nella
RAM del computer, che era comunque molto meno capiente di un hard disk.
Così, sfruttando la crescente velocità dei dischi rigidi dei computer, alcune ditte hanno sviluppato campionatori
software in grado di operare lo "streaming da disco".
Questa tecnica permette di caricare in ram solo la porzione d'attacco del campione occupando molto meno spazio.
Qualora la nota suonata sia più lunga della sola fase d'attacco caricata in memoria, il soft sampler provvederà a
caricare il resto del campione direttamente dal disco.
Per sfruttare questa tecnologia, le moderne DAW sono equipaggiate di un hard disk dedicato esclusivamente alle
librerie di suoni per questi campionatori.

Costruttori
La lista seguente indica alcuni fra i più noti costruttori di campionatori:
• Akai [1]
• E-mu Systems ed Ensoniq [2]
• Korg [3]
• Kurzweil [4]
• Roland [5]
• Yamaha [6]

Voci correlate
• Musica elettronica
• Sequencer
• Sintetizzatore
• Strumenti musicali
• Tastiere a nastro magnetico
Campionatore 130

Note
[1] http:/ / www. akaipro. com
[2] http:/ / www. emu. com
[3] http:/ / www. korg. com
[4] http:/ / www. kurzweilmusicsystems. com
[5] http:/ / www. roland. it
[6] http:/ / www. yamaha. com

Elaborazione numerica dei segnali


L'elaborazione numerica dei segnali, altresì nota come digital signal processing (in un acronimo, DSP) è una
tecnica di analisi ed elaborazione digitale dei segnali che si basa sull'uso di processori dedicati, con un elevato grado
di specializzazione.
Un tipo importante di DSP è quello in grado di svolgere operazioni aritmetiche ad elevata precisione (virgola
mobile) quali somma, sottrazione e prodotto. Queste tre operazioni sono sufficienti per l'implementazione di filtri
numerici FIR e IIR.
I DSP sono di grande importanza per il controllo automatico e per sistemi di elaborazione dei segnali senza
retroazione quali ad esempio impianti audio o video.
Poiché lo scopo della DSP è di solito la misura o il filtraggio di segnali analogici del mondo reale, la prima cosa da
fare è convertire il segnale da analogico a digitale usando un convertitore analogico-digitale. Spesso il segnale di
uscita richiesto è un altro segnale analogico, ed in questo caso è richiesta la presenza di un convertitore
digitale-analogico. Sebbene l'elaborazione di un segnale digitale sia più complessa dell'elaborazione fatta
direttamente su un segnale analogico, essa offre molti vantaggi, come l'applicazione di tecniche di rilevamento e
correzione automatica degli errori e la minor vulnerabilità ai disturbi, tanto da essere più vantaggiosa in molte, anche
se non tutte, le applicazioni.

Voci correlate
• Teorema del campionamento di Nyquist-Shannon
• Level Crossing Rate
• Average Duration of Fades
• algoritmo di Goertzel
DSP 131

DSP
Il Digital Signal Processor (termine mutuato dall'inglese che tradotto letteralmente significa "processore di segnale
digitale"), in sigla DSP, è un microprocessore ottimizzato per eseguire in maniera estremamente efficiente sequenze
di istruzioni ricorrenti (come ad esempio somme, moltiplicazioni e traslazioni) nel condizionamento di segnali
digitali. I DSP utilizzano un insieme di tecniche, tecnologie, algoritmi che permettono di trattare un segnale continuo
dopo che è stato campionato.

Caratteristiche di un tipico processore DSP


• Progettato per elaborazioni real-time.
• Ottimizzato per operazioni di streaming dati.
• Separazione fra memoria programma e memoria dati (architettura Harvard).
• Speciali istruzioni dedicate ad operazioni SIMD (Single Instruction, Multiple Data).
• Nessun supporto hardware per funzionamento in multitasking.
• Possibilità di effettuare l'accesso diretto (DMA) alla memoria di un host.
• Elaborazione di segnali digitali ottenuti dalla conversione di segnali analogici, mediante uso di un convertitore
analogico-digitale (ADC). Il segnale ottenuto può successivamente essere riconvertito in analogico usando un
convertitore digitale-analogico (DAC).

Semplice sistema di elaborazione digitale

Evoluzione dei DSP


Le radici del DSP risalgono agli anni sessanta-settanta quando divennero disponibili i primi computer digitali. Al
giorno d'oggi infatti esistono anche dei processori software (applicazioni) che permettono di analizzare e modificare
vari tipi di segnale tramite funzioni matematiche (molto utilizzato il FFT - Fast Fourier Transform). Utilizzato nei
più svariati campi delle scienze per i seguenti scopi: miglioramento delle immagini, riconoscimento e generazione
vocale, compressione di dati, ecc. Le applicazioni sono innumerevoli poiché quasi tutti i segnali analogici possono
essere convertiti in digitale.
Il primo DSP monolitico lanciato nel 1978 sul mercato fu l'Intel 2920 dotato di Alu priva di moltiplicatore ed una
architettura Harvard VLIW (very long instruction word) di 24 bit immagazzinata su 192 locazioni di EPROM, uno
spazio di RAM di 40 parole da 25 bit ed interfacce ADC e DAC a bordo. I suoi 2,5 MIPS effettivi erano all'epoca
una velocità altissima.
DSP 132

Classificazione
I DSP sono classificati a seconda dell'ampiezza e del tipo di dato che sono in grado di processare: si parla ad esempio
di DSP a 32, 24 oppure a 16-bit; a virgola fissa o mobile.
Ogni DSP è quindi adatto ad applicazioni specifiche: ad esempio, i DSP a 16-bit a virgola fissa sono impiegati per il
condizionamento di segnali vocali e trovano il loro principale campo di applicazione nella telefonia (fissa e mobile),
mentre i DSP a 32-bit in virgola mobile, avendo una dinamica molto superiore, sono principalmente impiegati
nell'elaborazione di immagini e nella grafica tridimensionale.

Utilizzi dei DSP


• Tecnologie spaziali: miglioramento delle fotografie, compressione dei dati, analisi intelligente dei dati ricevuti dai
sensori.
• Medicina: diagnosi tramite immagini (CT, MRI, ultrasuoni, e altri), elettrocardiogramma.
• Commercio: compressione dei suoni e delle immagini, effetti speciali, videoconferenze.
• Telefonia: compressione dati e voce, riduzione eco, multiplexing, filtraggio disturbi.
• Militare: radar, sonar, comunicazioni sicure.
• Industrie: monitoraggio risorse petrolifere, disegno CAD.
• Scientifico: analisi terremoti, acquisizione dati, spettroanalisi, simulazioni.
• Multimedia: compressione/decompressione e trattamento audio-video, strumenti musicali digitali e software di
elaborazione audio, musica elettronica.

Collegamenti esterni
• Realizzazione di un filtro FIR in C# [1]

Voci correlate
• Microprocessore
• Hardware
• FFT
• CEVA (azienda)

Note
[1] http:/ / xleox. somee. com/ Algorithms/ FirFilter. aspx
Compressione del livello audio 133

Compressione del livello audio


La compressione della gamma dinamica, chiamata anche compressione dell'intervallo dinamico, compressione
del volume, compressione, limitazione (limiting), oppure DRC (dynamic range compression) (spesso visibile nelle
impostazioni dei lettori DVD) è il processo che modifica l'intervallo dinamico di un segnale audio. La compressione
è utilizzata durante la registrazione per il rinforzo del segnale dal vivo e in trasmissione per ottimizzare il livello
audio, facendo in modo che venga percepito al meglio, qualunque sia il sistema di riproduzione in uso. In pratica, un
compressore è un sistema utilizzato per ridurre la dinamica di un segnale, un intervento comunque peggiorativo
della fedeltà del suono. Esso consiste in un apparecchio elettronico in grado di controllare il livello di un segnale
automaticamente, con lo scopo di ridurne il livello, ed è nato per controllare il livello in uscita da microfoni e
trasmettitori audio, al fine di garantire che il livello finale non mandasse in distorsione la catena audio successiva.
Un caso particolare di compressione è il limiter, che comprime in modo estremamente veloce e garantisce
l'abbattimento del livello in caso di picchi.

Introduzione
Il compressore può essere descritto, in
termini semplici, come un controllo
automatico del volume. I suoni forti che
superano una certa soglia vengono ridotti di
volume, mentre i suoni deboli non vengono
modificati. Tale processo è conosciuto come
compressione verso il basso (downward
compression) mentre un intervento che
renda più forti i segnali che giungono deboli
all'ingresso e non intervenga su quelli che
abbiano già un livello elevato è chiamato
compressione verso l'alto (upward
compression). In questo modo viene ridotta
la gamma dinamica di un segnale audio in Relazione tra il livello di ingresso e il livello di uscita in un compressore
modo da rendere il segnale compatibile con
le limitazioni tecniche delle apparecchiature audio, migliorane l'udibilità in ambienti rumorosi o per ragioni
estetiche.

In un ambiente rumoroso il rumore di fondo può superare in volume i suoni più deboli (come ascoltare la radio
mentre si guida). Un livello di ascolto che non risulti fastidioso per i suoni più forti rende inudibili i suoni deboli,
coperti dal rumore; al contrario, un livello di amplificazione che permetta di apprezzare i suoni deboli rende troppo
forti i picchi del materiale ascoltato. La compressione viene utilizzata per rendere più tollerabili sia le parti forti sia
quelle più deboli con uno stesso volume d'ascolto.
Un compressore riduce l'intervallo dinamico di un segnale audio se la sua ampiezza supera una certa soglia.
L'ammontare della riduzione di guadagno è determinata da un fattore (ratio). Per esempio, con un fattore di 4:1, un
valore efficace del segnale in entrata 4 dB sopra la soglia produrrà un livello del segnale in uscita di 1 dB sopra la
soglia. Di conseguenza, il livello di uscita è stato ridotto di 3 dB. Come ulteriore esempio, un valore di 8 dB sopra la
soglia genererà un segnale d'uscita di 2 dB oltre la soglia. Questo comportamento è da confrontare con il processo
complementare di espansione del livello audio, che aumenta l'intervallo dinamico di un segnale se la sua ampiezza
scende sotto una certa soglia. [1]
Un esempio più specifico per un fattore (ratio) di 4:1:
Compressione del livello audio 134

Soglia = -10 dB
Ingresso = -6 dB (4 dB sopra la soglia)
Uscita = -9 dB (1 dB sopra la soglia)

Funzionamento
Un compressore è basato su almeno tre circuiti: un detector analizza il segnale audio da trattare e produce il
cosiddetto side chain, o segnale di controllo, che andrà ad agire sul circuito di controllo del livello. Quest'ultimo
circuito può essere realizzato usando un VCA, un FET, una valvola sfruttando il mu, o un componente
optoelettronico.
Un compressore svolge il suo compito di ridurre l'intervallo dinamico utilizzando un amplificatore a guadagno
variabile per ridurre il livello del segnale. Questo risultato viene tipicamente ottenuto, nei sistemi analogici, usando
un amplificatore controllato in tensione, il quale riduce il suo guadagno quando la "potenza" del segnale in ingresso
aumenta. I compressori ottici, utilizzano invece un diodo sensibile alla luce, per riconoscere le variazione di livello
del segnale, come espresso da una luce fisica più morbida al segnale, dato che i tempi di risposta del fotodiodo
influiscono, rallentandoli, sia sull'attacco che sul rilascio, ovvero sui fronti di salita e di discesa dei transitori di un
brano musicale.
Correntemente, le tecniche di processamento di segnale digitale (DSP) sono comunemente usate per implementare la
compressione attraverso editor audio digitali, o workstations dedicate.

Caratteristiche del compressore

Soglia
La soglia (treshold) è il livello sopra il quale
il segnale viene ridotto. Viene comunemente
impostato in dB, dove un valore basso (ad
esempio -60 dB) farà in modo che venga
trattata una porzione più ampia del segnale
(in contrasto con un valore più alto della
soglia, come ad esempio -5 dB).

Rapporto di compressione
Il rapporto di compressione (ratio)
determina il rapporto ingresso/uscita per i
segnali sopra la soglia. Per esempio, con un
rapporto 4:1, un segnale che supera la soglia
di 4 dB uscirà dal compressore ad 1 dB
sopra la soglia. Il valore limite ∞:1 è Diversi fattori di compressione
comunemente ottenuto utilizzando un
rapporto reale di 60:1, cosicché ogni segnale sopra la soglia sia abbassato al livello della soglia stessa (se si esclude il
breve periodo che segue un repentino aumento, noto come attacco, dell'ampiezza del segnale d'ingresso). Un
compressore che lavoro con rapporti superiori a 15:1 si comporta, di fatto, come un limiter.
Compressione del livello audio 135

Attacco e rilascio
Un compressore può permettere di
intervenire sulla rapidità di reazione
alle variazioni del segnale d'ingresso. Il
tempo impiegato dal compressore a
ridurre il guadagno fino a raggiungere
il livello indicato dal rapporto di
compressione è chiamato attacco. Il
tempo di rilascio, al contrario,
corrisponde alla fase in cui il
compressore aumenta il guadagno in
modo da raggiungere il livello indicato Le fasi di attacco e rilascio
dal fattore di compressione (o a 0 dB,
una volta che il segnale d'ingresso è sceso sotto la soglia). La lunghezza di entrambe le fasi è determinata dall'entità
del cambiamento nel segnale d'ingresso e dalla corrispondente modifica del guadagno. Per rendere la regolazione più
intuitiva, i controlli di attacco e rilascio sono spesso tarati in unità di tempo (normalmente millisecondi). Questo è il
tempo che verrà impiegato dal guadagno per crescere o diminuire di un certo numero di dB, fissato dal costruttore e
spesso pari a 10 dB. Per esempio, se le costanti di tempo fanno riferimento a 10 dB e il tempo di attacco è impostato
a 1 ms, ci vorrà 1 ms affinché il guadagno diminuisca di 10 dB e 2 ms affinché si riduca di 20 dB[2] . In molti
compressori i tempi di attacco e rilascio sono regolabili dall'utente; alcuni compressori, tuttavia, hanno tempi di
attacco e rilascio determinati dalle caratteristiche di progetto e non possono essere regolati. Qualche volta i tempi
sono automatici oppure programmabili, cioè dipendono dal segnale di ingresso. Il carattere del segnale in uscita
risulterà modificato in modo più o meno evidente in base alle impostazioni che di volta in volta vengono selezionate.

Curva di compressione
Un'altra possibile regolazione è la regolazione della
curva di compressione. Tramite questo controllo è
possibile decidere quanto "smussato" debba diventare
l'angolo della curva di risposta. Un passaggio dolce
(soft knee) permette di aumentare gradatamente il
livello di compressione (proprio mentre il segnale di
ingresso aumenta) fino a raggiungere il valore
prefissato, e produce risultati naturali. Una curva dolce
riduce l'effetto sonoro causato dal passaggio tra lo stato
"normale" e lo stato "compresso" del segnale; questa
caratteristica risulta utile specialmente per variazioni di
Compressione con curva dolce o dura
guadagno più pronunciate.

Side chain
Il side chain è il segnale di controllo che gestisce il lavoro di compressione/limiting. È necessario per modificare il
livello della compressione e, quasi sempre, è un segnale in tensione ricavato dallo stesso segnale che si vuole
comprimere. Essendo un segnale di controllo, può essere ulteriormente processato con equalizzatori o amplificatori
al fine di generare un segnale che pilota il compressore/limiter in modo differente dal segnale originale da cui deriva.
Uno dei problemi tipici della compressione è il contenuto energetico di basse frequenze che attiva più facilmente la
Compressione del livello audio 136

compressione, provocando improvvise riduzione del livello che possono essere molto artificiali. Applicando per
esempio un filtro HPF al side chain, è possibile rimuovere le basse frequenze, che non attiveranno più la
compressione essendo assenti nel segnale di controllo, e produrre una compressione più naturale. Da notare che un
side chain equalizzato o processato è sempre indipendente dal segnale che si va a comprimere. Pertanto, anche se il
side chain ha un filtro HPF attivato, tutto il segnale audio subirà un processo di compressione seguendo le
indicazioni del side chain. I compressori dispongono spesso di un ingresso di side chain esterno, che si sostituisce a
quello interno del compressore. Non può esistere compressione se non esiste un segnale di sidechain, proprio perché
i metodi di compressione richiedono sempre un segnale di controllo per definire la quantità di riduzione del livello
da applicare al segnale audio originale. Il side chain è quindi sempre necessario al compressore/limiter o, comunque,
in qualsiasi caso sia prevista una modifica del livello di un segnale in automatico (de-esser, expander, gate).
Seguendo il principio dell'equalizzazione del sidechain, è nato assieme al compressore anche il de-esser, che è un
compressore con un sidechain il cui segnale è equalizzato per esaltare le consonanti sibilanti. Aumentando le
frequenze relative alle sibilanti, il compressore entra in funzione sul segnale audio tutte le volte che queste sibilanti
sono rilevate dai circuiti di detector del compressore/limiter. L'uso artificiale del side chain è stato impiegato per
scopi creativi nella musica dance. In questo caso il segnale di sidechain è prelevato da una cassa elettronica o da un
basso e applicato a un compressore, il cui segnale audio è completamente diverso. Accade quindi che tutte le volte
che la cassa o il basso appaiono nel sidechain, il compressore ridurrà automaticamente il livello della traccia audio a
cui è applicato, creando un effetto particolare dove la cassa e il basso sono esaltati, creando dei movimenti ritmici e
sincroni alla cassa e al basso su tracce audio diverse, come pad, fiati, e cantato.

De-esser a banda larga De-esser multibanda De-esser correzione dinamica

Tipico impiego
Un compressore si usa, nella pratica, al fine di ottenere i seguenti obiettivi:
1) ridurre l'escursione della dinamica del materiale sorgente, in modo tale da permetterne la registrazione su un
supporto che ha proprietà dinamiche inferiori rispetto al segnale originale;
2) modificare deliberatamente il carattere sonoro dello strumento musicale che viene processato.
Ad esempio, per ottenere una riduzione della dinamica (priva di conseguenze troppo evidenti) si può scegliere una
soglia relativamente alta e un rapporto di compressione basso in modo tale che il materiale sorgente risulti
lievemente compresso per la maggior parte del tempo. Per attenuare invece la risposta di un rullante si sceglie un
tempo di attacco medio, un tempo di rilascio moderatamente rapido in combinazione con una soglia bassa. Per
accentuarla invece si deve scegliere un attacco più lento, per non intaccare il transitorio iniziale. È relativamente
semplice ottenere buoni risultati una volta acquisite basilari nozioni di acustica.
A causa del fatto che la compressione si traduce in una perdita di guadagno, il compressore consente di aggiungere
una quota fissa di volume al segnale di uscita in modo tale da poter sopperire alla riduzione del livello sonoro del
segnale. È importante notare che la compressione ha l'effetto di potenziare i passaggi più leggeri (che hanno volume
più basso) all'interno di un brano, in modo tale che alla fine l'estensione dinamica verrà schiacciata; In altre parole,
se si guarda all'effetto netto i suoni forti risulteranno indeboliti, mentre quelli deboli potenziati.
Il compressore per chitarra è un effetto tra i più usati in svariati generi, tra cui il metal e il rock, ma soprattutto il
blues e il funky.
Compressione del livello audio 137

Questo effetto comprime il segnale sonoro in una banda più stretta (regolabile attraverso un potenziometro). Il
risultato che si ottiene è un segnale in uscita tutto allo stesso volume, particolarmente adatto per i riff puliti del
funky. Il compressore ha anche la funzione di rendere più intelligibili i soli senza aumentare troppo la distorsione,
ma questo causa spesso fastidiosi rumori di fondo.

Limiting
Compressione e limitazione (limiting) differiscono per il rapporto di compressione, per la finalità e per l' effetto
percepito. Un limiter è un compressore che lavora con un rapporto più alto e con un tempo di attacco il più veloce
possibile. Molti ingegneri del suono considerano sufficiente un rapporto non inferiore a 10:1 (dieci a uno) per
ottenere il limiting, benché non ci siano regole fissate. [3] Gli ingegneri qualche volta distinguono tra soft e hard
limiting (limitazione debole o forte) tra le quali esiste solo una differenza di grado. Un limitatore si dice tanto più
forte (hard limiting) quanto più è alto il suo ratio e più sono rapidi i tempi di attacco e rilascio.
La Brick wall limiting prevede un rapporto di compressione molto alto e un tempo di attacco molto veloce.
Idealmente, ciò garantirebbe che un segnale audio non ecceda mai l'ampiezza corrispondente alla soglia. Rapporti
che vanno da 20:1 fino all'ipotetico ∞:1 sono considerati 'Brick wall'. [4] Gli effetti sonori che si ottengono da una
limitazione di questo tipo, se non strettamente sporadica, sono tipicamente stridenti e fastidiosi, oltre che difficili da
ascoltare; perciò è molto più appropriato come dispositivo di sicurezza nei live o nella trasmissione radiofonica che
come strumento di creazione del suono, sebbene i limiter degli anni '70 e '80 abbiano trovato largo impiego per
alcuni effetti creativi in fase di mix. Oggi il limiting viene anche utilizzato in fase di mastering per aumentare di
alcuni deciBel il guadagno sul livello sonoro finale del pezzo, secondo i dettami della loudness war (guerra del
volume). Attualmente alcuni prodotti commerciali dell'elettronica di consumo contengono limitatori del livello
audio. Ad esempio Sony usa il sistema Automatic Volume Limiter System (sistema automatico di limitazione del
volume, o AVLS), su molti prodotti audio nonché sulla PlayStation Portable.

Note
[1] http:/ / ccrma. stanford. edu/ courses/ 192b/
lectures/ 1/ 1. html
[2] RANE, September 2005. Dennis A. Bohn et
al. RaneNote 155:Dynamics Processors --
Technology & Applications (http:/ / www.
rane. com/ note1553. html) (http:/ / www.
rane. com/ pdf/ ranenotes/ Dynamics
Processors. pdf)
[3] www.tcelectronic.com/media/droney_massey_2001_compres.pdf
[4] www.tceleconic.com/media/droney_massey_2001_compres.pdf

Sound On Sound, December 2000.


Paul White. Advanced Compression
Techniques (http:/ / www.
soundonsound. com/ sos/ dec00/ Limitazione confrontata con il clipping. Notare che mentre il clipping introduce una
articles/adcompression.htm) grande quantità di distorsione il solo limiting ne introduce solo una piccola quantità a
patto di tenere il segnale entro la soglia.

Voci correlate
• Intervallo dinamico
• Mastering
• Loudness war
Noise gate 138

Noise gate
Un noise gate o noise suppressor, è un
dispositivo audio concepito per ridurre il
rumore di fondo nella linea di
amplificazione di voce o strumenti musicali.
Si usa soprattutto per chitarra elettrica o
basso elettrico, quando si usa un gain molto
elevato, o effetti di scarsa qualità audio,
come ad esempio pedali vintage.

Il rumore può essere generato da vari fattori, Intervento del filtro

tra i più comuni; il ronzio dei single coil, la


catena di effetti, la presenza di luci alimentate da inverter (neon), cavi audio di bassa qualità, ecc.

Regolazione
I parametri di impostazione principali del noise gate sono 2:
• Threshold (anche volte definita sens): cioè il livello minimo (soglia) per l'intervento
• Decay: soglia di intervento nel decay (fase finale ADSR).
Il noise-gate più comune per chitarra ha un'entrata input ed un'uscita output sotto forma di classico connettore jack
femmina da 6,3 mm, lo si trova facilmente sotto forma di "pedalino". In ogni caso esistono noise-gate più complessi
spesso inclusi in multieffetto rack, con più parametri di impostazione e dotati di send/return.

Effect routing
È molto importante prevedere un effect-routing con il noise gate nel punto giusto, per non compromettere l'utilità
dell'effetto stesso e la dinamica del suono.
Spesso si usa mettere il noise gate subito dopo la chitarra in maniera poco efficiente; il segnale send del processore
infatti sarà un suono di chitarra pulito, ma nuovamente sporcato di processori di dinamica (overdrive, distorsori,
expander, compressori, ecc).
È frequente vedere noise gate anche in coda a tutto l'effect routing; anche questa applicazione non è del tutto corretta
poiché si compromettono gli effetti d'ambiente (riverbero, delay, ecc), che possono essere minimizzati dal parametro
decay del noise suppressor.
Si può quindi dire che è formalmente corretto applicare il noise gate dopo i processori di dinamica e prima degli
effetti ambiente.

Altri progetti
• Wikimedia Commons contiene file multimediali su Noise gate
Convoluzione 139

Convoluzione
In matematica, in particolare nell'analisi funzionale, la convoluzione è un'operazione tra due funzioni che genera una
terza funzione che viene vista come la versione modificata di una delle due funzioni di partenza. È paragonabile alla
correlazione incrociata.
Viene utilizzata in vari campi della fisica, della statistica, dell'elettronica, dell'analisi d'immagini e della grafica
computerizzata, soprattutto per operazioni di filtraggio nei sistemi lineari tempo invarianti (in questo caso l' OUT è
dato dalla convoluzione tra il segnale IN e la risposta all'impulso del sistema, la cui trasformata di Laplace o la
trasformata di Fourier è detta funzione di trasferimento).

Definizione
Si considerino due funzioni , dove la supponiamo a supporto compatto e invece
la supponiamo integrabile secondo Lebegue su ogni compatto di , allora si definisce convoluzione di e la
funzione definita nel seguente modo:

dove denota l'integrale definito su tutto l'insieme dei numeri reali, risultano ora chiare le limitazioni poste alle

funzioni e , in quanto se così non fosse non potremmo assicurare che l'integrale sia un numero reale.
È cioè l'integrale del prodotto delle due funzioni dopo che una delle funzioni di partenza è stata rovesciata e traslata,
e si può considerare una forma di trasformata integrale.
L'ultimo passaggio si può dimostrare con semplici calcoli: si consideri , operando la sostituzione
nella prima formula si ottiene la seconda ritornando a chiamare con il nome di .
Per funzioni discrete, si può usare la versione discreta della convoluzione:
Convoluzione 140

Proprietà
La convoluzione soddisfa le seguenti
proprietà:
• Commutatività

Spiegazione visiva della convoluzione. Rendere ogni forma d'onda una funzione della
variabile di comodo . Invertire temporalmente una delle forme d'onda ed aggiungere t
per consentire ad essa di scorrere avanti e indietro sull'asse , mantenendola stazionaria
con lo stesso asse rispetto a t. Infine, originare la funzione a -∝ e tracciarla fino a +∝. Ad
ogni intersezione delle due funzioni, calcolare l'integrale del loro prodotto. La forma
d'onda risultante (qui non mostrata) è la convoluzione delle due funzioni. Se la forma
d'onda stazionaria è un impulso unitario, il risultato finale sarebbe la versione originale
della forma d'onda che scorre, essendo di nuovo stata invertita temporalmente, poiché
l'estremità destra incontra prima l'impulso unitario, e poi l'estremità sinistra. Questa è
inoltre il motivo dell'inversione temporale in generale, potendo considerare i segnali
complessi come costituenti di impulsi unitari.

• Associatività

• Distributività

• Associatività per moltiplicazione per scalare

per ogni numero reale (o complesso) .


• Regola di differenziazione

dove con si è denotata la derivata di o, nel caso discreto, l'operatore differenziale


.
Convoluzione 141

Teorema di convoluzione
Il teorema di convoluzione afferma che

dove F(f) indica la trasformata di Fourier di f. Altre versioni di questo teorema funzionano per la trasformata di
Laplace, trasformata di Laplace bilatera e la trasformata di Mellin.
La trasformata della convoluzione di due funzioni equivale al prodotto delle trasformate delle due funzioni stesse.

Estensione
La convoluzione di f e g si scrive ed è definita come l'integrale del prodotto delle due funzioni dopo che una
delle due sia stata simmetrizzata rispetto all'asse delle ordinate e sia stata traslata. In questo modo, la convoluzione è
un metodo particolare di trasformata integrale:

L'intervallo di integrazione dipende dal dominio su cui sono definite le funzioni. Nel caso di integrazione su un
intervallo finito, f e g sono spesso considerate periodiche in entrambe le direzioni, in modo tale che il termine g(t −
τ) non implichi una violazione dell'intervallo. L'uso dei domini periodici è spesso chiamato convoluzione circolare;
naturalmente, è sempre possibile l'estensione con aggiunta di zeri: utilizzando l'estensione con gli zeri o domini
infiniti, la convoluzione è detta lineare, specialmente nel caso discreto sotto descritto.
Se e sono due variabili casuali indipendenti con densità di probabilità f e g rispettivamente, allora la densità
di probabilità della somma è data dalla covoluzione f g.
Per le funzioni discrete, si può utilizzare la versione discreta della convoluzione, data da

Moltiplicando due polinomi, i coefficienti del prodotto sono dati dalla convoluzione della sequenza originale dei
coefficienti in questo senso (utilizzando l'estensione con zeri come ricordato sopra).
Generalizzando i casi sopra citati, la convoluzione può essere definita per ogni coppia di funzioni integrabili definite
su un intervallo localmente compatto.
Una generalizzazione diversa avviene per la convoluzione delle distribuzioni.

Convoluzione su gruppi
Se G è un gruppo scelto in modo appropriato e la cui misura corrisponde al valore m (per esempio, uno gruppo di
Hausdorff localmente compatto con la misura di Haar e se f e g sono valori reali o complessi dell' m-integrale di G,
allora la loro convoluzione può essere definita da:

Usi
La convoluzione e le relative operazioni sono usate in diverse applicazioni dell'ingegneria e della matematica.
• In statistica, una media mobile pesata è una convoluzione.
• Anche la distribuzione di probabilità della somma di due variabili casuali indipendenti corrisponde alla
convoluzione di ognuna delle loro distribuzioni.
• In ottica, molte specie di "blur" sono descritte tramite la convoluzione. Un'ombra (ad esempio l'ombra su un
tavolo che si vede quando gli si interpone un oggetto innanzi la fonte luminosa) è la convoluzione della forma
della fonte di luce che sta proiettando l'ombra dell'oggetto illuminato. Una foto fuori fuoco è la convoluzione
Convoluzione 142

dell'immagine a fuoco con la forma del diaframma. Il termine fotografico per tale effetto è bokeh.
• Analogamente, nell'elaborazione digitale delle immagini, i filtri convoluzionali assumono un importante compito
negli algoritmi di calcolo dei margini e dei processi correlati.
• Nell'elaborazione digitale dei segnali, il filtraggio di frequenza può essere semplificato convolvendo due funzioni
(dati con un filtro) nel dominio del tempo, il che equivale a moltiplicare i dati con un filtro nel dominio di
frequenza.
• In acustica lineare, un'eco è la convoluzione del suono originale con una funzione geometrica che descrive i vari
oggetti che stanno riflettendo il segnale sonoro.
• Nella riverberazione artificiale (elaborazione digitale dei segnali (DSP), audio professionale), la convoluzione è
utilizzata per codificare la risposta ad impulso di una stanza reale ad un segnale audio digitale.
• In ingegneria elettrica e in altre discipline, l'output (risposta) di un sistema lineare (stazionario, o tempo- o
spazio-invariante) è la convoluzione di un input (eccitazione d'ingresso) con la risposta impulsiva del sistema
(ovvero la risposta quando l'eccitazione d'ingresso è la funzione Delta di Dirac). Vedi teoria dei sistemi lineari
tempo-invarianti e elaborazione digitale dei segnali.
• Nella spettroscopia a fluorescenza determinata a tempo, il segnale di eccitazione può essere trattato come una
catena di impulsi delta, e la fluorescenza misurata è data dalla somma dei decadimenti esponenziali di ogni
impulso delta.
• In fisica, ogni volta che è presente un sistema lineare con un "principio di sovrapposizione", è utilizzata
l'operazione di convoluzione.
• Questo è il termine fondamentale del problema nelle equazioni di Navier-Stokes correlate al problema
matematico del millennio di Clay e al premio associato di un milione di dollari.

Voci correlate
• Deconvoluzione
• Convoluzione di Dirichlet
• Mollificatore

Altri progetti
• Wikimedia Commons contiene file multimediali su Convoluzione

Collegamenti esterni
• Convolution [1], su The Data Analysis BriefBook [2]
• http://www.jhu.edu/~signals/convolve/index.html Applet Java sulla convoluzione.
• http://www.jhu.edu/~signals/discreteconv2/index.html Applet Java per la convoluzione di funzioni tempo
discrete.
• http://www3.deis.unibo.it/Staff/Research/CCaini/corsoCEA/convoluzione.xls Un foglio elettronico per
visualizzare in modo interattivo il prodotto di convoluzione fra due segnali, nell’esempio un impulso ed
un’esponenziale monolatera. Tramite un cursore il tempo può essere fatto variare da -∞ a +∞; in corrispondenza di
ogni valore viene evidenziata la funzione integrando ed il risultato del prodotto di convoluzione (tramite un
marker)
Convoluzione 143

Note
[1] http:/ / rkb. home. cern. ch/ rkb/ AN16pp/ node38. html#SECTION000380000000000000000
[2] http:/ / rkb. home. cern. ch/ rkb/ titleA. html

Riverbero
Il riverbero è il tempo in cui un segnale sonoro decade di 60 dB all'interno di un ambiente chiuso qualsiasi
(auditorium, teatro, cinema, stanza, caverna, corridoio, ecc.). Esso è un fenomeno acustico legato alla riflessione del
suono da parte di un ostacolo posto davanti alla fonte sonora: per esempio, se in una stanza una sorgente sonora
cessa di irradiare, il livello sonoro diminuisce tanto più lentamente quanto minore è l'assorbimento acustico delle
pareti.
Il riverbero ha aspetti negativi, come il rischio di mascheramento delle sillabe del parlato o del fraseggio musicale, e
positivi, come il rinforzo dell'intensità della sorgente.

Presupposti
1. L'orecchio umano non riesce a distinguere due suoni se essi sono percepiti a meno di 1/10 di secondo di distanza
uno dall'altro (fenomeno della persistenza).
2. La velocità del suono nell'aria a 20 °C è di circa 340 m/s.
3. La fonte sonora e l'ascoltatore si trovano nello stesso punto di fronte all'ostacolo.
Dati questi presupposti, in uno spazio aperto si può parlare di riverbero quando l'ostacolo si trova a meno di 17 metri
dalla fonte del suono. Fino a tale distanza, infatti, il percorso dell'onda sonora (dalla fonte all'ostacolo e ritorno) sarà
inferiore a 34 metri e quindi il suono impiegherà meno di 1/10 di secondo per tornare al punto di partenza
confondendosi nell'orecchio dell'ascoltatore con il suono originario.
Se l'ostacolo si trova a più di 17 metri di distanza dalla fonte, allora suono diretto e suono riflesso distano tra loro di
più di 1/10 di secondo risultando quindi come due suoni distinti. In questo caso si parla di eco.
In uno spazio chiuso ampio come ad esempio una chiesa, a seguito di un suono secco si possono udire le
innumerevoli riflessioni delle estese pareti che decrescono di intensità fino al silenzio. La riverberazione dipende
dalla dimensione dell'ambiente e dalla natura delle pareti investite dal suono. Materiali diversi hanno coefficienti di
assorbimento diversi. Inoltre, le riflessioni su pareti di tipo diverso hanno intensità diverse a frequenze diverse.
Il 29 ottobre 1898 il pioniere dell'acustica Wallace Clement Sabine propose una formula per il calcolo del tempo di
decadimento del riverbero oltre la soglia dell'udibilità:

Tempo di riverberazione secondo Sabine

è usato con: -un campo sonoro diffuso -locali di forma regolare -a simili -am < 0,2

Tempo di riverberazione secondo Sabine corretta

è usato con: V>1000 m³


dove T è il tempo espresso in secondi, V è il volume dell'ambiente in metri cubi ed A è l'assorbimento totale di tutte
le pareti espressa in metri quadrati. A Wallace C. Sabine fu dedicata l'unità di misura dell'assorbimento acustico
sabin, equivalente alla superficie di un Piede quadrato di superficie perfettamente assorbente.
Il tempo di riverbero, definito dalla norma ISO 3382 (1997), è il tempo che trascorre finché la sua pressione sonora
diminuisce di 60 decibel.

Tempo di riverberazione secondo Norris-Eyring


Riverbero 144

è usato con: -locali di forma qualsiasi -a simili -am > 0,2

Tempo di riverberazione secondo Millington-Sette

è usato con: -ai diversi

Riverberi artificiali
Il riverbero viene ricreato artificialmente per essere applicato durante spettacoli musicali o in studio di registrazione
alla voce ed agli strumenti musicali per simulare esecuzioni musicali in spazi ampi o per conferire maggiore
profondità ad un suono. Per simulare l'effetto del riverbero sono state implementate soluzioni diverse nel tempo,
beneficiando del progresso tecnologico.

Riverbero a nastro
Si utilizza un particolare registratore/riproduttore a nastro magnetico che fa scorrere a velocità costante un anello di
nastro dentro una meccanica dotata di una testina di registrazione fissa e di una di riproduzione mobile. La testina di
riproduzione è infatti montata su un meccanismo a vite che permette di variarne la distanza da quella di
registrazione. Il segnale registrato dalla prima testina viene letto dalla seconda e miscelato all'originale generando
l'effetto. Il tempo di ritardo dipende dalla distanza tra le due testine e permette di generare sia l'effetto riverbero che
l'eco. Questi apparecchi sono ingombranti e pesanti. Come in ogni registrazione a nastro, lo scorrimento dello stesso
genera un fruscio che peggiora notevolmente la qualità del suono.

Riverbero a tromba
Sull'albero di un motore elettrico a velocità variabile vengono montati, sfasati tra loro di 180°, due microfoni inseriti
in contenitori conici (le "trombe", appunto) che ne aumentano la direzionalità schermandoli parzialmente dai rumori
esterni. Il tutto è inserito in una cassa acustica nella quale un altoparlante, montato all'altezza dei microfoni rotanti,
trasmette il suono che si vuole ritardare. Ruotando, i microfoni passano davanti all'altoparlante captando il suono e
trasmettendolo al circuito di amplificazione. Il ritardo ottenuto è inversamente proporzionale alla velocità di
rotazione del motore (regolabile dall'utilizzatore) e permette di ottenere riverbero, eco e Leslie (particolare effetto
ottenuto dalla combinazione di ritardo e sfasamento delle frequenze dovuto all'effetto Doppler). I riverberi a tromba
sono ingombranti e pesanti. La qualità del suono dipende dalla bontà della componentistica (microfoni e altoparlanti)
ma è comunque influenzata negativamente dal rumore generato per attriti meccanici dal motore e dal rumore esterno
captato dai microfoni. L'effetto Leslie si può oggi ottenere più agevolmente con un circuito di sfasamento "a pettine"
creato con amplificatori operazionali, meglio conosciuto con il nome commerciale di Phaser.

Riverbero a molla
Il segnale viene fatto passare, tramite un apposito trasduttore attraverso una spirale metallica (appunto, una molla).
All'altro capo della molla un trasduttore equivalente al primo reimmette il segnale nel circuito di amplificazione
miscelandolo a quello originale. Il segnale prelevato dal secondo trasduttore risulterà leggermente ritardato rispetto a
quello applicato al primo originando nell'orecchio dell'ascoltatore l'effetto del riverbero. Per ragioni di semplicità
costruttiva ed esiguità di costi i moderni amplificatori per chitarra di piccole dimensioni sono spesso dotati di
riverbero a molla, che viene alloggiato all'interno della cassa di risonanza. A differenza di altri strumenti, il suono
della chitarra elettrica non risente particolarmente delle sfumature timbriche che questo tipo di effetto aggiunge al
segnale originale.
Il funzionamento del riverbero a molla è basato sulla trasmissione del movimento applicato ad un capo della molla
tramite l'apposito trasduttore che converte il segnale elettrico in un segnale meccanico. La molla vibrerà
trasmettendo il segnale meccanico attraverso le spire impiegando un certo tempo. All'altro capo della molla il
Riverbero 145

segnale giungerà quindi in leggero ritardo rispetto al capo di ingresso della molla stessa e verrà riconvertito in
segnale elettrico con un apposito trasduttore, solitamente realizzato tramite un nucleo ferromagnetico intimamente
fissato al capo finale della molla ed immerso in un solenoide. Grazie alla legge di Faraday il movimento del nucleo
magnetico posto all'interno del conduttore diverrà un segnale elettrico.
Il tempo di ritardo del sistema è stabilito a priori dalla lunghezza della molla e dunque non è modificabile
dall'utilizzatore. Anche adottando molle di grande lunghezza, il massimo ritardo ottenibile è nell'ordine dei
millisecondi, quindi non è possibile generare l'effetto eco ma solo un riverbero accettabile. Se accidentalmente la
scatola a molle viene scossa, i trasduttori captano il rumore delle molle che sbattono tra loro e contro le pareti della
scatola stessa inviandolo al circuito di amplificazione.

Riverbero a camera
Sulla falsariga del riverbero a molla, in una scatola isolata acusticamente dall'esterno viene inserito un tubo curvato
in maniera da creare il percorso più lungo possibile. Ad un'estremità del tubo viene posto un piccolo altoparlante
mentre all'altra estremità c'è un microfono. Il suono emesso dall'altoparlante impiegherà un certo tempo per
percorrere tutto il tubo ed arrivare al microfono generando così il ritardo necessario. Come per il riverbero a molle, il
tempo di ritardo non è modificabile dall'utilizzatore ed è comunque piuttosto breve. Il suono ottenuto da questa
implementazione di riverbero è di pessima qualità.

Riverbero digitale
Il segnale analogico viene digitalizzato ed immagazzinato in banchi di memoria RAM che viene utilizzata come la
spirale metallica del riverbero a molla. Infatti i bytes vengono fatti "scorrere" da un banco al successivo fino al
raggiungimento dell'ultimo. Il segnale digitale prelevato dall'ultima memoria viene poi riconvertito in analogico e
miscelato al segnale originale ottenendo l'effetto riverbero. Il tempo di ritardo ottenibile varia agendo sia sul numero
di memorie coinvolte nel processo, sia sulla temporizzazione del trasferimento dei dati da un banco all'altro. La
grande capacità delle memorie RAM permette di raggiungere anche ritardi di parecchi secondi e quindi passare
agevolmente da riverbero a eco. Esistono sul mercato circuiti integrati che comprendono i convertitori A/D e D/A, le
memorie ed i circuiti di temporizzazione. Con un solo chip è così possibile realizzare un'eco digitale in uno spazio
ridottissimo e con pochissima componentistica esterna. La digitalizzazione del segnale e la sua successiva
riconversione in forma analogica causano tuttavia una certa perdita di qualità del suono che dipende dalla bontà del
campionamento, ma che non è completamente eliminabile. Molto diffusi anche i circuiti integrati detti 'bucket
brigade' (catena di secchi) che non operano al loro interno una conversione da analogico a digitale e viceversa, ma
sono formati da tantissime celle a condensatore che si caricano in sequenza con il valore di tensione campionato ad
istanti regolari, analogicamente. Il valore della carica viene passato da un condensatore all'altro (da qui il nome di
catena di secchi) fino a raggiungere l'uscita, impiegando un determinato tempo che sarà il ritardo desiderato.
Chorus 146

Chorus
Il chorus è un effetto elettronico per strumenti musicali elettrificati o elettronici, ma può essere utilizzato anche per
la voce. Consiste nell'impiego di una o più linee di ritardo, attraverso le quali viene fatto passare il segnale, che
subisce appunto un ritardo nella propagazione.
Il tempo introdotto dalla linea di ritardo, è variato mediante un oscillatore a bassa frequenza (LFO), creando quindi
un effetto Doppler periodico.
Il segnale audio viene quindi miscelato con il segnale originale, con intensità generalmente regolabile; la somma del
segnale diretto e di quello processato con effetto Doppler, si presenta come un raddoppio del segnale originale,
contenendo piccole dissonanze come avviene in un coro di voci.
L'ampiezza del segnale prodotto dall'LFO determina la variazione di ritardo introdotto dalla linea di ritardo, e di
conseguenza la variazione di altezza del suono processato; quanto maggiore è l'ampiezza dell'LFO, tanto evidente
sarà l'effetto di dissonanza e di insieme prodotto come risultato finale.

Voci correlate
• Tremolo
• Riverbero
• Delay
• Vibrato
• Flanger
• Phaser
• Pitch shift
• Leslie
Flanger 147

Flanger
Il flanger è un effetto musicale elettronico realizzato mediante l'impiego di una linea di ritardo, con tempi
sensibilmente elevati (fino a qualche decina di millisecondi), attraverso la quale viene fatto passare il segnale da
trattare. Il segnale così ritardato viene miscelato col segnale originale, dando luogo alla cancellazione di quelle
frequenze che si trovano in opposizione di fase (effetto Comb filter o Filtro a Pettine, per la caratteristica forma del
segnale così trattato, quando osservato all'analizzatore di spettro).
Il suono così risultante presenta picchi di risonanza e punti di assenza del segnale audio; modulando il tempo di
ritardo della linea di ritardo mediante un LFO con periodo molto lungo (sotto il sec), l'effetto sarà di evanescenza
sull'intera gamma dello spettro audio, simile al rumore di un aereo a reazione che passa nelle vicinanze.
Ulteriormente, introducendo una data percentuale di retroazione (feedback) sulla linea di ritardo, dati i tempi molto
lunghi impiegati, si produrrà un aumento del Q nei picchi di risonanza, giungendo progressivamente ad un effetto
Larsen. In queste condizioni, il suono trattato dal flanger risulterà molto filtrato e tendenzialmente metallico.
Deve il suo nome alla tecnica con la quale fu inventato negli anni cinquanta: il tecnico del suono, riproducendo un
nastro con parte della registrazione in corso, premeva col dito pollice il rullo pressore in gomma (pinch roller) del
registratore, flettendone (flanging) leggermente la posizione e causando un disallineamento delle piste rispetto alla
testina. La miscelazione del suono originale e di quello trattato, dava origine all'effetto in questione.

Voci correlate
• Tremolo
• Riverbero
• Delay
• Chorus
• Vibrato
• Phaser
• Pitch shift
• Leslie
• Distorsore
• Overdrive
Phaser (musica) 148

Phaser (musica)
Il phaser è un effetto elettronico per strumenti musicali elettrificati o elettronici, impiegato generalmente per dare
risalto a parti soliste in contesti dal vivo, molto popolare verso la fine degli anni sessanta.
Ha un funzionamento simile a quello del flanger, senza però limitarsi a miscelare il segnale originale con quello
ritardato, ma aggiungendo altri ritardi intermedi e sfruttando il feedback per ottenere un elevato Q del Comb filter
così ottenuto.

Voci correlate
• Tremolo
• Riverbero
• Delay
• Vibrato
• Flanger
• Chorus
• Pitch shift
• Leslie

Vibrato
Il vibrato è un effetto musicale che consiste nella variazione periodica dell'altezza di una nota riprodotta (più
precisamente si tratta di una modulazione di frequenza). Si ottiene facilmente negli strumenti a corde, negli archi e
negli ottoni; i cantanti producono il vibrato con un movimento oscillatorio dell'ugola (vibrato di gola) o più
correttamente con il movimento oscillatorio del diaframma, ottenuto con una giusta impostazione vocale e fisica
(appoggio e sostegno). Il vibrato fornisce un particolare significato al sostenuto/tenuto, rendendolo gradevole
all'orecchio, laddove una singola nota tenuta in modo statico risulterebbe fastidiosa. Questo effetto non dovrebbe
essere usato per mascherare i piccoli difetti di intonazione della voce e le instabilità di livello sonoro negli strumenti
a corda.

Voci correlate
• Tremolo
• Riverbero
• Delay
• Chorus
• Flanger
• Phaser
• Pitch shift
• Leslie
Vibrato 149

Altri progetti
• Wikibooks contiene la descrizione dell'esecuzione su chitarra su Vibrato

Delay
Il delay, echo/delay o delay/echo (dall'inglese per "ritardo" e "eco") è un effetto usato per modificare il suono di
strumenti musicali elettrici o amplificati. Viene anche talvolta chiamato, più impropriamente, eco.
La funzione generale del delay consiste nel registrare il suono in ingresso e riprodurlo con un determinato ritardo
temporale. Solitamente il suono ritardato viene aggiunto al segnale originale, anziché sostituirlo; in tal caso l'effetto
complessivo è simile a quello dell'eco. Il concetto è anche analogo a quello del riverbero: la differenza principale fra
questi due tipi di effetti sonori riguarda la scala dei tempi resi disponibili al musicista. Il riverbero, infatti, riproduce
il suono originale con un ritardo minimo, sicuramente inferiore al secondo, mentre un delay può produrre il suono
ritardato anche a distanza di decine di secondi.
Il suono ritardato può a sua volta essere reintrodotto nel sistema di delay, producendo una sequenza di echi. In
genere, il suono ritardato è riprodotto a un volume inferiore all'originale, cosicché la sequenza di echi sfuma nel
tempo, come un'eco fisica in determinate condizioni di acustica.
In genere, un delay offre al musicista almeno tre possibilità di controllo
sull'effetto applicato: la scelta della lunghezza temporale del ritardo
(che consente di mandare a tempo gli echi rispetto al ritmo del brano
musicale), la scelta del numero massimo di echi, e la scelta del volume
degli echi. Si tratta in genere di un effetto a pedale, per consentire al
musicista di inserirlo o disinserirlo a piacere, senza dover togliere le
mani dallo strumento evitando interruzioni.

L'echo/delay è uno degli effetti standard usati in modo frequente nella


maggior parte dei generi di musica leggera. Fra gli artisti che ne hanno
fatto tradizionalmente un uso più evidente si possono citare i Pink Un delay/echo Ibanez con i tre controlli
fondamentali. Si possono osservare i due canali di
Floyd, che hanno basato su effetti di eco il sound di moltissimi loro
uscita DRY (il suono originale, "secco") e OUT
successi, da One of These Days (Meddle, 1971) a Another Brick in the (l'eco)
Wall (The Wall, 1979). L'esempio forse più celebre è quello del
chitarrista Brian May, che nel brano Brighton Rock dei Queen sviluppa un assolo basato esclusivamente sul delay.

I primi delay erano strumenti analogici, che usavano un supporto magnetico (per esempio un nastro) per registrare il
suono in ingresso, in modo simile al funzionamento di un normale registratore a nastro; un esempio di un delay di
questo genere è il celebre Roland Space Echo. Questo sistema aveva il difetto di comportare la progressiva usura del
nastro impiegato. Tuttavia, lasciava anche la possibilità a musicisti con competenze tecniche di agire in modo
estremamente creativo sulla riproduzione dei suoni. Un esempio celebre di uso creativo del delay con nastro
magnetico è la tecnica delle Frippertronics sviluppata dal chitarrista Robert Fripp e da Brian Eno, il quale la riprende
nuovamente insieme al chitarrista The Edge degli U2 nell'album The Unforgettable Fire della band irlandese.
A partire dagli anni ottanta il mercato ha sostituito rapidamente i delay analogici con i delay digitali, che
digitaliizzano il suono in ingresso e lo memorizzano in un circuito che ha caratteristiche analoghe a quelle della
memoria RAM dei computer. Questa tecnica presenta il vantaggio di non comportare virtualmente alcun tipo di
usura dei componenti, consente una riproduzione più fedele del suono originale, e, attraverso la digitalizzazione, può
facilmente essere integrata con altri strumenti di elaborazione del suono (per esempio, molti delay digitali forniscono
anche funzioni di flanger, phaser, chorus o altri effetti legati alla modifica della forma d'onda del suono riprodotto).
Delay 150

L'evoluzione naturale del delay tradizionale a pedale è (come per quasi tutti gli altri effetti) l'impiego di software
specifici che consentono di ottenere l'effetto nel contesto di un programma di elaborazione musicale per computer.

Voci correlate
• Tremolo
• Riverbero
• Chorus
• Vibrato
• Flanger
• Phaser
• Pitch shift
• Leslie

Pitch shift
In musica, il Pitch shift è una variazione di frequenza della nota musicale, ridotta o aumentata di una certa quantità.
Intuitivamente, l'effetto può essere banalmente riprodotto con un elastico teso fra le mani e pizzicato. Se durante la
vibrazione l'elastico viene ulteriormente allungato, il suono prodotto diverrà più acuto; se esso viene rilasciato, il
suono diverrà più grave.
Ad esempio, con una chitarra, si può ottenere un pitch shift verso il basso stirando la corda pizzicata, grazie
all'utilizzo del "ponte mobile" (gestito tramite leva) oppure verso l'alto scorrendo il dito che ha pizzicato la corda
sulla tastiera, ortogonale alla corda stessa.
Con una tastiera elettronica per gli effetti di pitch shift è possibile usare una leva chiamata bender, o accedere alle
specifiche funzioni di programmazione dello strumento.
Altre tecniche sono comunemente adottate per tanti altri strumenti musicali.
Le variazioni più tipiche del pitch sono di un semitono o di un tono, ma possono essere applicate variazioni anche
superiori.

Voci correlate
• Bending
• Vibrato
• Riverbero
• Delay
• Chorus
• Flanger
• Phaser
Leslie (musica) 151

Leslie (musica)
Leslie è un marchio di fabbrica, usato universalmente per indicare un sistema di altoparlanti rotanti, che ebbe grande
successo dagli anni cinquanta in poi.
Il Leslie venne ideato come complemento ai primi organi Hammond a ruote foniche (tonewheels); lo strumento era
stato proposto dal suo inventore come sostituto dell'organo liturgico, ma il risultato complessivo lasciava molto a
desiderare per la staticità e innaturalezza del suono, nonché per il persistere di onde stazionarie, amplificate ed
evidenziate nell'acustica delle chiese. Si pensò allora di migliorarne la qualità, facendo ruotare gli altoparlanti
dell'amplificatore in modo da creare un piccolo effetto Doppler e da fornire al suono una certa spazialità; Don Leslie
presentò il suo primo amplificatore con altoparlanti rotanti nel 1940.
Il Leslie originale, e imitato da numerose Case costruttrici, pur esistendo in vari modelli, ha una struttura di principio
abbastanza definita; il suono viene suddiviso in due gamme (acuta e grave) per mezzo di un filtro Crossover e
distribuito come segue:
• la gamma grave viene riprodotta da un grande altoparlante a cono, posto con il magnete in alto e la membrana
orientata verso il basso; sotto all'altoparlante c'è un riflettore acustico in legno, dalla forma a parabola concava,
con pianta circolare che ruota sul proprio asse, azionato da un motorino elettrico mediante una cinghia
• la gamma acuta viene riprodotta da un altoparlante a compressione, che sfoga all'interno di un doppio diffusore a
tromba, montato su un asse e posto in rotazione da un altro motorino elettrico dotato di cinghia; un diffusore
piazzato davanti ad ogni tromba (in realtà solo una delle due è attiva, l'altra serve solo per l'equilibratura della
rotazione) scinde, colora e diffonde ulteriormente il suono, donandogli una caratteristica timbrica.
I due rotori sono tra loro svincolati; quello
delle note gravi gira ad una velocità simile
ma non uguale rispetto a quello delle note
acute, generalmente più veloce ed il più
delle volte ulteriormente regolabile
cambiando sull'albero motore la gola (nei
modelli più diffusi in genere il pignone ha
tre gole di differente diametro) dove è
alloggiata la cinghia, similmente ad un
trapano a colonna, inoltre i sensi di
rotazione dei due rotori sono opposti,
creando così una modulazione del suono che
cambia in continuazione, evitando
l'insorgere di onde stazionarie.
Sezione schematica di un Leslie cabinet dei più evoluti: due rotori e due gruppi
motori. Ogni gruppo è composto da due motori, uno per il lento (Chorus) e uno per
Il Leslie ha due velocità di funzionamento,
il veloce (Tremolo). Nella modalità Chorus i motori piccoli vengono alimentati e si
denominate Chorus e Tremolo, anche se nei
innestano sulla puleggia dei motori più grandi (non alimentati) per via di uno
primi modelli era previsto solo il Tremolo o
spostamento assiale dell'albero causato dall'attrazione magnetica del traferro nei
confronti del rotore. Viceversa durante il Tremolo in alternativa i rotori rallentavano fino a
fermarsi (in seguito furono posti in
commercio dei kit aggiuntivi di motorini per avere anche la bassa velocità, quindi il Chorus); la prima prevede una
rotazione molto lenta dei riflettori acustici, circa 40 giri al minuto, adatta a generi musicali moderati, mentre la
seconda, con la rotazione veloce specialmente dei diffusori delle note acute, circa 400 giri al minuto (caratteristica è
l'accelerazione e decelerazione del rotore dei bassi, più graduale rispetto al rotore degli acuti per via della maggiore

inerzia del diffusore di legno), fornisce una connotazione molto particolare al suono, estremamente difficile da
riprodurre con altri dispositivi. Infatti, l'effetto prodotto dal Leslie è molteplice; la rotazione del riflettore acustico
Leslie (musica) 152

provoca una modulazione di ampiezza, di frequenza, di fase e di spettro, a seconda della direzione dei riflettori
acustici, della velocità di rotazione degli stessi e della posizione dell'ascoltatore, con un fronte sonoro molto ampio e
continuamente variabile; inoltre la timbrica degli altoparlanti usati, in special modo del tweeter a tromba, non è
volutamente hi-fi e dona un colore sonoro caratteristico.

Modalità operative: Chorus, Tremolo, Stop


La maggior parte dei Leslie prevede due velocità di funzionamento: si tratta del Chorus e del Tremolo visti in
precedenza. Oltre alla velocità lenta e a quella veloce, esistono modelli che prevedono anche una posizione detta di
Stop nella quale i motori non sono alimentati e pertanto i rotori pervengono ad una condizione di fermo. Nel modello
760 nel passaggio da tremolo a stop, viene esercitata un'azione di frenatura per far sì che i rotori si arrestino in fretta.
Per raggiungere lo scopo viene usato un circuito temporizzatore che inserisce per un lasso di tempo (regolabile
internamente) la modalità Chorus prima di disattivare del tutto i gruppi motori. In questo modo i motori più lenti
effettuano un'azione frenante per imporre la propria velocità ai rispettivi rotori. Lo Stop può essere installato anche
su modelli che prevedono solo Tremolo e Chorale, ivi compreso il circuito per la frenatura.

Modelli di Leslie
• Leslie 122, è il modello più famoso, ha un sound delicato e morbido definito "rotondo". Un classico esempio ne è
il suono di Rick Wright dei Pink Floyd. Viene collegato all'organo mediante linea bilanciata, quindi garantendo
una ottima immunità da interferenze.
• Leslie 147, esteticamente identico al 122 ha però un suono leggermente differente, più brillante. Ne è un esempio
classico il suono di Jon Lord dei Deep Purple. Non essendo nato specificamente per l'Hammond, viene collegato
all'organo mediante linea sbilanciata, più sensibile a interferenze.
• Leslie 142, è la versione "ribassata" del fratello maggiore 122, e grossomodo ne rispecchia le caratteristiche
timbriche.
• Leslie 145, è la versione "ribassata" del fratello maggiore 147, del quale riprende le caratteristiche timbriche
anche se con un basso meno profondo.
• Leslie 222, è un modello piuttosto ingombrante, sostanzialmente la versione orizzontale del 122, con frontale
decorato con pannelli di tessuto adattabile all'arredamento di abitazioni.
• Leslie 251, è la versione del 147 progettata specificamente per gli organi Hammond della serie A-100, munito di
sezione amplificatrice e altoparlanti separati atti a riprodurre la parte di segnale riverberato in arrivo dall'organo,
separatamente dal segnale principale.
• Leslie 760, è un Leslie con amplificazione stato solido, molto più potente dei predecessori valvolari (circa 90
Watt totali ripartiti in due amplificazioni interne, 50W ai bassi, 40W agli acuti) ma con un suono leggermente più
freddo e aspro. La versione rivestita in vinile può essere considerata portatile, mentre la versione in legno è
identica alla serie 122 - 147.
• Leslie 770, è la versione in legno del 760.
• Leslie 825, è il fratello minore del 760, cioè una versione ancora più portatile, il rotore è unico, manca il tweeter a
tromba e quindi timbrica e modulazione differiscono rispetto ad altri modelli.
• -RV con questo suffisso si identificano i Leslie valvolari con dispositivo atto a generare un segnale riverberato,
composto da un dispositivo di ritardo a molle con pick-up piezoelettrico, da un amplificatore valvolare separato e
da appositi altoparlanti non rotanti. Poteva essere anche acquistato in kit per essere aggiunto a Leslie non
provvisti.
Esiste una grande varietà di altri Leslie dedicati ad altri strumenti musicali, ad una, due o tre velocità (incluso il
fermo).
Leslie (musica) 153

Voci correlate
• Organo Hammond
• Tremolo
• Riverbero
• Delay
• Chorus
• Flanger
• Phaser
• Pitch shift
• Vibrato

Tremolo (musica)
In musica, il tremolo è la variazione periodica dell'ampiezza (intensità) di un suono.
Spesso usato come registro per il recitativo degli organi, allo scopo di fornire un timbro malinconico all'esecuzione.
Utilizzato nelle chitarre elettriche aventi ponte mobile; è una leva collegata al vibrato che agisce sulla tensione di
tutte le corde modificandone momentaneamente l'intonazione, le corde ritornano poi alla tensione originaria grazie
all'ausilio di due o tre molle poste sul retro del corpo.

Voci correlate
• Vibrato
• Riverbero
• Delay
• Chorus
• Flanger
• Phaser
• Pitch shift
• Leslie
Wow and Flutter 154

Wow and Flutter


Il termine Wow and Flutter è uno dei parametri che definiscono le caratteristiche di un apparecchio di riproduzione
audio in tecnologia analogica, in particolare è riferito a registratori a nastro e giradischi. Il valore misurato, espresso
in percentuale, indica il grado di precisione e costanza di rotazione dei dispositivi meccanici preposti al
trascinamento del supposrto magnetico o alla rotazione del piatto giradischi per dischi in vinile. Il trascinamento del
nastro in un registratore, avviene tramite un albero motore (capstan), sul quale viene premuto il nastro da una ruota
libera in gomma (pinch roller); eventuali irregolarità o variazioni di velocità del capstan o usura del pinch roller,
provocano conseguenti irregolarità nella riproduzione del suono. In un giradischi, eventuali irregolarità di rotazione
possono essere duvute a variazioni di velocità del motore, imperfezioni o degrado della cinghia di trasmissione in
gomma o difetti di bilanciamento del piatto; in modo analogo al nastro, eventuali irregolarità di rotazione, si
ripercuotono nella riproduzione del suono inciso nel disco. Per ridurre al minimo le variazioni di velocità dei motori,
in modo analogo agli orologi, questi sono azionati da un circuito pilotato da un oscillatore al quarzo.

Filtro comb
Il filtro comb (filtro pettine) è un particolare filtro che aggiunge al segnale al tempo presente una sua versione
ritardata (delay) di un certo numero di passi. La risposta in frequenza di un filtro comb consiste in una serie di
impulsi equispaziati che ricordano i singoli denti di un pettine. I filtri comb esistono in due differenti tipologie con
feedforward o in retroazione (feedback).

Applicazioni
I filtri comb sono utilizzati in vari ambiti del signal processing, ad esempio:
• Filtri di tipo CIC (Cascaded Integrator-Comb) usati per l'anti-aliasing nelle operazioni di interpolazione e
decimazione che cambiano la frequenza di campionamento di un sistema a tempo discreto.
• Filtri comb in 2D e 3D implementati nell'hardware per i decoder del protocollo NTSC per le televisioni. Vengono
utilizzati per ridurre gli artefatti come gli errori di dot crawl.
• Effetti audio come chorus, flanger, phaser, e sintesi digitale a guida d'onda. Ad esempio se il tempo di delay è
impostato a pochi millisecondi un filtro comb può essere utilizzato per modellizzare l'effetto di un'onda
stazionaria acustica in una cavità cilindrica o in una corda che vibra; in questo caso attraverso l'algoritmo di
Karplus-Strong.
Filtro comb 155

Implementazioni
Di seguito vengono esposte le implemetazioni a tempo discreto, le proprietà a tempo continuo di un filtro comb sono
molto simili.

Filtro comb feedforward


Lo schema a blocchi di un filtro comb feedforward è il seguente:
E può essere descritto dalla seguente
equazione alle differenze:

Struttura di un Feedforward comb filter

dove è la lunghezza della linea di ritardi (delay line) misurata, essendo a tempo discreto, in numero di campioni.
è il fattore di scala applicato al segnale nella linea di ritardo. Attraverso la trasformata z dell'equazione precedente
si ottiene:

Con la seguente funzione di trasferimento:

che lega input ad output.

Risposta in frequenza

modulo della risposta in frequenza del filtro comb feedforward per modulo della risposta in frequenza del filtro comb Feedforward per
vari valori di positivi vari valori di negativi

Usando la formula di Eulero otteniamo l'ulteriore rappresentazione della risposta in frequenza come segue:

Spesso è interessante considerare il modulo, ignorando la fase, come segue:

che, nel caso di un filtro comb, è espresso come segue:


Filtro comb 156

Da notare che il termine è una costante, mentre il termine varia periodicamente. Quindi il
modulo del filtro comb varia periodicamente.
I grafici sulla destra mostrano il modulo della risposta in frequenza per vari valori di a dimostrazione della sua
periodicità.
Alcune importanti proprietà sono:
• Il modulo decade periodicamente ad un minimo locale (in inglese conosciuto come notch) e ricresce
periodicamente ad un massimo locale (in inglese conosciuto come peak cioè picco).
• I livelli di massimo e di minimo sono sempre equidistanti da 1.
• Quando il minimo assume il valore di ampiezza zero.
• Il massimo, per valori positivi di , coincide con il minimo per valori negativi di e vice-versa.

Interpretazione polare
Andando di nuovo ad osservare la funzione di trasferimento nello Z-dominio:

possiamo notare che il numeratore assume valore zero quando . Questo ha soluzioni, equamente
separate attorno ad un cerchio nel piano complesso. Questi sono gli zeri della funzione di trasferimento. Il
denominatore è zero quando , ottenendo poli per . Questo porta a grafici di poli e zeri come
quelli seguenti:

Grafico di poli e zeri di un filtro comb feedforward con Grafico di poli e zeri di un filtro comb feedforward con
e e
Filtro comb 157

Filtro comb a retroazione (feedback)


La struttura di un filtro comb a
retroazione è mostrata nella figura a
destra. Il filtro si descrive attraverso la
seguente equazione alle differenze:

Struttura di un filtro comb a retroazione (feedback)

Se si manipola questa equazione in modo che tutti i termini in vengono portati dalla parte sinistra e
successivamente si applica la trasformata z si ottiene:

La funzione di trasferimento è quindi:

Risposta in frequenza

Modulo della risposta in frequenza del filtro comb con retroazione Modulo della risposta in frequenza del filtro comb con retroazione
per vari valori positivi di per vari valori negativi di

Il modulo è il seguente:

Di nuovo la risposta è periodica come mostrato dai grafici sulla destra. Il filtro comb a retroazione ha alcune
proprietà con il filtro comb feedforward:
• La risposta decade periodicamente ad un minimo locale e ricresce ad un massimo locale.
• Il massimo, per valori positivi di coincide con il minimo per valori negativi di e vice-versa.
Ci sono comunque alcune differenze importanti a causa del fatto che il modulo della risposta in frequenza ha un
termine al denominatore:
• I livelli di massimo e di minimo non sono equidistanti da 1.
• Il filtro è BIBO stabile esclusivamente se è minore (non minore uguale) di 1. Come si può notare dai grafici
se il cresce l'ampiezza del massimo cresce rapidamente.
Filtro comb 158

Interpretazione polare
Andando di nuovo ad ispezionare lo z-dominio della funzione di trasferimento del filtro comb a retroazione:

Il numeratore, questa volta, vale zero per ottenendo zeri per . Il denominatore vale zero ogni
volta che . Questo ha soluzioni, equamente spaziate attorno ad un cerchio nel piano complesso, i poli
della funzione di trasferimento. Questo porta a dei grafici di poli e zeri come i seguenti:

Grafico dei poli-zeri di un filtro comb a retroazione con Grafico dei poli-zeri di un filtro comb a retroazione con
e e

Filtro comb a tempo continuo


Il filtro comb nella versione feedforward a tempo continuo può essere sintetizzato dalla seguente formula:

mentre la versione con retroazione (feedback):

dove è il ritardo (delay) misurato in secondi.


La risposta in frequenza è rispettivamente:

Le versioni a tempo continuo condividono le stesse proprietà di quelle a tempo discreto.

Voci correlate
• Finite impulse response
• Infinite impulse response
• Filtro (elettronica)
Filtro passa alto 159

Filtro passa alto


In elettronica un filtro passa alto è composto da un circuito elettrico che permette solo il passaggio di frequenze al
di sopra di un dato valore detto "frequenza di taglio". Può essere di tipo attivo o passivo a seconda della presenza di
elementi attivi nel circuito come amplificatori oppure solo passivi. Inoltre, in base alla pendenza del taglio in
frequenza, si può distinguere in filtro passa-alto di primo ordine (20 db per decade), di secondo ordine (40 db per
decade), di terzo ordine (60 db per decade) e così via. Viene utilizzato anche per la regolazione di un suono limpido
per twitter, medi, ecc. All'epoca delle radio a galena e di quelle a onde corte veniva anche usato come antenna e
chiamato tappo-luce[1] .

Filtro passivo passa alto


Il filtro passa alto passivo tra i più semplici filtri da realizzare è il
circuito CR in serie, prelevando il segnale di uscita ai capi del
resistore, che ha la caratteristica di far passare tutte le componenti di
frequenza comprese tra la frequenza di taglio che dipende dalle
caratteristiche degli elementi e la frequenza (teoricamente) infinita. Al
di sotto della frequenza di taglio, il filtro attenua le componenti in
frequenza del segnale.

Possiamo calcolare la funzione di rete più appropriata utilizzando il Schema di filtro passa-alto passivo

metodo operatoriale o il metodo simbolico, per esempio calcolando


con la leggi di Kirchhoff:

oppure calcolare direttamente la funzione di trasferimento:

dove è la costante di tempo caratteristica del circuito. A seconda dell'ingresso la funzione di


trasferimento definisce completamente la risposta del circuito a qualsiasi segnale in ingresso. A noi però interessa
qui solo la sua risposta in frequenza per cui troviamo che l'ampiezza:

e fase:

Graficando queste due quantità tramite i diagrammi di Bode si vede che l'ampiezza rimane costante dalla frequenza
di taglio che si ricava imponendo per definizione:

che corrisponde ad una attenuazione del segnale di 3 dB, ottenendo:

Prima di tale valore l'ampiezza del segnale è una retta crescente di 20 dB per decade. I valori asintotici dell'ampiezza
e della fase sono:
Filtro passa alto 160

che significa che il sistema RC non trasmette il segnale in continua,

che significa appunto che l'ampiezza si annulla per basse frequenze, mentre per la fase:

Notiamo che se la funzione di trasferimento:

che appunto conferma che l'ampiezza cresce linearmente con la frequenza del segnale.

Filtro passa alto


Il filtro passa alto ha un'equazione dinamica lineare che descrive il circuito è:

oppure riscritta:

Ora se vale la condizione cioè se la caduta di tensione ai capi di R è molto piccola rispetto alla caduta
di potenziale ai capi di C, allora si ha come soluzione:

cioè come si vede il segnale di uscita è proporzionale alla derivata del segnale in ingresso, realizzando un derivatore.
Si può anche vedere più esplicitamente che per realizzare un derivatore ideale dovremmo avere in termini di
frequenza:

cioè dovrebbe avere una funzione di trasferimento:

dove è un fattore costante di proporzionalità. In base alla risposta in frequenza del filtro passa alto vediamo che il
filtro approssima bene un derivatore solo per nella regione delle basse frequenze che ha impedenza
capacitiva C alta.
Per un derivatore più preciso si deve utilizzare un elemento attivo come l'amplificatore operazionale che permette di
produrre un derivatore analogico molto efficiente.
Filtro passa alto 161

Note
[1] Il tappo-luce: piccolo, umile dispositivo d'altri tempi (http:/ / www. leradiodisophie. it/ Tappo-luce. html)

Voci correlate
• Circuito RC
• Filtro attivo
• Filtro Bessel
• Filtro Butterworth
• Filtro Chebyshev
• Filtro Crossover
• Filtro di Wiener
• Filtro ellittico
• Filtro EMI
• Filtro passa basso
• Filtro passa banda
• Filtro elimina banda
• Filtro Sallen-Key
• Modulazione

Filtro elimina banda


In elettronica, un filtro elimina banda o filtro notch è un dispositivo passivo che non permette il passaggio di
frequenze in un dato intervallo.
Il suo funzionamento è l'opposto di un filtro passa banda: elimina una
banda con una selettività molto alta (è in grado di attenuare frequenze
in un intervallo molto ristretto - (a seconda del suo fattore di merito Q).
I filtri notch sono usati per l'amplificazione audio (specialmente per
amplificatori e preamplificatori per strumenti musicali come chitarra
acustica, mandolino, chitarra basso, etc.) per ridurre o impedire effetto
feedback, senza avere ripercussioni sul resto dello spettro frequenziale.

Tipicamente, la larghezza della banda eliminata è inferiore a 1 o 2 Un filtro generico ideale elimina banda

decadi (cioè la più alta frequenza attenuata è meno di 10 - 100 volte la


più bassa frequenza attenuata).

Utilizzazione
• Amplificazione audio
• In moderne linee di trasmissione dell'energia elettrica
• In sistemi ad alte frequenze (radioricevitori) per bloccare frequenze
interferenti
• In ingegneria biomedica per apparati per elettroencefalogramma
Bode
Filtro elimina banda 162

Circuito RLC come elimina banda


Il circuito RLC è un ottimo filtro elimina banda molto selettivo. Nel caso di un circuito RLC in serie si ha
un'impedenza totale data da:

La pulsazione di risonanza di questo circuito è ricavabile da:

che corrisponde alla frequenza di risonanza:

cioè alla frequenza in cui la tensione di uscita è minima; quando gli effetti del condensatore e dell'induttore si
annullano reciprocamente e tutta la tensione d'ingresso rimane sul resistore. La banda passante si ottiene con un
semplice calcolo:

Dove le due pulsazioni di taglio si ottengono, per definizione, quando il segnale d'uscita ha una variazione di -3dB
cioè imponendo che l'ampiezza della funzione di trasferimento sia uguale a .
Nel caso di un circuito RLC parallelo si ha un'ammettenza totale data da:

La pulsazione di risonanza di questo circuito è uguale a quello per serie:

che corrisponde alla frequenza di risonanza:

cioè alla frequenza in cui la tensione di uscita è minima; quando gli effetti del condensatore e dell'induttore si
annullano reciprocamente e tutta la tensione d'ingresso rimane al resistore. La banda passante si ottiene con un
semplice calcolo:

Dove le due pulsazioni di taglio si ottengono, per definizione, quando il segnale d'uscita ha una variazione di -3dB
cioè imponendo che l'ampiezza della funzione di trasferimento sia uguale a .
In entrambi i circuiti RLC la risposta in frequenza presenta un punto di minimo pronunciato in corrispondenza della
frequenza di risonanza, nel caso dell'RLC in serie introducendo il fattore di merito , la larghezza del

picco diminuisce all'aumentare di Q, che dipendendo a sua volta da R ed L, si può diminuire R per aumentare Q,
però in tal caso si diminuisce anche l'ampiezza. Infatti la banda passante è legata a Q dalla:

e viceversa:

Nel caso dell'RLC in parallelo il fattore di merito è legato alla banda passante da:
Filtro elimina banda 163

e il discorso sopra si inverte, cioè aumentare Q significa aumentare R.

Voci correlate
• Modulazione
• Filtro passa banda
• Filtro passa basso
• Filtro passa alto
• Circuito RC
• Circuito RLC

Filtro passa banda


In elettronica, un filtro passa banda è un dispositivo passivo che
permette il passaggio di frequenze all'interno di un dato intervallo
(la cosiddetta banda passante) ed attenua le frequenze al di fuori di
esso. Un esempio di un circuito analogico che si comporta come
filtro passa banda è un circuito RLC (una rete elettrica formata da
resistore-induttore-capacitore prelevando l'uscita sul resistore). I
più semplici filtri passa banda però possono anche essere creati
dalla combinazione di un filtro passa basso e un filtro passa alto
opportunamente dimensionati.

Il filtro passa banda ideale ha una banda passante perfettamente


piatta, non ha né attenuazione né guadagno per le frequenze L'asse delle frequenze di questo grafico simbolico
all'interno, e attenua completamente tutte le frequenze al di fuori di dovrebbe essere in scala logaritmica

questo intervallo.
Nella pratica, nessun filtro passa banda è ideale. Il filtro non attenua completamente tutte le frequenze al di fuori
della banda voluta; in particolare, esiste una regione contigua alla banda passante dove le frequenze sono attenuate
ma non completamente. In queste regioni (dette "di roll-off"), l'attenuazione è generalmente espressa in decibel.
Normalmente la progettazione di un filtro cerca di mantenere le regioni di roll-off più strette possibili, in modo che il
filtro operi il più possibile come filtro ideale. D'altra parte, più queste regioni si assottigliano, meno la banda
passante è piatta: a un certo punto presenta delle ondulazioni sempre più evidenti. Questo effetto è particolarmente
pronunciato ai limiti della banda passante, un effetto noto come fenomeno di Gibbs.

Tra la frequenza di taglio inferiore f1 e quella superiore f2 di una banda passante, si trova la frequenza di risonanza,
in corrispondenza della quale il guadagno del filtro è massimo. La banda passante del filtro è semplicemente la
differenza tra f2 e f1.
Al di fuori del campo dell'elettronica e dell'elaborazione dei segnali, un esempio di filtro passa banda lo si ha nel
campo della meteorologia. È cosa comune filtrare i dati meteorologici recenti in un intervallo di frequenze (per
esempio con un periodo da 3 a 10 giorni), in modo che solo i cicloni rimangano visibili come fluttuazioni nei dati.
Filtro passa banda 164

Filtro passa banda come combinazione di un passa basso e passa alto


Nel caso il filtro passa banda sia costituito da un passa basso con un
passa alto abbiamo lo schema in figura. Se è la tensione ai capi di
allora

Calcoliamo ora la funzione di trasferimento:

Si vede che esso è il prodotto di un passa alto e di un passa basso con un termine misto . Se si
può trascurare il termine misto e scrivere per la funzione di trasferimento:

In questo modo si vede che se è la frequenza di taglio del passa alto e quella del passa basso con ,
la banda passante è data semplicemente da:

Circuito RLC come passa banda


Il circuito RLC è un ottimo filtro passa banda nel senso che è molto più selettivo del passa banda come somma di un
passa basso e di un passa alto. Nel caso di un circuito RLC in serie si ha un'impedenza totale data da:

La frequenza di risonanza di questo circuito è ricavabile da:

che corrisponde alla frequenza di risonanza:

cioè alla frequenza in cui la tensione di uscita è massima; quando gli effetti del condensatore e dell'induttore si
annullano reciprocamente e tutta la tensione d'ingresso viene passata al resistore. La banda passante si ottiene con un
semplice calcolo:

Dove le due pulsazioni di taglio si ottengono, per definizione, quando il segnale d'uscita ha una variazione di -3dB
cioè imponendo che l'ampiezza della funzione di trasferimento sia uguale a .
Nel caso di un circuito RLC in parallelo si ha un'ammettenza totale data da:
Filtro passa banda 165

La frequenza di risonanza di questo circuito è uguale a quello per serie:

che corrisponde alla frequenza di risonanza:

cioè alla frequenza in cui la tensione di uscita è massima; quando gli effetti del condensatore e dell'induttore si
annullano reciprocamente e tutta la tensione d'ingresso viene passata al resistore. La banda passante si ottiene con un
semplice calcolo:

Dove le due pulsazioni di taglio si ottengono, per definizione, quando il segnale d'uscita ha una variazione di -3dB
cioè imponendo che l'ampiezza della funzione di trasferimento sia uguale a .
In entrambi i circuiti RLC la risposta in frequenza presenta un picco pronunciato in corrispondenza della frequenza
di risonanza, nel caso dell'RLC in serie introducendo il fattore di merito , la larghezza del picco

diminuisce all'aumentare di Q, che dipendendo a sua volta da R ed L, si può diminuire R per aumentare Q, però in tal
caso si diminuisce anche l'ampiezza. Infatti la banda passante è legata a Q dalla:

e viceversa:

Nel caso dell'RLC in parallelo il fattore di merito è legato alla banda passante da:

e il discorso sopra si inverte, cioè aumentare Q significa aumentare R.

Voci correlate
• Filtro passa alto
• Filtro passa basso
• Filtro elimina banda

Altri progetti
• Wikimedia Commons contiene file multimediali su Filtro passa banda
Filtro passa basso 166

Filtro passa basso


Un filtro passa basso è costituito da un circuito elettronico che permette il solo passaggio di frequenze al di sotto di
una data soglia detta "frequenza di taglio". Può essere di tipo attivo o passivo a seconda della presenza nel circuito di
elementi attivi quali amplificatori oppure solo di componenti passivi. Inoltre, in base alla pendenza del taglio in
frequenza, si può distinguere in filtro passa basso di primo ordine (20 db per decade), di secondo ordine (40 db per
decade), di terzo ordine (60 db per decade) e così via, che è anche la classificazione dei filtri in cascata, come il
doppio passa basso e il doppio passa alto. Viene utilizzato anche per la regolazione di un suono limpido per woofer,
subwoofer, ecc.

Filtro passivo passa-basso


Il filtro passa basso passivo,tra i più semplici filtri da realizzare, è il
circuito RC in serie che ha la caratteristica di far passare tutte le
componenti di frequenza comprese tra 0 Hz e la frequenza di taglio che
dipende dalle caratteristiche degli elementi che lo costituiscono. Al di
là di tale frequenza il filtro elimina le componenti in frequenza del
segnale.

Possiamo calcolare la funzione di rete più appropriata utilizzando il


metodo operatoriale, per esempio calcolando l'impedenza e/o Schema di filtro passa-basso passivo

l'ammettenza che sono:

dove è la costante di tempo caratteristica del circuito. La funzione ha un polo per . A

seconda dell'ingresso queste due funzioni di rete definiscono completamente la risposta del circuito a qualsiasi
segnale di ingresso. A noi però interessa qui solo la sua risposta in frequenza per cui dall'impedenza passando alla
sostituzione formale sempre valida otteniamo la funzione di trasferimento:

che ha ampiezza:

e fase:

Graficando queste due quantità tramite i diagrammi di Bode si vede che l'ampiezza rimane costante fino alla
frequenza di taglio che si ricava imponendo per definizione:

che corrisponde ad una attenuazione del segnale di 3 dB, ottenendo:


Filtro passa basso 167

Dopo tale valore l'ampiezza del segnale diminuisce di 20 dB per decade. I valori asintotici dell'ampiezza e della fase
sono:

che significa che il sistema RC trasmette il segnale in continua,

che significa appunto che l'ampiezza si annulla per alte frequenze, mentre per la fase:

che significano che il segnale di uscita dal filtro sarà sfasato rispetto all'ingresso, con valori particolari per e
.
Notiamo che l'impedenza del condensatore è inversamente proporzionale alla frequenza del segnale. Così, se il
segnale posto in ingresso avrà una bassa frequenza d'oscillazione, la resistenza del condensatore sarà molto alta ed
un quantitativo maggiore di tensione si ripartirà ai capi del condensatore. A seconda del valore della resistenza, sotto
una certa frequenza (la frequenza di taglio del circuito), ai capi del condensatore avremo una tensione pressoché
uguale alla tensione di ingresso. Quando il valore della frequenza del segnale di input, supera il valore della
frequenza di taglio, in uscita avremo una tensione attenuata, tendente a zero, rispetto a quella di ingresso.

Integratore
Il filtro passivo passa basso ha un'equazione dinamica lineare che descrive il circuito data da:

oppure riscritta:

Integrando ambo i membri di questa equazione:

Ora se vale la condizione cioè se la caduta di tensione ai capi di C è molto piccola rispetto alla caduta
di potenziale ai capi di R, allora si ha come soluzione:

cioè come si vede il segnale di uscita è proporzionale all'integrale del segnale in ingresso, realizzando un integratore.
Si può anche vedere più esplicitamente che per realizzare un integratore ideale dovremmo avere in termini di
frequenza:

cioè dovrebbe avere una funzione di trasferimento:

dove è un fattore costante di proporzionalità. In base alla risposta in frequenza del filtro passa basso vediamo che
il filtro approssima bene un integratore solo per nella regione delle alte frequenze che ha impedenza
capacitiva C molto bassa e la curva dell'ampiezza è lineare.
Per un integratore più preciso si deve utilizzare un elemento attivo come l'amplificatore operazionale che permette di
produrre un integratore analogico molto efficiente.
Filtro passa basso 168

Voci correlate
• Circuito RC
• Filtro attivo
• Filtro Bessel
• Filtro Butterworth
• Filtro Chebyshev
• Filtro Crossover
• Filtro di Wiener
• Filtro ellittico
• Filtro EMI
• Filtro passa alto
• Filtro passa banda
• Filtro elimina banda
• Filtro Sallen-Key
• Modulazione

Frequenza di taglio
La frequenza di taglio è un parametro di definizione delle proprietà dei filtri elettrici passa basso e passa alto (vedi
anche la voce larghezza di banda).

Definizione
Per esempio un filtro passa basso, data una frequenza di taglio, lascia passare solo le frequenze inferiori a questa,
attenuando quelle superiori; un filtro passa alto, data una frequenza di taglio, lascia passare solo le frequenze
superiori a questa, attenuando quelle inferiori. La parte in cui l'uscita non risulta attenuata viene detta banda
passante, e nel caso di un filtro passa basso si identifica con la sua frequenza di taglio (ad esempio si dice banda di X
Hertz).
Come frequenza di taglio si definisce quella
frequenza in cui sussiste la seguente
relazione fra il modulo del segnale di uscita
e che sono funzioni
nell'insieme dei numeri complessi:

dove = segnale in uscita dal filtro,


Frequenza di taglio 169

dove = segnale in ingresso al filtro.


Il rapporto definisce la funzione risposta in frequenza che è la funzione di trasferimento (s è la
variabile complessa ) dove si è posto (solo la parte immaginaria) e , dove è la frequenza
espressa in Hertz e è la pulsazione espressa in radianti/sec
La frequenza di taglio è quella frequenza che impone ad un segnale di uscita, rispetto a quello di entrata, uno
sfasamento pari a 45° o una attenuazione di essendo la condizione per cui la parte reale della è uguale

alla parte immaginaria, quindi Tg angolo sfasamento è uguale a 1


Spesso parlando di filtri si indica come unità di misura il dB (Decibel): così la frequenza di taglio viene definita
come la frequenza in cui l'attenuazione di potenza del sistema è pari a 3dB (vedi Decibel). Si parla infatti anche di
banda a -3dB(la funzione inversa di 3dB è 10 exp(3/20)=1,41253 circa uguale a , con il segno - ,diventa 1/
), riferendosi alla banda passante del sistema.

Risonanza elettrica
In un circuito a corrente alternata, la risonanza elettrica è un fenomeno stazionario che si manifesta ad una
frequenza in cui la reattanza capacitiva 1/ωC e la reattanza induttiva ωL sono di uguale modulo, costringendo
l'energia ad oscillare tra il campo magnetico di una induttanza ed il campo elettrico di un condensatore.

Spiegazione
La risonanza si instaura allorché, considerando un circuito chiuso e senza perdite, il campo magnetico presente
nell'induttanza genera, per via del suo naturale decadimento, una corrente elettrica autoindotta nel proprio
avvolgimento che, scorrendo attraverso il circuito chiuso, carica il condensatore; a sua volta il condensatore,
scaricandosi, fornisce la corrente elettrica che attraverso l'avvolgimento dell'induttore rigenera il campo magnetico
iniziale nello stesso: ripetendosi indefinitamente tale processo, si assiste all'instaurarsi del fenomeno della risonanza.
Il pendolo meccanico ne è una analogia.

Condizioni di risonanza
Alla risonanza l'impedenza Z della reattanza induttiva e quella capacitiva poste in serie raggiunge il suo minimo,
mentre l'impedenza Z delle due reattanze poste in parallelo raggiunge il suo massimo. Nel caso di risuonatore in
serie, l'impedenza è data dalla seguente espressione:

Mentre nel caso di risuonatore in parallelo:

in cui:
ω è la pulsazione
L è l'induttanza
C è la capacità
R la resistenza parassita (ad esempio la resistenza parassita in serie all'induttanza dovuta al filo dell'avvolgimento
con cui è realizzata nel caso di un risuonatore parallelo)
Risonanza elettrica 170

Pulsazione di risonanza
Quando, alla pulsazione di risonanza, il modulo della reattanza
induttiva è uguale a quello della reattanza capacitiva l'impedenza
diventa minima nel caso della serie e massima nel caso del
parallelo.
La pulsazione per la quale le due reattanze si uguagliano in
modulo è data, per entrambi i casi di risuonatore serie e
risuonatore parallelo, dalla seguente espressione:

Un condensatore (C) e un induttore (L) in risonanza.


(In parallelo)

Tale pulsazione corrisponde alla pulsazione naturale di oscillazione nel caso di assenza di perdite (e quindi
smorzamento nullo; in tal caso si ha un risuonatore ideale, caratterizzato da: R= 0 nel caso serie; R= infinito nel caso
parallelo). Nella realtà le perdite sono sempre presenti (e il risuonatore si dice quindi "smorzato") a causa di
componenti cosiddette "parassite" sempre presenti nei circuiti reali; esse portano ad una frequenza naturale di
oscillazione differente (in particolare, "inferiore") da quella ideale precedentemente calcolata. Tale differenza sarà
piccola in caso di basse perdite (i.e. fattore di merito Q elevato). In un circuito reale, caratterizzato pertanto da
"perdite" che determinano il cosiddetto "smorzamento", la frequenza naturale del risuonatore serie vale:

Mentre nel caso di risuonatore parallelo vale:

È possibile esprimere elegantemente, con un'equazione valida per entrambi i casi serie e parallelo, la frequenza
naturale dell'oscillatore smorzato in funzione del suo fattore di merito Q e della frequenza naturale in assenza di
smorzamento:

dove per il caso serie il fattore di merito è dato da:

mentre per il caso parallelo da:

Alla pulsazione di risonanza fa riscontro la frequenza di risonanza che è evidentemente


Risonanza elettrica 171

Utilizzazione
La risonanza viene utilizzata nei radioricevitori ad amplificazione accordata, negli amplificatori accordati, nei filtri
accordati ed altri dispositivi che, in generale, devono operare prevalentemente con segnali caratterizzati da pulsazioni
assegnate ed appartenenti ad un predefinito intervallo di valori.

Voci correlate
• Impedenza
• Risonanza
• Potenza reattiva
• Rifasamento

Altri progetti
• Wikizionario contiene la voce di dizionario «Risonanza elettrica»

Inviluppo
Inviluppo è un termine che può significare:
• In matematica:
• L'inviluppo è un insieme di curve tangenti ad una famiglia di curve.
• L'inviluppo convesso è uno strumento legato agli insiemi convessi.
• Nella teoria musicale una tecnica di sintesi elettronica dei suoni, denominata ADSR.
ADSR 172

ADSR
L'acronimo ADSR viene utilizzato nella teoria musicale relativa alla sintesi elettronica dei suoni e deriva dalle
quattro parole inglesi Attack (Attacco), Decay (Decadimento), Sustain (Sostegno), Release (Rilascio)

L'inviluppo
Sono le quattro fasi che rappresentano il volume di riproduzione di un suono nel tempo. L'evoluzione di ciascuna
fase è determinata da una funzione.

Attack
È il tempo che intercorre dal momento in cui il volume passa da zero al suo valore massimo. In un organo l'attacco è
immediato, in quanto la nota viene suonata al massimo volume non appena si preme un tasto. Altri suoni, invece,
saranno caratterizzati da un attacco più graduale, come ad esempio il suono sintetizzato di un ensemble orchestrale.

Decay
Rappresenta il tempo che il suono impiega a passare dal volume massimo (raggiunto durante la fase di attack) al
volume di sustain.

Sustain
Volume che si mantiene dopo la fase di attack finché il tasto resta premuto.

Release
In questa fase, il volume diminuisce fino al valore 0. Impostando il rilascio, si definisce la rapidità con la quale
questa diminuzione avviene. In un organo, la fase del rilascio sarà istantanea (non appena si rilascia il tasto
dell'organo, la nota cessa); in una chitarra, questa fase sarà invece lenta; volendo simulare un gong, questa fase sarà
molto lenta.

Voci correlate
• Onset detection
Oscillatore a bassa frequenza 173

Oscillatore a bassa frequenza


L'oscillatore a bassa frequenza o LFO (acronimo di Low Frequency Oscillator) è un generatore di forme d'onda a
frequenza infrasonica, con funzione di modulatore di effetti, negli strumenti musicali elettronici.
Se un segnale triangolare viene applicato ad un oscillatori controllati in tensione (VCO) si avrà un effetto di vibrato;
se il segnale dell'LFO è quadrato, lo stesso segnale applicato ad un amplificatore controllato in tensione (VCA)
causerà un effetto tremolo.
L'LFO può generare forme d'onda diverse, come quadra, a dente di sega, random e così via.

Voci correlate
Sintetizzatore

Modulazione
In telecomunicazioni e elettronica con il termine modulazione si
indica l'insieme delle tecniche di trasmissione di un segnale elettrico o
elettromagnetico finalizzate ad imprimere un segnale detto Modulante
(eventualmente contenente informazione cioè dunque variabile in
maniera aleatoria nel tempo) su di un altro segnale elettrico o
elettromagnetico detto portante che ha invece lo scopo di trasmettere le
informazioni del modulante ad 'alta frequenza' (freq.portante >> freq
Modulante) ovvero di convertire il segnale modulante da ' banda base '
a quella che è chiamata ' banda traslata ' secondo il Teorema della
Modulazione. La portante con il segnale informativo modulante Grafico animato che rappresenta l'effetto della
agganciato sarà quindi detto segnale modulato. modulazione di un segnale (Signal) sinusoidale
trasmesso su onde modulate secondo l'ampiezza
L'operazione inversa di ripristino del segnale informativo originario in (AM) e secondo la frequenza (FM)

banda base è detta demodulazione. Il dispositivo in trasmissione che


attua l'operazione di modulazione sul segnale informativo è detto modulatore, mentre il dispositivo in ricezione attua
l'operazione di demodulazione è detto demodulatore. In un sistema di ricetrasmissione tali sistemi vengono riuniti
entrambi sotto la dizione di MODEM (dalla composizione di MOdulazione e DEModulazione).
I segnali modulanti possono rappresentare le informazioni più diverse: audio, video, dati. In generale, il motivo per
cui si utilizzano le tecniche di modulazione risiede nel fatto che i segnali rappresentanti le informazioni da
trasmettere sono in prevalenza di natura passa-basso (il loro contenuto spettrale è concentrato per lo più a basse
frequenze), mentre i canali trasmissivi che più comunemente si utilizzano, per poter trasmettere più segnali modulati
contemporaneamente, (come canali hertziani e fibre ottiche) sono tipicamente di natura passa-banda cioè trasmettono
in una banda a frequenza diversa da quella del segnale informativo originario. In sostanza occorre quindi convertire
in frequenza, mediante tale tecnica, lo spettro del segnale rappresentante l'informazione; inoltre l'impiego di questa
tecnica permette di trasmettere segnali elettrici (e quindi le informazioni che essi rappresentano) a grande distanza e
senza sovrapposizione di altre informazioni grazie a tecniche correlate di multiplazione in frequenza (FDM).
L'onda portante è un'onda elettromagnetica a frequenza ben determinata (molto maggiore alla frequenza del segnale
Modulante), che può essere trasmessa in aria, nel vuoto (radio) o tramite un mezzo materiale opportuno.
In caso di trasmissioni laser in fibra ottica o in aria libera, invece della frequenza portante, viene tipicamente indicata
la lunghezza d'onda della portante.
Modulazione 174

Teorema della Modulazione


Sia un segnale in banda base con spettro di ampiezza , lo spettro in banda traslata si ottiene dalla
seguente operazione:

ovvero moltiplicando per una funzione cosinuisoidale di frequenza e trasformando successivamente secondo
Fourier: si ottiene così lo spettro traslato di una quantità pari a ; tale spettro si presenta matematicamente
composto da una parte sull'asse positivo delle frequenze e da un'altra sull'asse negativo (proprietà di hermitianità).
Per l'operazione inversa di demodulazione ovvero da 'banda traslata' a 'banda base' basta semplicemente
rimoltiplicare il segnale ottenuto ancora per e trasformare nuovamente secondo Fourier. Esso dunque
non è altro che una proprietà particolare della Trasformata di Fourier.

Perché si modula un segnale


È conveniente modulare un segnale per molte ragioni:
• traslazione della banda del segnale informativo nella banda passante del canale di comunicazione.
• se i segnali devono essere trasmessi mediante onde radio (comunicazione wireless) si verifica che l'antenna (in
trasmissione come in ricezione) ha una lunghezza proporzionale alla lunghezza d'onda che – in banda base (il
range di frequenze del segnale Modulante), per un segnale audio – è pari a ,

ovvero improponibile;
• modulando un segnale a frequenze diverse, è possibile far transitare su un mezzo trasmissivo più segnali, quindi
più utenze – ad esempio – possono telefonare contemporaneamente (FDM multiplazione a divisione di
frequenza);
• il segnale modulato può essere codificato così da ridurre gli effetti del rumore; la natura del segnale stesso è tale
da concentrare il suo spettro nelle frequenze più basse, mentre i mezzi trasmissivi hanno un miglior rendimento
ovvero miglior risposta in frequenza a frequenze più elevate o comunque diverse dalla banda base del segnale
originario;
• si ha infine una semplificazione dei circuiti adottati per la trasmissione e la ricezione dei segnali.
La formula per il calcolo della lunghezza d'onda è il rapporto tra la velocità di propagazione del segnale nel mezzo
trasmissivo (nel caso precedente nel vuoto quindi velocità della luce), e la frequenza del segnale modulato in banda
traslata per la trasmissione.
In generale dunque è possibile tramettere il segnale informativo senza ricorrere alle tecniche di modulazione, ma si
perdono tutti i vantaggi sopra descritti facendo perdere in efficienza la trasmissione oppure, in alcuni casi, rendendo
vano ogni sforzo stesso di trasmissione.
NB:La velocità di propagazione del segnale nell'aria (etere), è segnalata come m/s. In realtà questa è da
considerarsi la velocità di trasmissione nel vuoto e non nell'aria, in quanto quest'ultima è formata da vari strati
(troposfera, esosfera, ...), gas (ossigeno, azoto, ...), umidità, pulviscolo, ... che "attenuano" la velocità di
propagazione riducendola ad un valore effettivo di m/s.
Modulazione 175

Modulazioni analogiche
Esistono diversi tipi di modulazione analogica utilizzate nelle rispettive trasmissioni analogiche:
• AM - (Amplitude Modulation) modulazione di ampiezza;
• FM - (Frequency Modulation) modulazione di frequenza;
• PM - (Phase Modulation) modulazione di fase.
La trasmissione dal trasmittente al ricevente ovviamente deve essere fatta usando la stessa portante e lo stesso tipo di
modulazione, ad esempio: 10MHz come portante, AM-SSB come modulazione. A parità di portante, l'uso di
modulazioni differenti tra il trasmettitore ed il ricevitore rende inutilizzabile il segnale ricevuto.

Modulazioni digitali o numeriche


Con il termine di modulazione digitale (o numerica), si indica una tecnica di modulazione utilizzata nelle
trasmissioni digitali in cui il segnale modulante rappresenta un'informazione in formato binario, cioè tale da
assumere solo due possibili valori (esempio 0 o 1, -1 o +1) o una stringa di questi. Di fatto questo tipo di
modulazione realizza un conversione dati da digitale ad analogico per la trasmissione su canale ad onde continue.
Un'applicazione tipica si ha nel modem. I principali tipi di modulazione digitale sono:
• Amplitude-shift keying (ASK): modulazione digitale di ampiezza;
• Frequency-shift keying (FSK): modulazione digitale di frequenza;
• Phase-shift keying (PSK): modulazione digitale di fase.
Combinando la modulazione ASK e PSK si ottiene la modulazione di ampiezza in quadratura (QAM), che viene così
chiamata perché si può ottenere modulando in ampiezza due portanti della stessa frequenza, poi sommate in
quadratura di fase (fasi ortogonali, ovvero a 90º).
Altre tecniche di modulazione più complicate, rese possibili dall'integrazione elettronica di funzioni complesse (Fast
Fourier Transform, FFT) in microchip, sono quelle che prevedono la modulazione di un numero elevato di portanti
simultaneamente, in modo da minimizzare le interferenze reciproche. Queste tecniche vengono chiamate OFDM, e
vengono utilizzate per esempio nei sistemi radio WiMAX e nello standard LTE di telefonia cellulare.
Le prestazioni di un sistema di modulazione numerica sono misurabili in termini di efficienza spettrale e probabilità
d'errore Pb. In particolare se si aumenta il numero M di simboli per costellazione aumenta la quantità L di bit
trasportati dal simobolo stesso ( ), ma aumenta al contempo anche la probabilità d'errore nella
ricezione.

Modulazione impulsiva
La modulazione impulsiva è un tipo di modulazione in cui l'informazione è codificata in una serie di impulsi. I
principali tipi di modulazione impulsiva sono:
• Modulazione di ampiezza di impulso o PAM;
• Modulazione di larghezza di impulso o PWM;
• Modulazione codificata di impulsi o PCM.
La modulazione impulsiva anche se a prima vista può sembrarci digitale, è di fatto ottenuta mediante treni di impulsi
analogici.
Modulazione 176

Modulazione adattativa
I moderni sistemi di telecomunicazioni permettono di variare lo schema di modulazione numerica adottato in
funzione della quantità di informazione da trasmettere e/o in dipendenza delle condizioni di propagazione del canale
(più o meno disturbato) specie nel caso di canale radio ovvero in una radiocomunicazione (terrestre e satellitare).
Questo comporta che anche il tasso di codifica dell'informazione a monte della modulazione debba variare in
accordo con la diminuzione o l'aumento della velocità di trasmissione sul canale. Ad esempio si può passare da un
sistema a 8QAM a 16QAM a 64QAM aumentando così il numero di bit di informazione trasmessi per simbolo
oppure viceversa abbassandola riducendo la banda necesaria alla trasmissione per dedicarla in parte ad altri servizi
ed al contempo garantendo al sistema una robustezza maggiore in termini di probabilità di errore ovvero garantendo
alti livelli di qualità di servizio in termini di tempo di disponibilità del servizio stesso nel caso ad esempio di cattivo
tempo atmosferico. Nelle trasmissioni digitali con la codifica di sorgente e la conseguente compressione dei dati si
riesce a ridurre lo schema di modulazione e operare al contempo una diminuzione di banda necessaria sfruttando così
quella totale disponibile in maniera più efficiente per altri canali o servizi.

Voci correlate
• M-QASK

Altri progetti
• Wikimedia Commons contiene file multimediali su Modulazione

Modulazione di frequenza
La modulazione di frequenza, in acronimo FM (dall'analogo termine
inglese frequency modulation), è uno dei sistemi utilizzati per
trasmettere informazioni utilizzando la variazione di frequenza
dell'onda portante. Appartiene alle modulazioni ad onda continua,
ovvero quelle che modulano una portante sinusoidale, e tra queste in
particolare appartiene a quelle che effettuano modulazione angolare
(non lineare) dato che insiste sulla fase della portante. Nella FM vi è un
legame lineare tra deviazione di frequenza e messaggio.

La FM consiste nel modulare la frequenza del segnale radio che si


intende utilizzare per la trasmissione (detto portante) in maniera
proporzionale all'ampiezza del segnale che si intende trasmettere.
Rispetto alla modulazione di ampiezza ha il vantaggio di essere molto
meno sensibile ai disturbi e di permettere una trasmissione di miglior
qualità. Ha inoltre un'efficienza molto maggiore dato che la potenza del
segnale modulato FM è esclusivamente quella della portante, il segnale La modulazione di frequenza
di informazione cioè non richiede potenza aggiuntiva per essere carrier= frequenza portante
signal= segnale modulante
trasmesso.
output = portante modulata
Il difetto principale è la necessità di circuiti molto più complessi sia per
la generazione del segnale da trasmettere che per la sua ricezione. L'attuale tecnologia ha permesso di superare
agevolmente tali problematiche con il risultato che le trasmissioni in modulazione di frequenza sono sempre più
usate a discapito di quelle a modulazione di ampiezza, soprattutto in ambito di broadcasting commerciale.
Modulazione di frequenza 177

In Italia la modulazione di frequenza è usata per le trasmissioni radiofoniche nella banda di frequenze che va dagli
87,5 ai 108 MHz.

Stereofonia
La maggior banda passante disponibile viene anche utilizzata per trasmettere segnali stereofonici grazie ad un
procedimento di multiplexing che permette di manipolare i segnali relativi ai due canali della stereofonia e di
trasmetterli sotto forma di un segnale di somma (sinistro + destro) e un segnale di differenza (sinistro - destro). Il
segnale di differenza viene traslato con un particolare procedimento al di sopra della banda udibile. In questa
maniera si ha la compatibilità con i ricevitori monofonici che riproducono il solo segnale di somma, mentre i
ricevitori stereofonici riescono a rigenerare gli originali segnali stereo.

Voci correlate
• Modulazione di ampiezza
• Modulazione di fase
• Modulazione a banda laterale singola
• Deviazione di frequenza
• FMeXtra
• Segnale chirp: esempio di modulazione lineare di frequenza

Collegamenti esterni
• Edwin Howard Armstrong e La modulazione di frequenza [1]
• Fmdx.it - Il sito siciliano dedicato al mondo della FM [2]

Note
[1] http:/ / www. radiomarconi. com/ marconi/ monoscopio/ index2. html
[2] http:/ / www. fmdx. it/
Modulazione a banda laterale singola 178

Modulazione a banda laterale singola


La modulazione SSB (Single Side Band) consiste nel modulare un segnale eliminando una delle doppie bande
laterali della modulazione DSB tramite un apposito filtro SSB.
Tale filtro può selezionare la banda superiore, ed in tal caso si parla di SSB-U (upper) o la banda inferiore e si parla
di SSB-L (lower). Tale tecnica di modulazione consente di ottimizzare il rendimento spettrale, definito come il
rapporto tra il segnale modulante e il segnale modulato, portando ad 1 tale rendimento (nella DSB e nell'AM è 0,5).
Il problema connesso a tale modulazione consiste nel creare distorsioni alle basse frequenze (causate dalla non
idealità del filtro SSB) in fase di demodulazione, sempre che il segnale abbia componenti rilevanti alle basse
frequenze. Questo problema non si pone per segnali vocali o audio ed è comunque risolvibile utilizzando la tecnica
Vestigiale VSB.

Storia
Il primo brevetto americano per la modulazione SSB[1] è stato applicato il 1º dicembre 1915 da John Renshaw
Carson nonostante la marina militare statunitense avesse fatto esperimenti con essa già precedentemente alla Prima
guerra mondiale.[2] [3] Entrò in servizio commerciale il 7 gennaio 1927 nel circuito del radiotelefono pubblico
transatlantico in onde lunghe tra New York e Londra. I due grandi trasmettitori in SSB furono posizionati a Rocky
Point quello americano e a Hillmorton, vicino alla città di Rugby quello inglese, mentre le stazioni di ricezione
furono posizionate a Houlton nel Maine e a Cupar in Scozia.
La modulazione SSB fu anche utilizzata per le linee telefoniche a lunga distanza, come parte della Frequency
Division Multiplexing (FDM), lanciata dalle compagnie telefoniche nel 1930. Questo permetteva di inviare più voci
in un unico canale fisico di trasmissione, come ad esempio la portante L della modulazione SSB, mantenendo i
canali spaziati di 4000 Hz (solitamente) e offrendo una banda nominale per la trasmissione vocale compresa tra 300
Hz e 3400 Hz.
I radioamatori divennero seri sperimentatori della modulazione SSB dopo la Seconda guerra mondiale, mentre il
SAC o Strategic Air Command degli Stati Uniti rese standard l'uso della SSB per le comunicazioni con i suoi
aeromobili nel 1957[4] .

Generazione del segnale

Filtro passabanda
Un segnale alla frequenza modulato in ampiezza su una portante a può essere espresso come semplice
moltiplicazione del coseno delle due onde:
, dove .
Applicando una semplice identità trigonometrica possiamo cambiare l'espressione qui sopra in:

dove ogni termine coseno nell'equazione è conosciuto come una banda laterale.
Un metodo per produrre un segnale SSB è la rimozione della banda laterale tramite l'utilizzo di un filtro, lasciando
solo la banda laterale superiore (USB o Upper Sideband) la banda laterale con frequenza maggiore, oppure
togliendola e lasciando solo la banda laterale inferiore (LSB o Lower Sideband) la banda laterale con la frequenza
minore. Più spesso la portante è ridotta o eliminata del tutto (soppressa) così da ottenere la (SSBSC o single sideband
suppressed carrier).Supponendo che entrambe le bande laterali siano simmetriche, il che è il caso di un normale
segnale AM, in questo processo di soppressione non verrà persa alcuna informazione. Poiché l'amplificazione finale
Modulazione a banda laterale singola 179

RF è ora concentrata in una banda laterale unica, la produzione effettiva di potenza è superiore a quella AM normale
(la portante e la banda laterale ridondante risultano per oltre la metà della potenza di un trasmettitore AM).
Utilizzando una larghezza di banda e potenza notevolmente inferiore rispetto ad un segnale AM, la SSB non può
essere demodulata con un semplice rivelatore d'inviluppo a diodo come avviene per i segnali modulati in ampiezza.

Modulatore di Hartley
Un metodo alternativo per produrre questa modulazione è il modulatore di Hartley (che prende il nome dal suo
inventore Ralph Hartley) che utilizza la fase del segnale per sopprimere la banda laterale indesiderata. Per generare il
segnale SSB con questo metodo, vengono generate due versioni del segnale originale, reciprocamente sfasate di 90°
per ogni singola frequenza all'interno della banda di funzionamento. Ognuno di questi segnali modula poi le portanti
(di una frequenza) che sono anch'esse sfasate di 90°. Mediante la somma o la sottrazione del segnale risultante, si
ottiene la banda laterale superiore o inferiore. Un vantaggio di questo approccio è quello di consentire l'espressione
analitica dei segnali SSB, che può essere utilizzato per comprendere gli effetti come la rilevazione sincrona di SSB.
Spostare il segnale in banda base sfasandolo di 90°, non può essere fatto semplicemente ritardandolo, in quanto
contiene una vasta gamma di frequenze. Nei circuiti analogici veniva utilizzato una rete a larga banda con differenza
di fasi di 90°[5] . Tutto ciò era molto popolare con l'uso delle valvole termoioniche, ma più tardi si guadagnò una
brutta reputazione a causa delle implementazioni mal regolate. La modulazione con questo metodo ha guadagnato
nuovamente popolarità nel campo delle sperimentazioni dei radioamatori e dei DSP. Quest'ultimo utilizza la
trasformata di Hilbert per spostare di fase il segnale di base, in modo da ottenere il segnale modulato con circuiti
digitali a basso costo.

Modulatore Weaver
Un altro modo per ottenere la modulazione SSB è il modulatore Weaver, che utilizza solo filtri passa-basso e mixer
in quadratura ed è il metodo preferito nelle implementazioni digitali. Nel metodo Weaver la banda di interesse è
inizialmente traslata per essere centrato a zero, concettualmente modulando un esponenziale complesso:
con frequenza nella metà della banda vocale ed implementate da un paio di mixer in quadratura dei modulatori di
seno e coseno a quella frequenza (ad esempio 2 kHz). Questo segnale complesso o un paio di segnali reali viene poi
filtrata tramite un filtro passa-basso per eliminare la banda laterale indesiderata che non è centrata a zero ed infine il
singolo segnale complesso in banda laterale, centrato a zero, viene upconverted al segnale reale da un'altra coppia di
mixer in quadratura al centro frequenza desiderato.

Espressione matematica
Se è la forma d'onda in banda base da trasmettere, la sua trasformata di Fourier , il suo simmetrico asse
Hermitian di , perché è il valore reale. La modulazione della doppia banda laterale di , per una
frequenza di trasmissione radio , sposta l'asse di simmetria per , e i due lati di ciascun asse sono
chiamate bande laterali.
Ponendo che rappresenta la trasformata di Hilbert, di , allora:

è un utile concetto matematico chiamato segnale analitico. La trasformata di Fourier di , equivale a


, per , ma non ha componenti di frequenza negativa. In questo modo può essere modulato su una frequenza
radio e produrre solo una banda laterale unica.
La rappresentazione analitica di , è:
(l'uguaglianza è la formula di Eulero)
la cui trasformata di Fourier è .
Modulazione a banda laterale singola 180

Quando è modulata (per esempio moltiplicata) da , tutte le componenti della frequenza sono
spostate da , quindi non ci sono ancora componenti di frequenza negativa. Pertanto, il prodotto complesso è
una rappresentazione analitica del segnale in banda laterale singola:

dove , è il valore reale della forma d'onda della singola banda laterale. Pertanto:

e lo sfasamento della portante menzionato in precedenza è evidente.

Banda laterale inferiore


rappresenta il segnale in banda base della banda laterale superiore, . È anche possibile, ed utile, per
trasmettere le informazioni in banda base utilizzare la sua banda laterale inferiore, , che è l'immagine
speculare di f=0 Hz. Da una proprietà generale della trasformata di Fourier, questa simmetria significa che è il
complesso coniugato di :

Notare che:
.
Il guadagno di 2 è un risultato della definizione del segnale analitico (una banda laterale) ha la stessa energia totale
(entrambe le bande laterali).
Come prima, il segnale viene modulato da . Il tipico è abbastanza grande che la traslazione in banda
laterale inferiore (LSB) non ha componenti di frequenza negativa. Allora il risultato è un altro segnale analitico, la
cui parte reale è la trasmissione effettiva.

Si noti che la somma dei due segnali in banda laterale è:

che è il modello classico della doppia banda laterale con portante soppressa AM.
La SSB e VSB possono anche essere considerate matematicamente casi speciali di modulazione di ampiezza in
quadratura analogica.

Demodulazione
Il front-end di un ricevitore SSB è simile a quella di un ricevitore AM e FM, costituita da un front-end RF
supereterodina che produce una versione spostata della radio frequenza (RF) del segnale all'interno di una banda di
frequenza standard intermedia (IF). Per recuperare il segnale originale dal segnale IF SSB, la banda laterale singola
deve essere spostata in frequenza verso il basso per la sua gamma originale di frequenze in banda base, utilizzando
un rilevatore di prodotto che si mescola con l'uscita di un oscillatore di battimento (BFO). In altre parole, si tratta
solo di un'altra fase di heterodyning. Per far questo, la frequenza del BFO deve essere accuratamente regolata. Se il
BFO è mis-regolato, il segnale in uscita sarà frequenza spostata, facendo apparire discorso starno, simile alla voce di
Paperino, o incomprensibile. Alcuni ricevitori usano un sistema di recupero della portante, che tenta di bloccare
automaticamente alla frequenza esatta.
Modulazione a banda laterale singola 181

Come esempio, si consideri un segnale SSB IF centrato alla frequenza = 45000 Hz. La frequenza di banda di
cui ha bisogno per essere spostata è = 2000 Hz. La forma d'onda di uscita del BFO è .
Quando il segnale è moltiplicato con la forma d'onda del BFO, questo sposta il segnale di e di
che è conosciuto come la frequenza immagine. L'obbiettivo è di scegliere una che risulti in
= 2000 Hz )le componenti indesiderate a possono essere rimosse con un filtro
passa-basso)
Notare che ci sono due scelte per : 43000 Hz e 47000 Hz; la banda inferiore e quella superiore. Con la banda
superiore, le componenti spettrali sono state distribuite circa attorno a 45000 Hz, saranno distribuite intorno a
2000 Hz in ordine inverso, meglio conosciuto come spettro inverso. Questo è auspicabile quando lo spettro IF è
invertito, perché l'inversione del BFO ripristina i rapporti corretti. Una ragione di questo è quando lo spettro IF è
l'uscita di uno stadio invertente nel ricevitore. Un altro motivo è quando il segnale SSB è in realtà una banda laterale
inferiore, invece di una banda laterale superiore. Ma se entrambe le ragioni sono vere, allora lo spettro IF è non
invertente e dovrebbe essere usato un BFO (a 43000 H) non invertente.
Se è fuori di una piccola quantità, poi la frequenza di battimento non è esattamente , la quale può portare
alla distorsione accennata in precedenza.

Banda Laterale Vestigiale (VSB)


Una banda laterale vestigiale (nelle comunicazioni radio) è una banda laterale che è stata solo parzialmente tagliata o
soppressa. Le trasmissioni televisive (nei vari formati video analogici) utilizzano questo metodo se il video viene
trasmesso in AM, a causa della grande larghezza di banda utilizzata. Essa può essere utilizza anche nelle trasmissioni
digitali, come ad esempio l'8-VSB ATSC standard. Il Milgo 4400/48 modem (circa 1967) utilizza la banda laterale
vestigiale e il phase-shift keying per fornire 4.800 bit/s di trasmissione su un canale di 1600 Hz. Il segnale video in
banda base utilizzati in TV nei paesi che utilizzano NTSC o ATSC ha una larghezza di banda di 6 MHz. Sarebbe
auspicabile risparmiare larghezza di banda modulando in SSB, ma il segnale video ha una notevole contenuto di
basse frequenze (luminosità media) ed ha impulsi rettangolari di sincronizzazione, cosi che il compromesso
dell'ingegneria fu la banda laterale vestigiale. Nella banda laterale vestigiale, la completa banda laterale superiore di
banda W2 = 4 MHz viene trasmessa, ma solo W1 = 1,25 MHz della banda laterale inferiore è trasmessa insieme alla
portante. Questo rende efficace il sistema di modulazione AM a frequenze basse e SSB a modulazione di frequenze
alte. L'assenza di componenti nella banda laterale inferiore alle alte frequenze deve essere compensato, e questo
viene fatto dai filtri RF e IF.

Voci correlate
• Modulazione di frequenza
• Modulazione di ampiezza
• Modulazione di fase

Note
[1] http:/ / v3. espacenet. com/ publicationDetails/ biblio?CC=US& NR=1449382& KC=& FT=E
[2] http:/ / dj4br. home. t-link. de/ ssb1e. htm The History of Single Sideband Modulation, Ing. Peter Weber
[3] http:/ / ieeexplore. ieee. org/ xpl/ freeabs_all. jsp?arnumber=4051940 IEEE, Early History of Single-Sideband Transmission, Oswald, A.A.
[4] [| dataarchivio = Amateur Radio and the Rise of SSB] (PDF). National Association for Amateur Radio (archiviato dall'url originale)
[5] http:/ / home. earthlink. net/ ~christrask/ pshift. html This page lists numerous articles.
Modulazione di fase 182

Modulazione di fase
La modulazione di fase, in sigla PM (dall'analogo termine
inglese Phase Modulation), è una tecnica di modulazione di
un segnale e si ottiene variando la fase della portante rispetto
al suo valore in assenza di modulazione, proporzionalmente al
valore istantaneo dell'ampiezza del segnale.
A differenza di altri metodi di modulazione come la
modulazione d'ampiezza (AM) e la modulazione di frequenza
(FM), la modulazione di fase non è molto usata (eccetto per
l'inappropriata denominazione FM-synthesis, introdotta dalla
Yamaha nel 1982). La modulazione di fase infatti tende a
richiedere apparati riceventi più sofisticati e possono esservi
problemi di ambiguità nel distinguere un segnale a fase 0° o a
fase 180°.

Teoria
Se si suppone di voler trasmettere il segnale e che il
segnale portante sia del tipo:

Un esempio di modulazione di fase. In alto e' illustrato il


segnale da modulare (rosso) e il segnale portante (verde). In
basso il segnale modulato (blu).

in uscita dal modulatore di fase si avra' un segnale:

Voci correlate
• Modulazione di ampiezza
• Modulazione di frequenza
• Modulazione a banda laterale singola
Modulazione di ampiezza 183

Modulazione di ampiezza
La modulazione di ampiezza, in acronimo AM (dall'analogo termine inglese amplitude modulation), è uno dei
sistemi utilizzati per trasmettere informazioni utilizzando un segnale a radiofrequenza.
Consiste nel modulare l'ampiezza del segnale radio che si intende utilizzare per la trasmissione (detto portante) in
maniera proporzionale all'ampiezza del segnale che si intende trasmettere (modulante) e che contiene informazione.
Il segnale modulato ha la stessa frequenza della portante.

Caratteristiche
È piuttosto semplice da realizzare ed è perciò stata utilizzata agli albori delle trasmissioni radio. Nel caso della
trasmissione binaria, così come in telegrafia, ad una potenza bassa corrisponde lo zero mentre ad una potenza alta
corrisponde l'uno. I principali inconvenienti che si hanno sono da una parte l'estrema sensibilità ai disturbi ed alle
condizioni di propagazione in quanto qualsiasi disturbo nonché le variazioni aleatorie dell'attenuazione offerte dal
mezzo trasmissivo durante la propagazione, specie nel caso di canale radio, si vanno di fatto a sommare direttamente
in ampiezza al segnale che si sta trasmettendo falsandone così il trasporto di informazione cioè introducendo errori,
dall'altra la poca efficienza che richiede l'uso di potenze maggiori per coprire le stesse distanze.

Descrizione
Supponiamo che la modulante sia periodica con pulsazione angolare ω=2πF:

nella quale per semplicità poniamo ;


mentre la portante con frequenza maggiore sia:

La modulazione si effettua grazie a due circuiti elettrici nello specifico: un moltiplicatore (con costante
moltiplicativa K) e un sommatore:
Modulazione di ampiezza 184

Il segnale modulato in ampiezza assume l'espressione:


(1)

Essendo , in un periodo del segnale modulante è contenuto un numero elevatissimo di oscillazioni del
segnale portante.
La (1) si può porre nella forma:
(2).

Il fattore prende il nome di indice o profondità di modulazione e deve essere affinché

l'inviluppo del segnale modulato abbia lo stesso andamento dell'informazione da trasmettere. Per il segnale
si dice in sovramodulazione. In tal caso si introducono notevoli distorsioni nell'inviluppo del segnale
modulato che non consentono, in ricezione, una ricostruzione fedele dell'informazione.
Normalmente .
Se , si parla di sovramodulazione e pertanto il segnale risultante assumerà la seguente forma:

Spettro di frequenza di un segnale AM


Lo spettro di frequenza del segnale modulato è un grafico che rappresenta l'ampiezza di ogni componente del
segnale. Infatti ogni segnale periodico è scomponibile in una somma di segnali sinusoidali (sviluppo in serie di
Fourier) quindi il segnale modulato è lui stesso una somma di segnali sinusoidali.
Sviluppando la (2) e applicando le formule di Werner si ha:

si nota che un segnale AM, si può ritenere costituito dalla portante più due componenti cosinusoidali dette righe o,
più in generale, bande laterali. La larghezza di banda o banda di frequenza risulta essere
dove è la frequenza del segnale modulante e è quella della
portante.
Modulazione di ampiezza 185

In figura si mostra lo spettro di frequenza del segnale


modulante denominato segnale in banda base. Tale
spettro si estende tra e ed è stato indicato con
un triangolo rettangolo, come si è soliti fare in campo
telefonico. La modulazione di ampiezza ha prodotto,
sostanzialmente la traslazione o conversione di
frequenza della banda base generando due bande: la
banda laterale inferiore e la banda laterale superiore. Per
tale motivo la modulazione AM è nota anche come
modulazione in banda traslata.

Utilizzando un filtro passa banda è possibile, ad esempio,


Spettro del segnale modulante e di un segnale AM
estrarre la sola banda laterale superiore.

Indicando con gli indici di modulazione di ciascuna componente armonica, l'indice di


modulazione complessivo è: .

La larghezza di banda risulta: . Nelle trasmissioni radiofoniche il segnale modulante è il suono il cui campo
di frequenza si estende tra 20 Hz e 20 kHz. La larghezza del canale AM di un segnale sonoro, quindi, dovrebbe
occupare una banda B=40 kHz. Per aumentare il numero dei canali da multiplare si deve ridurre la larghezza di
banda da assegnare a ciascuno di essi; si è stabilito, attraverso accordi internazionali, di fissare B=10 kHz.
Nella radiodiffusione in onde medie le trasmissioni AM sono allocate nella gamma di frequenze comprese tra 540
kHz e 1600 kHz. In tal modo avendo assegnato ad ogni canale una banda di 10 kHz (9 kHz in Europa) è possibile
trasmettere 106 comunicazioni contemporaneamente.

Potenza e rendimento di un segnale AM


Se si indica con R la resistenza di uscita del circuito modulatore, la potenza complessiva del segnale AM è la somma
di quella associata alla portante più quella delle due oscillazioni laterali, inferiore e superiore .

Oppure sfruttando l'indice di modulazione :

Si definisce rendimento di modulazione il rapporto tra la potenza associata ad una banda laterale e quella totale:

Che è uguale a:

Nel caso limite si ha .

Il basso rendimento si giustifica tenendo presente che la maggior parte della potenza è associata alla portante che non
contiene l'informazione da trasmettere.
Modulazione di ampiezza 186

Metodi per ottenere la modulazione AM


La modulazione di ampiezza si realizza, normalmente, applicando il segnale portante in alta frequenza all'ingresso di
un amplificatore (a transistor, JFET, ecc.) caratterizzato da un'amplificazione ..
Il segnale modulante , è inserito nell'amplificatore in modo da rendere l'amplificazione direttamente
dipendente dall'ampiezza del segnale . Ciò consente di ottenere un segnale con la stessa frequenza della portante
ma con ampiezza variabile proporzionalmente al segnale modulante.,
I modulatori usati sono il Modulatore di collettore, realizzato con un amplificatore a transistor, e il Modulatore
quadratico realizzato con un amplificatore a JFET.

Demodulazione AM
La demodulazione o rivelazione è un'operazione che consente di estrarre, da un segnale modulato in ampiezza,
l'informazione in bassa frequenza. Nell'operazione di demodulazione si realizza una conversione di frequenza che a
partire dallo spettro del segnale AM permette di ricostruire il segnale in banda base.
La demodulazione è, normalmente, realizzata utilizzando un dispositivo non lineare, che nella maggior parte dei casi
è un diodo, seguito da un filtro passa basso in grado di ricostruire l'inviluppo del segnale AM.
Il rivelatore che trova le maggiore applicazione pratica è il rivelatore d'inviluppo a diodo.

Trasmissioni AM DSB-SC e SSB


Per aumentare il rendimento di modulazione si impiegano due tecniche denominate DSB-SC (Double Side Band
Suppressed Carrier) e SSB (Single Side Band).
La DSB-SC consiste nel sopprimere la portante e trasmettere solo le bande laterali. Il segnale trasmesso è, in questo
caso, costituito dal solo prodotto di modulazione e il rendimento di modulazione teorico diventa 50%. L'apparato
ricevente, per poter estrarre il segnale modulante, deve ricostruire il segnale AM completo di portante.
Nella SSB, invece si trasmette una sola banda laterale o la superiore (USB) o l'inferiore (LSB). Oltre ad un
miglioramento in termini di potenza trasmessa (rendimento teorico del 100%), si ottiene anche una riduzione della
larghezza del canale di trasmissione, cosa abbastanza utile nei sistemi di trasmissione a banda stretta come quelli
telefonici.

Voci correlate
• Modulazione di frequenza
• Modulazione di fase
• Modulazione a banda laterale singola
• Radiotrasmettitore
• Radioricevitore
• Radiofonia
Musical Instrument Digital Interface 187

Musical Instrument Digital Interface


Con l'acronimo MIDI (Musical Instrument Digital Interface) si
indica il protocollo standard per l'interazione degli strumenti musicali
elettronici (anche tramite un computer).

Le specifiche MIDI standard

Introduzione
Il MIDI è, da una parte, un linguaggio informatico, ossia una serie di
specifiche che danno vita al protocollo; dall'altra, un'interfaccia
hardware che consente il collegamento fisico tra vari strumenti.
Entrambi questi aspetti sarebbero probabilmente sostituibili da sistemi
più performanti, nonostante ciò, il MIDI, nato negli anni ottanta, è
rimasto pressoché inalterato ed è intensamente utilizzato nella
produzione di musica digitale. I motivi risiedono probabilmente nel
ruolo di standard, pressoché incontrastato, che il MIDI ha assunto
nell'ambito musicale, e nella cura riposta dai progettisti nella stesura
delle prime specifiche.

Di fatto, il MIDI ha peculiarità interessanti su più fronti:


• La qualità e la praticità del sistema. L'integrazione tra eventi Audio ed eventi MIDI ha dimostrato di essere una
mossa vincente, confermando l'importanza di questo standard nella realizzazione di musica digitale.
• La leggerezza dei file MID (in termini di kB). Tramite Internet ed i software multimediali, il MIDI diventa un
media di uso comune non più appannaggio esclusivo dei musicisti.
• La diffusione di basi di livello qualitativo sempre maggiore. Fatto che ha permesso a molti musicisti di svolgere
con facilità e qualità il proprio lavoro.
• Il costo. Molti produttori hardware e software puntano sulla multimedialità dei propri prodotti. Con un
investimento minimo, o ricorrendo a programmi freeware, è possibile per ognuno disporre di un computer in
grado di realizzare produzioni musicali di buon livello.

Cenni storici
Il protocollo MIDI nacque all'inizio degli anni ottanta.
Il prototipo per il MIDI venne presentato da due progettisti della Sequential Circuit (SCi), Dave Smith e Chet Wood,
che nel 1981 proposero le prime specifiche del MIDI in un documento pubblicato sotto il nome di "The complete
SCI MIDI".
Il MIDI nacque come risposta all'esigenza di far comunicare diversi strumenti musicali elettronici tra loro, tenendo
conto delle diverse caratteristiche di ognuno di essi.
Diversi costruttori, ad esempio Oberheim e Roland, offrivano già sui propri strumenti alcuni sistemi di
interfacciamento. Queste interfacce però, basate su algoritmi proprietari, garantivano il proprio funzionamento solo
su strumenti dello stesso costruttore, il protocollo di Smith e Wood si presentava invece come un sistema in grado di
superare questo limite.
Per garantire la piena compatibilità tra i vari strumenti, al di là della casa produttrice, ogni costruttore fu invitato a
partecipare alla stesura definitiva delle prime specifiche MIDI. SCI, Roland, Yamaha e Kawai furono i primi
Musical Instrument Digital Interface 188

produttori di strumenti digitali ad aderire alla definizione e alla diffusione del MIDI.
Il progetto terminato, comunque, apparve solo due anni dopo: nell'agosto del 1983 le specifiche MIDI furono
presentate al pubblico alla fiera del National Association of Music Merchants - NAMM, tenutasi a Los Angeles.
L'immediata popolarità dello standard creò divisioni all'interno del comitato fondatore: i produttori americani si
unirono nella MMA (MIDI Manufactures Association) mentre quelli giapponesi fondarono la JMA (Japan MIDI
Association). Benché lavorassero su un terreno comune, i due consorzi svilupparono delle caratteristiche non sempre
pienamente compatibili tra loro. Queste divergenze furono risolte nel 1985, quando la IMA (International MIDI
Association) pubblicò la versione 1.0 delle specifiche MIDI, istituendo di fatto lo standard del protocollo.
I costruttori che supportano il protocollo MIDI sono perciò riuniti in due associazioni: MMA (costruttori Americani
ed Europei) e JMSC (costruttori Giapponesi). Le modifiche da apportare allo standard MIDI vengono discusse ed
approvate da queste due associazioni. La diffusione delle specifiche MIDI spetta all'IMA (International Midi
Association).
Il primo synth dotato di interfaccia MIDI fu presentato nel 1983: si trattava del PROPHET 600 della SCI.

Connessioni elettriche
Lo standard MIDI consiste in un protocollo per lo
scambio di messaggi progettato per l'uso con strumenti
musicali elettronici e della relativa interfaccia fisica.
Un collegamento MIDI consiste in una connessione
seriale unidirezionale (simplex) a loop di corrente, che
funziona ad una velocità di trasmissione di 31,250 bps
(bit al secondo).

Il loop viene tenuto a massa solo da un lato mentre


l'altra estremità è libera (flottante) per evitare ronzii e
interferenze audio indotte dalla formazione di anelli di
massa. Il loop di corrente dal lato del trasmettitore
Porte e cavi MIDI.
pilota il LED di un accoppiatore ottico dal lato del
ricevitore. Ciò vuol dire, in pratica, che i due dispositivi
sono optoisolati. L'accoppiatore ottico deve essere molto veloce (un dispositivo molto usato è lo Sharp PC900) ma i
tempi di commutazione asimmetrici che caratterizzano la maggior parte degli accoppiatori (tempi di risposta diversi
per la chiusura e l'apertura del circuito) sono comunque causa di distorsioni. Nel caso di connessione in cascata
(daisy-chain) di più dispositivi MIDI attraverso le rispettive porte MIDI-THRU e MIDI-IN la distorsione del segnale
si fa via via più rilevante, fino alla comparsa di errori di trasmissione.

Lo standard MIDI prevede l'uso di connettori circolari a standard DIN a 5 pin, molto diffusi in Europa per ogni
genere di connessioni audio fino agli anni novanta. successivamente, per la maggior parte delle applicazioni sono
stati sostituiti dai più pratici phono jack RCA. Anche in altre applicazioni in cui erano usati, quali il collegamento
delle tastiere dei personal computer, sono stati adottati i connettori mini-DIN. I cavi MIDI, dotati di connettori DIN 5
a pin maschi ad entrambe le estremità, sono dunque rimasti una delle poche applicazioni per questo genere di
connettori.
Esiste anche una versione dello standard che sfrutta il collegamento USB ed è in corso di sviluppo da parte della
IETF una versione per il trasporto di segnali MIDI su Ethernet e Internet.
Musical Instrument Digital Interface 189

L'interfaccia hardware
Gli strumenti e/o le attrezzature MIDI per poter comunicare, devono essere fisicamente connessi fra loro. A questo
scopo lo standard MIDI prevede l'uso di una triade di connettori DIN a 5 poli (anche se solo i 3 poli centrali vengono
utilizzati) che tramite un cavo pentapolare consentono il collegamento fisico tra gli strumenti.
I tre connettori vengono distinti come:
• IN (consente allo strumento di ricevere informazioni).
• OUT (consente la trasmissione delle informazioni).
• THRU (consente allo strumento di ritrasmettere i dati ricevuti dal proprio MIDI IN verso un altro strumento).
I dati sono trasmessi dal Midi Out della tastiera, attraverso la presa Midi In vengono ricevuti dall'expander A il quale
li reindirizza verso l'expander B attraverso la presa Midi Thru.
La reale configurazione dei connettori, per numero e presenza, dipende dalle funzioni per le quali uno strumento
viene costruito. Su una "master keyboard" ad esempio, è frequente trovare 2 o 3 MIDI OUT e nessun MIDI THRU,
visto che ciò che ci si aspetta da uno strumento del genere è la massima flessibilità nella trasmissione dei dati verso
altre attrezzature.

L'interfaccia software: il linguaggio midi


Una delle caratteristiche fondamentali del MIDI è l'essere un'interfaccia multicanale.
Grazie a delle applicazioni software chiamate sequencer, installabili sia in unità hardware specifiche, sia in normali
personal computer, si possono registrare performance musicali sotto forma di messaggi MIDI, per poterle
successivamente modificare e ri-ascoltare.
Il compito di sincronizzare le varie sequenze MIDI è delegato al "codice temporale MIDI", standard mondiale per la
sincronizzazione della musica digitale, che costituisce un'implementazione del codice temporale SMPTE.
Un file MIDI è un file che contiene dati comunicabili tramite il protocollo MIDI. Il MIDI supporta fino 16 canali
(1-16). Per spiegare cosa si intende per "canale midi" ("midi channel") utilizziamo una metafora. Pensiamo di dover
inviare un messaggio ad un collega che pernotta in una delle 16 stanze a disposizione di un hotel. Oltre all'indirizzo
dell'hotel, dovremo specificare il numero di stanza del nostro collega se vogliamo che il nostro messaggio sia
recapitato correttamente. Pensiamo ora di avere, collegato in MIDI alla nostra tastiera, un modulo sonoro con la
possibilità di suonare fino a 16 suoni diversi contemporaneamente (ossia multitimbrico a 16 parti), come facciamo a
far eseguire la nostra musica ad uno solo di questi suoni? Facendo sì che nei nostri messaggi (midi) sia specificato il
numero di canale (la stanza dell'hotel) e che quest'ultimo coincida con il canale midi impostato per lo strumento (o la
parte di esso), destinato a rispondere al messaggio.
Le modalità per ottenere tutto ciò variano a seconda della tipologia degli strumenti utilizzati.
Tramite il formato .kar (abbreviazione di karaoke), estensione del MIDI, è anche possibile sincronizzare il testo di
una canzone con la musica.
I messaggi midi indirizzabili tramite l'indicazione numerica di canale vengono chiamati "Channel Messages".
Appartengono a questa famiglia due specie di messaggi i Channel Voices Messages e i Channel Mode Messages.
Musical Instrument Digital Interface 190

Data type
Status bytes: gli status bytes sono numeri di otto cifre binarie in cui il bit più significativo (Most Significant Bit -
MSB) è posto a 1. Questi byte servono ad identificare il tipo di messaggio, ovvero lo scopo dei data byte che li
seguono; ad eccezione dei real-time messages, un nuovo Status byte obbligherà il ricevitore ad adottare un nuovo
stato, anche se l'ultimo messaggio non è ancora stato completato.
Data bytes: a seguire gli Status Bytes (ad eccezione dei Real-time messages) ci possono essere uno o due Data
Bytes che trasportano il contenuto del messaggio. I Data bytes sono numeri di otto cifre binarie in cui il bit più
significativo (Most Significant Bit - MSB) è posto a 0. Per ogni Status byte deve sempre essere spedito il corretto
numero di Data Bytes corrispondente; nel lato ricevitore, l'azione corrispondente al messaggio deve aspettare fino a
quando non sono stati ricevuti tutti i Data bytes richiesti dallo Status byte corrispondente.
Running Status: solo per Voice e Mode Messages. Quando uno Status byte viene ricevuto ed elaborato, il ricevitore
rimarrà in quello stato fino alla ricezione di differente Status Byte; quindi, se lo stesso Status Byte si dovesse
ripetere, esso può essere omesso in modo che ci sia bisogno di spedire solo i Data Byte. E allora, con il Running
Status, un messaggio completo consiste unicamente di Data Bytes; il Running Status è particolarmente utile quando
si devono spedire lunge stringhe di Note On/Off, dove "Note On con velocità 0" è usato come Note Off.

Channel message
Un Channel message usa quattro bit nello Status Byte per indirizzare il messaggio ad uno dei sedici canali MIDI e
quattro bit per definire tale messaggio. I channel message sono quindi usati dai ricevitori in un sistema il cui numero
di canali corrisponde al numero di canali codificato all'interno dello Status Byte.
Uno strumento può ricevere messaggi MIDI da più di un canale. Il canale sul quale riceve le istruzioni principali è
detto "Basic channel". Uno strumento può essere impostato in modo da ricevere dati di esecuzione (performance
data) su canali multipli (incluso il basic channel). A questi ci si riferisce come "Voice channels".
Ci sono due tipi di Channel Message:
• MODE per definire la risposta degli strumenti ai Voice messages. I mode messages sono spediti sul basic channel
di uno strumento.
• VOICE per controllare le voci di uno strumento. I voice messages sono spediti sui Voice channels;

Channel mode
NB: un singolo strumento fisico può fungere da diversi strumenti virtuali. In questa trattazione, "strumento" si riferisce ad uno strumento
virtuale.

I sintetizzatori ed altri strumenti contengono elementi di generazione del suono chiamati "voices". L'assegnamento
delle voices è il processo algoritmico di instradare i note On/Off data dai messaggi MIDI in arrivo alle voices stesse,
in modo che le note siano correttamente suonate.
Sono disponibili quattro Mode messages per definire le relazioni tra i sedici canali MIDI e i voice assignment dello
strumento. Le quattro modalità sono determinate dalle proprietà Omni (On/Off), Poly and Mono. Poly e Mono sono
mutuamente esclusive. Omni, quando on, abilita il ricevitore a ricevere Voice messages su tutti i Voice Channels.
Quando off, il ricevitore accetterà solo i Voice Messages che provengono da Voice Channels selezionati.
Mono, quando on, riduce l'assegnamento di Voices a solo una Voice per Voice Channel (monophonic). Quando off
(Poly on), un certo numero di Voices può essere allocato dal normale algoritmo di Voice assignment del ricevitore.
Un ricevitore o un trasmettitore MIDI operano con un solo Channel Mode alla volta. Dal momento che un singolo
strumento può funzionare come un insieme di strumenti virtuali, esso può avere diversi Basic Channels. Tale
strumento si comporta come se fosse più di un ricevitore ed ogni ricevitore può essere impostato con un differente
Basic Channel. Ognuno di questi ricevitori può inoltre essere impostato con diversi Mode, sia attraverso il pannello
Musical Instrument Digital Interface 191

dei controlli dello strumento sia attraverso Mode messages ricevuti sul Basic channel. Sebbene non sia un vero MIDI
mode, questa maniera di operare è detta "Multi Mode".

Channel voice
I channel voices messages consistono nel carico di informazioni trasmesse tra gli strumenti MIDI. Includono Note
On, Note Off, program change, pitch-wheel change, aftertouch pressure e controller changes.
Un singolo Note On message consiste di 3 bytes, che richiedono 960 microsecondi per la trasmissione. Quando
molte note sono suonate allo stesso tempo, i diversi Note On possono richiedere diversi millisecondi per essere
trasmessi. Questo può rendere complicato per il MIDI rispondere ad un grande numero di eventi simultanei senza
provocare un ritardo lieve ma udibile. Questo problema si riduce usando il Running Status mode.

Control Rpn & Nrpn


Sono controlli che permettono di gestire estensioni specifiche per il dispositivo o l'applicazione da controllare. I
controlli RPN sono specificati dallo standard MIDI, quelli NRPN sono specifici per ogni dispositivo e devono quindi
essere documentati nel manuale in dotazione. Sono implementati come successione di Control Change.

NRPN, Non-Registered Parameter Number


Il parametro da modificare è designato tramite i Controller 98 e 99, il valore da inserire è specificato da:
• Controller 6 (Data Entry MSB)
• Controller 38 (Data Entry LSB)
In alternativa si può usare:
• Controller 96 (Data Increment)
• Controller 97 (Data Decrement)

RPN, Registered Parameter Number


Il parametro da modificare è designato tramite i Controller 100 e 101, il valore da inserire è specificato dagli stessi
controller degli NRPN.

System message
I System messages non sono codificati con i numeri di canale. Ci sono tipicamente tre tipi di System Messages.
• System Common messages: I common messages riguardano tutti i ricevitori in un sistema, senza riguardo per il
canale.
• System Real messages: Sono usati per la sincronizzazione e sono destinati a tutte le unità basate sul clock
(clock-based) in un sistema; contengono solamente lo status byte - non ci sono data bytes.
• System Exclusive messages: Possono contenere un numero qualsiasi di data bytes e possono terminare sia con un
"End Of Exclusive" (EOX) o con un qualsiasi status byte ad eccezione dei RealTime messages.
Musical Instrument Digital Interface 192

Struttura del file MIDI


Procederemo all'analisi del protocollo del file MIDI nella sua codifica in esadecimale.

Il file MIDI e le sue strutture fondamentali


Il file MIDI, o più formalmente Standard Midi File (SMF), è un archivio contenente dati, informazioni espresse in
uno o più byte. Tali informazioni organizzano, pertanto, un sistema compiuto di regole: il protocollo (o codice)
MIDI . Esse sono comprensibili dai programmi-lettori MIDI (sequencer), che le riconoscono e le interpretano come
istruzioni da eseguire.
Le specifiche dello SMF furono sviluppate dalla MIDI Manufacturers Association (MMA).
Il file MIDI è composto da complesse strutture, tecnicamente chiamate: Track Chunk (Blocco-traccia), formate da
un certo numero di byte (informazioni-istruzioni). Questi Blocchi, che - come si è detto - sono costituiti da insiemi di
byte, sono parti fondamentali, costitutive e, pertanto, necessarie del file MIDI. Ogni Blocco è un insieme di
informazioni che conferisce a questa struttura un senso compiuto ai fini del riconoscimento e della esecuzione del
file MIDI da parte del sequencer MIDI.

La prima struttura: il blocco d'intestazione


La prima struttura, posta solo all’inizio del file MIDI e composta sempre da 14 byte, è chiamata: Midi Track header
chunk (MThd), ossia Blocco d’intestazione. Alcuni byte di questo Blocco-traccia d’intestazione del file MIDI sono
invariabili, altri invece variabili a seconda ovviamente delle informazioni che trasmettono. In un file esiste un solo
blocco Midi Track header (MThd). Il Blocco d’Intestazione (Header Chunk) specifica alcune informazioni di base
e generiche relative ai dati presenti nel file. Aperto il file MIDI con un lettore del codice esadecimale di file, il Midi
Track header chunk sarà così visualizzato:
54 4D 68 64 00 00 00 06 00 0n 00 nn 0n nn
laddove n rappresenta i byte di valore variabile.
54 4D 68 64 = (in codice ASCII: MThd) definisce il chunk come Midi Track header. Esso è il blocco d’intestazione,
formato sempre da 4 byte invariabili, che definisce questa traccia come blocco header.
00 00 00 06 = definisce la lunghezza in byte della restante parte del blocco header. Indica che immediatamente dopo
vi sono 6 byte restanti.
00 0n = questi due byte indicano il tipo di file MIDI– smf: Standard Midi File. Per il formato 0 n = 0; per il formato
1 n = 1; per il formato 2 n = 2:
• Formato 0: Le tracce di un brano vengono fuse in una singola traccia che contiene però tutte le informazioni degli
eventi di tutte le tracce del brano. Gestisce una singola traccia, ciò significa che il brano registrato su più tracce
viene fuso in un'unica traccia contenente però tutte le informazioni di canale ai singoli eventi di esecuzione.
• Formato 1: Le tracce vengono memorizzate in modo singolo e contengono gli stessi valori di tempo e metrica. La
velocità del brano viene inserita nella prima traccia che fa da riferimento a tutte le altre. Permette una gestione
multitraccia della song, tutte le tracce hanno lo stesso valore di tempo e di metrica. Il tempo viene registrato nella
prima traccia che fa di riferimento alle altre. È il formato più usato dai sequencer MIDI.
• Formato 2: Le tracce vengono gestite indipendenti l'una da l'altra con valori anche diversi di tempo e metrica.
Gestisce tracce multiple indipendenti, ciascuna con valori con valori propri di tempo e metrica che possono
variare durante l’esecuzione del brano.
00 nn = questi due byte indicano quante tracce (del tipo MTkr) sono presenti nel file MIDI.
0n nn = questi ultimi due byte indicano il “ numero di impulsi (o risoluzione) per nota da ¼ ”: PPQN (Pulse Per
Quarter Note). Ogni impulso è chiamato “ Tick ” (istante).
Musical Instrument Digital Interface 193

Per esempio 01 80 = 384 PPQN (una nota da ¼ sarà formata da 384 PPQN, ossia da 384 tick). Il PPQN condiziona per l’intero file MIDI il Tempo
Delta, in quanto il PPQN è un’unità di misura, un metro di riferimento che definisce in “numero di impulsi per nota da ¼” il Tempo Delta.
Dunque, la durata di due o più Tempi Delta aventi identici valori in byte, ma all’interno di diversi PPQN, sarà diversa.

Le altre strutture successive al blocco d’intestazione


Dopo l’intera descrizione del Midi Track header chunk (Blocco primario d’intestazione) seguono le Tracce (almeno
una) contenenti gli eventi del MIDI. Ciascuna traccia è composta da un’intestazione, che la definisce come tale,
formata sempre da 4 byte invariabili:
4D 54 72 6B = (in codice ASCII: MTrk) definisce il chunk come Midi Track, ossia lo identifica come blocco di
traccia.
Qualora nel file sia presente più di una traccia MTrk, la prima traccia MTrk, chiamata anche “Traccia del Tempo”,
contiene solitamente i Dati Meta (separati fra loro e da altri eventuali eventi MIDI dal Tempo Delta - TΔ) relativi
all’indicazione della suddivisione della misura, del tempo metronomico e della tonalità della scala. Le tracce
successive (per esempio una per ogni strumento musicale diverso) contengono tutti gli altri eventi midi, e possono
contenere anche eventi Dati Meta in caso di cambio dei valori dei Dati Meta iniziali contenuti nella prima traccia
MTrk, ossia nella Traccia del Tempo.
Dopo i 4 byte identificativi della traccia seguono sempre altri 4 byte:
00 00 00 nn = indicano quanti byte successivi vi sono sino alla fine della traccia. Dopo i descritti 4 byte è sempre
presente il Tempo Delta (Delta Time), espresso con uno o più byte. Seguono, quindi, gli Eventi contenuti nella
traccia: Eventi Midi, Eventi SysEx, Eventi Dati Meta. Essi rappresentano quegli elementi che danno sostanza al file
MIDI in quanto codifica informatica di un brano o – meglio - di una partitura musicale.
Tutti gli Eventi sono sempre separati fra loro da un valore di Tempo Delta variabile a seconda delle necessità e dello
svolgersi del brano.

Il Tempo Delta - TΔ
All’interno delle tracce MTrk fra ogni Evento viene sempre inserito il dato temporale Tempo Delta (Delta-time), che
esprime in byte il tempo che scorre tra due singoli eventi (dopo quanto tempo un evento Midi avverrà rispetto
all'evento che lo precede). Rappresenta, quindi, la durata in PPQN tra un evento e quello che lo segue
(...EVENTO1...TΔ...EVENTO2...). Se, ad esempio,TΔ = 00, allora gli eventi MIDI separati da tale TΔ avvengono
simultaneamente.
Dunque, per far suonare due note simultaneamente si avrà per esempio: 90 48 64 00 90 4C 64 = Do e Mi che suonano contemporaneamente.

Il Tempo Delta è fondamentale per la durata delle note, e quindi per la creazione delle figure musicali. Più
precisamente i valori del TΔ sono stabili; le figure musicali variano la propria corrispondenza al TΔ in base alla
risoluzione PPQN. Infatti, ad esempio, per PPQN = 01 80 la semiminima = 83 00 (TΔ = 83 00); invece per un PPQN
= 60 la semiminima = 60 (TΔ = 60); invece per un PPQN = 08 00 la semiminima = 90 00.
Il sistema metrico per il TΔ nel MIDI è comunque impostato in “ottantesimi”.
Esempio: per calcolare il totale di due TΔ: 80 60 + 80 60 = 81 40, si procederà così: al valore 60 del primo TΔ addendo si aggiunge la quantità del
valore 60 del secondo TΔ addendo necessaria (nel nostro esempio tale quantità sarà pari a 20) per giungere ad 80 (e che farà scattare il valore 81).
Quindi si aggiunge la differenza del valore (nel nostro esempio i restanti 40) del secondo TΔ addendo. Insomma: 80 60 + 00 20 = 81 00 → 81 00
+ 00 40 = 81 40
Musical Instrument Digital Interface 194

Durata in microsecondi di un impulso-tick


La durata in microsecondi di un impulso-tick per ¼ di nota si ottiene dalla seguente operazione:
(60.000.000 / bpm) / PPQN
laddove bmp rappresenta i "battiti per minuto" (tempo metronomico) e PPQN è la "risoluzione in Impulsi per nota
da ¼" come impostata nel chunk MThd.

I dati Meta
I Dati Meta (Meta Data) sono informazioni non imprescindibili e non fondamentali del file MIDI, che – se presenti –
sono contenute nelle tracce MTrk. Essi si definiscono dal primo byte di valore sempre uguale a FF, e sono costituiti
da più byte.
I principali Dati Meta:
FF 58 04 xx yy 60 08 – Metro della misura (Tempo di Suddivisione della misura):
• FF: definisce il tipo di evento (ossia che è un Dato Meta);
• 58: identifica il tipo di Dato Meta (il Dato Meta che definisce la suddivisione della misura);
• 04: quantità di byte contenuti nella parte seguente (sempre 4);
• 0x: (byte variabile) numeratore del rapporto della suddivisione della misura (inserire il corrispondente numero in
esadecimale: es.: per ¾ = 03),
• 0y: denominatore (il numero da inserire è quello, espresso in esadecimali, della potenza necessaria per elevare il
numero 2 al numero del denominatore prescelto):
· per indicare i quarti: y = 2 (poiché = 4);
· per indicare gli ottavi: y = 3 (poiché = 8);
· per indicare i sedicesimi: y = 4 (poiché = 16 );
però
· per indicare i mezzi (es.: 3/2): y = 1 (poiché = 2 );
· per indicare l’unità (es.: 2/1): y = 0;
• 60: definisce che ci sono 96 clock midi in una nota da ¼;
• 08: definisce che ci sono 8 note da 1/32 in una nota ¼.
FF 51 03 xx xx xx – Tempo metronomico (velocità del brano; evento che indica quanti microsecondi ci debbono
essere in un quarto di nota):
• FF: definisce il tipo di evento (ossia che è un Dato Meta);
• 51: identifica il tipo di Dato Meta (Dato Media che definisce il Tempo metronomico);
• 03: quantità di byte contenuti nella parte seguente del Dato Meta (sempre 3);
• xx xx xx: il tempo metronomico prescelto ottenuto rispetto alle possibili suddivisioni di misura sempre secondo i
seguenti calcoli:
Musical Instrument Digital Interface 195

Suddivisione della misura Calcolo

n/1 (60.000.000 / 4) / nb

n/2 (60.000.000 / 2) / nb

n/4 60.000.000 / nb

n/8 (60.000.000 x 2) / nb

n/16 (60.000.000 x 4) / nb

60.000.000 rappresenta la quantità di microsecondi per ogni nota da un quarto;


nb è il numero prescelto di battiti al minuto del metronomo (tempo metronomico prescelto).
Il Meta evento relativo al “Tempo metronomico” va sempre posto dopo il Meta evento della “Suddivisione della
misura”.
In caso di cambio di suddivisione della misura si deve sempre ricalcolare il tempo metronomico della nuova
suddivisione sulla base della precedente tabella.
FF 59 02 xx yy – Chiave di Tonalità (indica la Tonalità della scala):
• FF: definisce il tipo di evento (ossia che è un Dato Meta);
• 59: identifica il tipo di Dato Meta (Dato Media che definisce il Tempo metronomico);
• 02: quantità di byte contenuti nella parte seguente (sempre 2);
• xx: numero di accidenti in chiave:

Maggiore → relativa → Minore

Diesis: xx = 00 : - - Do M → La m

xx = 01 : 1# Sol M → Mi m

xx = 02 : 2# Re M → Si m

xx = 03 : 3# La M → Fa# m

xx = 04 : 4# Mi M → Do# m

xx = 05 : 5# Si M → Sol# m

xx = 06 : 6# Fa# M → Re# m

xx = 07 : 7# Do# M → La# m

Bemolle: xx = FF : 1b Fa M → Re m

xx = FE : 2b Sib M → Sol m

xx = FD : 3b Mib M → Do m

xx = FC : 4b Lab M → Fa m

xx = FB : 5b Reb M → Sib m

xx = FA : 6b Solb M → Mib m

xx = F9 : 7b Dob M → Lab m

• yy: definisce la tonalità: Maggiore yy = 00 oppure la corrispondente Minore yy = 01.


Il Meta-Dato FF 59, relativo alla Chiave di tonalità della scala, è riconosciuto da alcuni programmi, solo se esso è
presente nella traccia del tempo (e lì lo salvano). Altri sequencer lo leggono, solo se presente nelle tracce successive
a quella del tempo (ed in quelle lo salvano). E’ da notare, però, che altri sequencer ancora riconoscono questo Dato
Meta sia se esso è presente nella sola Traccia del tempo, sia se esso è presente nelle sole tracce successive alla prima.
Il Dato Meta FF 59 ad ogni modo può essere considerato opzionale, poiché la nota alterata è definita in realtà non da
Musical Instrument Digital Interface 196

questo Dato Meta, bensì dal secondo byte (che è un messaggio di dati) componente l’evento MIDI “NOTE ON”.
Altri Dati Meta utili sono:
FF 03 ll xxxx – Nome della Traccia:
• FF: definisce il tipo di evento (ossia che è un Dato Meta);
• 03: identifica il tipo di Dato Meta (Dato Meta che definisce il Nome della Traccia);
• ll: la lunghezza in byte dell’evento (esprime la quantità di caratteri presenti nella stringa alfanumerica che dà il
nome alla traccia);
• xxxx: il testo reale che sarà visualizzato presso la traccia evidenziata del sequencer.
FF 05 ll xxxx – Testo del canto (lyric):
• FF: definisce il tipo di evento (ossia che è un Dato Meta);
• 05: identifica il tipo di Dato Meta (Dato Meta che esprime il testo del canto presente in un brano musicale);
• ll: la lunghezza in byte dell’evento (esprime la quantità di caratteri presenti nella stringa alfanumerica);
• xxxx: il testo reale che può essere formato da una sola ed intera stringa alfanumerica (di qualunque lunghezza),
priva all’interno di spazi fra i caratteri che la compongono; oppure contenente spazi fra i caratteri.
Esempio di utilizzo di questo Meta evento (testo da immettere in corrispondenza di una nota): << Pro - >> (ossia: P+r+o+[spazio]+ - ) la
struttura sarà ... | TΔ | Note ON | TΔ | FF 05 05 50 72 6F 20 2D | TΔ | Note OFF | TΔ | ... (in verde i valori esadecimali del codice necessari per
ottenere la scrittura del testo " Pro - ".

Gli eventi MIDI


Gli Eventi MIDI sono quegli elementi, contenuti nelle tracce MTrk, che possiamo considerare le informazioni più
importanti, ed anzi costitutive, del file MIDI. Poiché il MIDI fu concepito inizialmente soprattutto per le tastiere
musicali, i messaggi MIDI (Byte) si riferiscono ad un’azione musicale applicata alla tastiera. Se vi è più di una
traccia MTrk, gli eventi MIDI saranno contenuti nelle tracce successive alla prima (Traccia del Tempo), restando
presenti in detta traccia i Dati Meta.
Gli Eventi MIDI si suddividono in:
• Messaggi di Stato (Status Byte), i quali si identificano dal bit più significativo (MSB) del numero binario, che è
sempre pari a 1 (es.: 1xxx xxxx). Pertanto, essi si collocano in un ambito di possibili variazioni compreso fra 80 e
FF(da 128 a 255 in decim.);
• Messaggi di Dati (Data Byte), i quali si identificano dal bit più significativo (MSB) del numero binario, che è
sempre pari a 0 (es.: 0xxx xxxx). Pertanto, essi si collocano in un ambito di possibili variazioni compreso fra 0 e
7F (da 0 a 127 in decim.).
Poiché l’ottavo bit del numero binario (il Bit Più Significante - Most Significant Bit, cioè il primo bit a sinistra) è
utilizzato dal protocollo MIDI per distinguere i due tipi di Evento MIDI (informazioni di Stato o di Dati), si avrà che
soltanto i successivi sette bit a destra del più significativo sono utili a specificare l’Evento MIDI in dettaglio.
Pertanto, sono solo 128 (da 0 a 127) le possibili variazioni delle caratteristiche degli Eventi MIDI.
Ciascun Evento MIDI è costituito da 2 o da 3 informazioni (byte) necessarie:
• il primo byte comunica il tipo di Evento MIDI (ossia che è un byte di Stato) ed il Canale (i primi 4 bit a sinistra
distinguono il tipo di Evento, che è un Messaggio di Stato [in particolare il primo a sinistra – MSB], e il tipo di
Byte di Stato; i seguenti 4 bit a destra distinguono il Canale, al quale va applicato l’Evento MIDI);
• il secondo byte comunica una specificazione (Messaggio di Dati) dell’Evento MIDI;
• il terzo byte comunica una specificazione (Messaggio di Dati) della precedente specificazione.
Musical Instrument Digital Interface 197

I principali eventi MIDI


8n hh vv – Note OFF
• 8 definisce il tipo di Status byte (Note OFF) e n è il numero che definisce il Canale al quale applicare lo status
byte (il primo byte 8 ordina che cessi di suonare sul canale n la nota definita nel successivo secondo byte hh);
• hh definisce il numero della nota da far cessare (da 0 a 127; pertanto esso è un Messaggio di Dati);
• vv la velocità di rilascio (velocity), ossia la forza applicata sullo strumento nell’atto di cessare di suonare (da 0 a
127; pertanto esso è un Messaggio di Dati).
Esempio: 80 45 64 (al canale 1 viene spenta in quel momento la nota n. 45 [ossia la n. 69 in decim. = LA a 440 hrz] con velocità 64).

9n hh vv – Note ON
• 9 definisce il tipo di Status byte (Note ON) e n è il numero che definisce il Canale al quale applicare lo status byte
(questo primo byte 9 ordina che si inizi a suonare sul canale n la nota definita nel successivo secondo byte hh);
• hh definisce il numero della nota da far suonare (da 0 a 127; pertanto esso è un Messaggio di Dati);
• vv la velocità di tocco (forza applicata sullo strumento nell’atto di suonare), (da 0 a 127; pertanto esso è un
Messaggio di Dati).
Il Canale 10 è riservato nel modulo GM a suoni percussivi.

Creazione delle Pause:


immediatamente dopo il “NOTE OFF” viene inserito un Tempo Delta di valore pari alla figura di pausa corrispondente. Se, invece, è prevista una
pausa all’inizio del brano, il TΔ è inserito innanzi al primo evento “NOTE ON” della traccia MTrk interessata.

Bn bb vv – Control Change:
• B definisce il tipo di Status byte (Control change: usato per ottenere particolari effetti) e n è il numero che
definisce il Canale al quale applicare lo status byte (questo primo byte B ordina che si applichi sul canale n
l’evento Control Change definito nel successivo secondo byte kk);
• bb definisce i dati specifici, Messaggi di controller (data byte), dello status byte (da 0 a 127; pertanto esso è un
Messaggio di Dati): determina quale tipo di controller inviare (es.: 07 = Volume; 0A = Pan; 5B = Riverbero; etc.).
• vv definisce il valore da 00 a 7F (da 0 a 127 in decim.; pertanto esso è un Messaggio di Dati) da applicare al
Messaggio di controller (ne varia le caratteristiche).
Esempio: B0 07 64 (Volume generale della traccia impostato da quel momento a 64, ossia a 100 in decim.).

Cn cc – Program Change:
• C definisce il tipo di byte di Stato (Status byte), ossia di quale Evento MIDI si tratta (in questo caso Program
change: usato per far suonare uno strumento musicale), e n è il numero che definisce il Canale al quale applicare
lo status byte (questo primo byte C ordina che si applichi sul canale n l’evento Program Change definito nel
successivo secondo byte ss);
• cc definisce i dati specifici dello status byte da 00 a 7F (da 0 a 127; pertanto esso è un Messaggio di Dati):
determina quale strumento musicale far suonare.
Esempio: C0 05 (strumento della traccia impostato da quel momento a: Piano elettrico 2).

Dn dd – Channel Aftertouch
• A definisce il tipo di Status byte (Channel Aftertouch) e n è il numero che definisce il Canale al quale applicare lo
status byte (questo primo byte D ordina che sia aumentata la velocità di tocco della nota attiva (viene aumentata la
forza iniziale applicata sullo strumento che sta già suonando);
• dd definisce la quantità di ulteriore velocità di tocco aggiunta alla nota che già sta suonando (da 0 a 127; pertanto
esso è un Messaggio di Dati).
Esempio: D0 64 (al canale 1 viene applicato da quel momento l’Afterthouch di valore uguale a 100).

En ee zz – Pitch Bend Change


Musical Instrument Digital Interface 198

• E definisce il tipo di Status byte (Pitch Bend Change [Pitch Wheel]) e n è il numero che definisce il Canale al
quale applicare lo status byte (questo primo byte E ordina che sia modificata la frequenza della nota);
• ee definisce il 1° valore (da 0 a 127; pertanto esso è un Messaggio di Dati);
• zz definisce il 2° valore (da 0 a 127; pertanto esso è un Messaggio di Dati).
Esempio: E0 60 64 (al canale 1 viene applicato da quel momento il Pich Wheel con primo valore uguale a 60, ossia 96 in decim., e secondo valore
uguale a 64, ossia 100 in decim.).

Chiusura della Traccia


Ogni traccia MTkr termina con un evento di chiusura formato da due byte: FF F2 00, preceduti sempre da un valore
di TΔ. L’ultimo byte uguale a zero rappresenta la lunghezza del meta-evento, la quale, non essendo presenti dati
ulteriori, è appunto pari a zero. Ovviamente anche la “Traccia del Tempo” termina con il comando FF 2F 00
(chiusura della traccia).

Analisi pratica di un breve file Midi


Di seguito verrà mostrato e commentato il codice esadecimale di un semplice e breve file Midi (le varie istruzioni del
protocollo Midi sono visualizzate in righe da 16 valori esadecimali - tranne l'ultima da 17 - e distinte l'una dopo
l'altra con caratteri in grassetto e non):
4D 54 68 64 00 00 00 06 00 01 00 02 01 80 4D 54
72 6B 00 00 00 19 00 FF 58 04 03 02 60 08 00 FF
51 03 09 27 C0 00 FF 59 02 01 00 00 FF F2 00 4D
54 72 6B 00 00 00 2A 00 B0 07 64 00 B0 0A 30 00
B0 5B 40 00 B0 5D 10 00 C0 04 00 90 45 64 86 00
80 45 64 81 40 90 42 64 81 40 80 42 64 00 FF F2 00
···
COMMENTO :
Chunk Header (MThd):
4D 54 68 64 00 00 00 06 00 01 00 02 01 80
• 4D 54 68 64 : intestazione di 4 byte del MIDI Track header chunk
• 00 00 00 06 : questi 4 byte informano che seguiranno 6 byte di dati sino alla fine di questo chunk header
• 00 01 : questi 2 byte informano che il file MIDI è del formato (tipo) 1
• 00 02 : questi 2 byte informano che dopo il MThd seguiranno 2 blocchi di traccia MTrk
• 01 80 : informazione che specifica la risoluzione in impulsi per quarto di nota PPQN (in questo caso per ogni nota da un quarto vi sono 384
impulsi).

1° Chunk MTrk (cosiddetta Traccia del Tempo):


4D 54 72 6B 00 00 00 19 00 FF 58 04 03 02 60 08
00 FF 51 03 09 27 C0 00 FF 59 02 01 00 00 FF F2 00
• 4D 54 72 6B : intestazione di 4 byte del MIDI Track chunk (informano che il blocco è una traccia successiva al MThd e che si tratta
dunque di una MTrk)

• 00 00 00 19 : questi 4 byte informano che seguiranno 25 byte di dati fino alla fine di questa traccia (track chunk)
• 00 : Tempo Delta. Questi 2 byte informano che il successivo evento rispetto al precedente si verificherà dopo zero PPQN, quindi
immediatamente (senza alcun ritardo)

• FF 58 04 03 02 60 08 : evento Meta Dato. Questo Meta evento informa che le misure delle tracce musicali saranno suddivise in ¾
Musical Instrument Digital Interface 199

• 00 : Tempo Delta pari a zero PPQN. Il prossimo evento (FF 51 03 09 27 C0) avverrà dopo una quantità di tempo zero PPQN rispetto
all’evento precedente (FF 58 04 03 02 60 08)

• FF 51 03 09 27 C0 : evento Meta Dato. Questo Meta evento informa che la velocità metronomica del brano midi è impostata a 100 battiti
al minuto

• 00 : Tempo Delta pari a zero PPQN


• FF 59 02 01 00 : evento Meta Dato. Questo Meta evento informa che la tonalità della scala musicale possiede un diesis in chiave (SOL
maggiore)

• 00 : Tempo Delta pari a zero PPQN


• FF F2 00 : questi tre byte informano che ha termine il blocco traccia
2° Chunk MTrk (seconda traccia):
4D 54 72 6B 00 00 00 2A 00 B0 07 64 00 B0 0A 30
00 B0 5B 40 00 B0 5D 10 00 C0 04 00 90 45 64 86
00 80 45 64 81 40 90 42 64 81 40 80 42 64 00 FF
FF 02 00
• 4D 54 72 6B : intestazione di 4 byte del MIDI Track chunk (informano che il blocco è una traccia successiva al MThd e che si tratta
dunque di una MTrk)

• 00 00 00 2A : questi 4 byte informano che seguiranno 51 byte di dati fino alla fine di questa traccia (track chunk)
• 00 : Tempo Delta pari a zero PPQN
• B0 07 64 : Evento Midi: Control Change n. 7 (Volume). Questo dato di Control Change di tre byte informa che il volume generale delle
note presenti nella traccia è impostato da questo momento a 64 (100 in decimale)

• 00 : Tempo Delta pari a zero PPQN


• B0 0A 30 : Evento Midi: Control Change n. 10 (Panpot). Questo dato di Control Change di tre byte informa che il Pan (ossia il
bilanciamento dei volumi tra i due canali stereo è impostato da questo momento e per questa traccia a 30 [48 decimale])

• 00 : Tempo Delta pari a zero PPQN


• B0 5B 40 : Evento Midi: Control Change n. 91 (Riverbero). Questo dato di Control Change di tre byte informa che il Riverbero è impostato
da questo momento e per questa traccia a 40 (64 decimale)

• B0 5D 10 : Evento Midi: Control Change n. 93 (Chorus). Questo dato di Control Change di tre byte informa che il Chorus è impostato da
questo momento e per questa traccia a 10 (16 decimale)

• 00 : Tempo Delta pari a zero PPQN


• C0 04 : Evento MIDI: Program Change n. 4. Questo dato di Program Change di due byte informa che da quel momento sarà usato come
strumento musicale presente al num. 4 (Piano Elettrico 1) della lista degli strumenti del Program Change

• 00 : Tempo Delta pari a zero PPQN


• 90 45 64 : Evento MIDI: NOTE ON. Questo dato di tre byte informa che deve essere accesa (cominciare a suonare) la nota num. 45 esad.
(LA) con una velocity (velocità di pressione) avente valore pari a 64 (100 decimale)

• 86 00 : Tempo Delta pari a 86 00 PPQN (con risoluzione 01 80 quello è il TΔ della minima)


• 80 45 64 : Evento MIDI: NOTE OFF. Questo dato di tre byte informa che deve essere spenta (cessare di suonare) la nota num. 45 esad.
(LA) con una velocity (velocità di pressione) avente valore pari a 64 (100 decimale)

• 81 40 : Tempo Delta pari a 81 40 PPQN (è il TΔ della croma)


• 90 42 64 : Evento MIDI: NOTE ON. Questo dato di tre byte informa che deve essere accesa (cominciare a suonare) la nota num. 42 esad.
(FA#) con una velocity (velocità di pressione) avente valore pari a 64 (100 decimale)

• 81 40 : Tempo Delta pari a 81 40 PPQN (è il TΔ della croma)


Musical Instrument Digital Interface 200

• 80 42 64 : Evento MIDI: NOTE OFF. Questo dato di tre byte informa che deve essere spenta (cessare di suonare) la nota num. 42 esad.
(FA#) con una velocity (velocità di pressione) avente valore pari a 64 (100 decimale)

• 00 : Tempo Delta pari a zero PPQN


• FF F2 00 : questi tre byte informano che ha termine il blocco traccia.
La visualizzazione in valori esadecimali del codice di un file Midi può essere effettuata mediante un programma
editor esadecimale di file.

Editor MIDI
• Rosegarden per Linux. Programma sotto GNU GPL open source.
• Cubase (Microsoft Windows, Mac OS)

Voci correlate
• MIDI controller
• Audio digitale
• Hard disk recording
• Home recording
• File .mid

Altri progetti
• Wikimedia Commons contiene file multimediali su Musical Instrument Digital Interface

Collegamenti esterni
• (EN) Associazione costruttori MIDI [1]
• (EN) MIDI Technical Fanatic's Brainwashing Center [2], contiene esaurienti informazioni tecniche
• (EN) midi.org - XMF faq [3], domande frequenti sul formato XMF
• (EN) lista di MIDIPlugins [4], collegamenti a VST, OPT e MFX per le applicazioni software
• (IT) Il Midi [5], Descrizione in italiano del linguaggio Midi
• (EN) VanBasco [6], software per la riproduzione dei formati .mid e .kar
• (IT) SupportiMusicali [7], Guida al protocollo MIDI, con immagini
• Sound Midi. [8]

Note
[1] http:/ / www. midi. org/
[2] http:/ / www. borg. com/ ~jglatt/
[3] http:/ / www. midi. org/ xmf/ xmf_faq. shtml
[4] http:/ / www. midiplugins. com/
[5] http:/ / www. dimanet. com/ midi/
[6] http:/ / www. vanbasco. com/ midi_player_with_full_screen_karaoke_display/
[7] http:/ / www. supportimusicali. it/ tutorials/ miditutor/
[8] http:/ / www. sound-midi. ru/
Keyboard Follow 201

Keyboard Follow
Il Keyboard Follow, meglio noto come Keyboard tracking, è una tecnica utilizzata negli strumenti musicali
elettronici, siano essi analogici o digitali, per adattare alcune caratteristiche di generazione del suono all'altezza della
nota premuta.
In un sintetizzatore, la tastiera che controlla contemporaneamente la frequenza dell'oscillatore controllato in tensione
(VCO) e quella di taglio del VCF, permette di definire con precisione la struttura delle armoniche prodotte,
indipendentemente dalla posizione della nota sulla tastiera.
Senza questo sistema, un suono programmato per suonare con un determinato numero di armoniche in gamma bassa,
verrebbe via via impoverito all'aumentare dell'altezza delle note suonate.

MIDI controller
Il termine MIDI controller ha due significati.
• Un primo significato si riferisce a un hardware o a un software che genera e trasmette dati MIDI ad un dispositivo
MIDI attivo.
• Nel senso più tecnico invece, un controller MIDI è un'astrazione dell'hardware utilizzato per controllare una
performance, ossia il gesto del musicista, ma che non è direttamente collegata agli eventi note-on/note-off. Uno
slider assegnato per aprire e chiudere un filtro passa-basso di un sintetizzatore può essere assegnato al controller
18, per esempio. Cambiamenti in posizione dello slider sono trasmessi insieme al Cc "18" in modo che li
caratterizzi rispetto a variazioni del valore di altri controller.

Tipologie (hardware e software)


Categorie dei MIDI controller:
• L'interfaccia umana di uno strumento tradizionale riprogettato come un dispositivo di controllo MIDI. Il tipo più
comune di dispositivo di questa categoria è il controller a tastiera. Tale dispositivo fornisce una tastiera musicale e
spesso altri attuatori (pitch bend e modulation, per esempio) ma non produce alcun suono da solo. Esso è
destinato solo a guidare e controllare altri dispositivi MIDI. I controller a percussione come la Roland Octapad
ricade in questa categoria, così come una vasta gamma di controller a fiato e con la forma e le caratteristiche della
chitarra come la SynthAxe, per esempio.
• Strumenti musicali elettronici, compresi sintetizzatori, campionatori, drum machine e batterie elettroniche, che
vengono utilizzate per eseguire musica in tempo reale e sono di per sé in grado di trasmettere un flusso di dati
MIDI legati alla performance.
• Convertitori Pitch-to-MIDI tra cui il famoso pick-up esafonico per chitarra che converte un pitch (intonazione o
frequenza del suono) e lo trasformano in un segnale MIDI. Ci sono diversi dispositivi che applicano questo
procedimento alla voce umana e agli strumenti monofonici come flauti, per esempio.
• Strumenti tradizionali, come batterie, pianoforti acustici e fisarmoniche che sono dotati di sensori e un processore
che accetta input dai sensori stessi per trasmettere in tempo reale dati e informazioni MIDI sulle performance. Le
informazioni sui gesti del musicista (ad esempio, quali note o percussioni isono colpite, e con quanta intensità),
vengono poi inviate ad un modulo o un computer che converte i dati in suoni (ad esempio, campioni o suoni
sintetizzati).
• Sequencer, per archiviare e recuperare dati MIDI da inviare al dispositivo MIDI attivato per riprodurre una
performance.
MIDI controller 202

• Dispositivi MIDI Machine Control (MMC) come un apparecchio per la registrazione ad esmpio, che trasmettono i
messaggi utili e necessari per la sincronizzazione dei dispositivi MIDI abilitati. Ad esempio, un registratore può
avere una funzione per l'indicizzazione di una registrazione basandosi su misura e pulsazione. Il sequencer che
controlla la registrazione rimarrebbe sincronizzato con essa, basandosi sui dati trasmessi dal registratore e
corrispondenti ai relativi messaggi MIDI.
• Dispositivi MIDI Show Control (MSC), che trasmettono messaggi di aiuto nella gestione delle battute di entrata
delle produzioni teatrali e degli spettacoli a tema. Ad esempio, una varietà di sotto sistemi di Show Control come
console di suono, controller di riproduzione audio, matrici audio virtuali e switcher, sistemi di riproduzione video,
controller di impianti, sistemi di controllo dell'illuminazione che rispondono direttamente ai comandi del MSC.
Tuttavia, i generici controller MSC standalone sono destinati ad azionare un generico sistema computerizzato di
Show Control, che è stato attentamente programmato per produrre i risultati desiderati che lo spettacolo richiede
in ogni momento della produzione.
• Il MIDI Musical Instrument Digital Interface permette ad una grande varietà di strumenti musicali di interagire
con il PC in un ambiente digitale per la registrazione o per le performance live.

Utilizzare un flusso di dati


Modificatori, come potenziometri a ruota per regolare modulazione, pitch bend, pedali sustain, slider del pitch,
pulsanti, manopole, fader, interruttori, potenziometri a membrana, ecc, alterano lo stato di uno strumento, e quindi
possono essere usati per modificare i suoni o altri parametri della performance musicale in tempo reale tramite le
connessioni MIDI. I 128 controller MIDI virtuali e i loro messaggi elettronici collegano tasti reali, manopole, ruote,
cursori, ecc, con le loro azioni previste all'interno del dispositivo di ricezione.
Alcuni controller, come pitch bend, sono speciali. Considerando che il range dei dati a flusso continuo della maggior
parte dei controller (come il volume, per esempio) si organizza in 128 passi con valori variabili da 0 a 127, il range
dei dati del pitch bend può essere codificato con oltre 16.000 passi. Questo produce l'illusione di un glissando
continuo, come il portamento di un violino, piuttosto che una serie di passaggi di intonazione diversa, come il
glissando eseguito da un chitarrista sui tasti del manico. Così, manopola a ruota del pitch su una tastiera MIDI può
generare grandi quantità di dati che possono portare ad un rallentamento della velocità di trasmissione dati.
Le specifiche originali MIDI includevano 128 controller virtuali per le modifiche in tempo reale delle performance
live con gli strumenti o per il loro audio. MIDI Show Control (MSC) e MIDI Machine Control (MMC) sono due
estensioni separate delle specifiche MIDI originali, che espandono il protocollo MIDI ad accettare molte più
informazioni e dati di quanto si erano proposti inizialmente gli sviluppatori con i loro intenti originali.

I prodotti commercialmente più diffusi


I controller MIDI più comuni e diffusi sono tastiere tipo "piano" di varie dimensioni. Un controller moderno è privo
di dispositivi interni di generazione audio, ma agisce piuttosto come ingresso primario o secondario per un
sintetizzatore, campionatore digitale o un computer che esegue un virtual instrument(VST) o un altro generatore di
suoni di software. Molti hanno diverse manopole definibili dall'utente e controlli tipo slider che possono controllare
gli aspetti del suono di un sintetizzatore in tempo reale. Questi controller sono molto più economici di un
sintetizzatore completo, e sono sempre più dotati di presa USB(Universal Serial Bus), che permette il collegamento
ad un computer senza interfaccia MIDI. Pur non utilizzando il MIDI direttamente, applicazioni software riconoscono
il controller come un dispositivo MIDI. Nella maggior parte dei casi, un controller dotato di porta USB può ricavare
la potenza necessaria dalla linea 5V dell'interfaccia, e non richiede un alimentatore quando è collegato a un
computer. La gamma delle tastiere varia da quelle a 88 tasti pesati fino ai modelli di portatili a 25 tasti. Un Controller
può essere utilizzato per applicazioni di performance (esecuzione musicale di un pianista, per esempio) o da un DJ
per attivare campioni sonori e loop ritmici.
MIDI controller 203

Sonodi uso comuneI anche i sistemi di batteria e percussioni, in modo particolare le drum pad. Molte configurazioni
di percussioni sono accoppiate ad un generatore di suono dallo stesso produttore, ma spesso hanno un'uscita MIDI in
aggiunta. Tali sistemi permettono ad un batterista di suonare tranquillamente regolando il proprio volume (tramite
cuffie o casse) e di registrare delle tracce di batteria senza uno studio, microfoni costosi, eccetera. Inoltre, il pad puà
controllarele controllare qualsiasi tipo di strumento a percussione campionato, fornendo al batterista/percussionista
con una tavolozza sonora notevolmente ricca.

Voci correlate
• MIDI Musical Instrument Digital Interface
• Audio digitale
• Hard disk recording
• Home recording
• File .mid

Altri progetti
• Wikimedia Commons contiene file multimediali su MIDI controller

Collegamenti esterni
• MIDI Continuous Controllers [1]
• Gemmel, Keith. “MIDI Controllers [2].” Keith Gemmell’s Music Studio.
• Menzies-Gow, Dylan. “The CyberWhistle and O-Bow: Minimalist controllers inspired by traditional instruments
[3]
.” eContact! 12.3 — Instrument—Interface (June 2010). Montréal: CEC.
• MIDI Controllers [4]
• Sweetwater Sound. “MIDI Controllers: Buying Guide [5].”

Note
[1] http:/ / web. archive. org/ web/ 20070702113348/ http:/ / improv. sapp. org/ doc/ class/ MidiOutput/ controllers/ controllers. html
[2] http:/ / www. saxmusicplus. com/ ?p=126
[3] http:/ / cec. concordia. ca/ econtact/ 12_3/ Menzies_controllers. html
[4] http:/ / djmusiktipps. de/ die-10-besten-midi-controllers/
[5] http:/ / www. sweetwater. com/ shop/ keyboards/ keyboard-controllers/ buying-guide. php
General MIDI 204

General MIDI
Il General Midi (GM) è un modo convenzionale di organizzare i timbri su numeri di programmi (Program Change)
stabilito dalle case costruttrici di tastiere o expander sonori (strumenti musicali). Ad esempio digitando il numero di
program change 01, su qualsiasi tastiera GM, si seleziona un suono di pianoforte; Digitando 50 si ottiene sempre una
sezione di archi e così per tutti gli altri suoni, che sono in totale 128.Le simulazioni dei timbri possono essere
generate sia in modo analogico, mediante oscillatori, sia attraverso una sintesi digitale, cioè con campionamenti.
Ogni numero di programma può avere anche dei sottoinsiemi o "variazioni".
È proprio questa stessa "libreria" o tabella di suoni, contenuta nei sintetizzatori GM, a permettere la corretta lettura
delle basi musicali in formato midifile e non solo.
Le maggiori case costruttrici di moduli sonori che utilizzano il GM sono Roland, Korg, Gem, Solton, Yamaha ed
altre che offrono suoni campionati di eccellente qualità.

Aftertouch
Aftertouch - Negli strumenti musicali elettronici, data la natura artificiosa dei suoni che producono, è molto sentita
dai musicisti l'esigenza di esprimere sensazioni o sottolineare passaggi durante le esecuzioni. Suonando uno
strumento tradizionale si hanno a disposizione tecniche e trucchi per trasmettere queste piccole alterazioni, mentre la
rigidità dello strumento a natura sintetica non lo permette.
Una soluzione a questa necessità consiste nel fornire un valore, impiegabile per alterare alcuni parametri del suono,
premendo più o meno energicamente sui tasti già abbassati; più chiaramente, laddove un trombettista o un violinista
potrebbe introdurre un vibrato su un acuto tenuto, il musicista al sintetizzatore può premere il tasto relativo alla nota
tenuta, introducendo in modo proporzionale un effetto, ad esempio, di vibrato, causato dall'aumento di ampiezza del
segnale dell'oscillatore a bassa frequenza (LFO) verso l'oscillatore controllato in tensione (VCO).
Questo effetto, denominato aftertouch (dopo-tocco) si aggiunge ai parametri già rilevati sul movimento del tasto:
• velocità di attacco: la velocità con la quale il tasto viene abbassato, che emula l'espressione del pianoforte
• velocità di rilascio: la velocità con la quale il tasto viene rilasciato, che può incidere ad esempio sui valori dei
filtri per dare un effetto di smorzamento progressivo della nota
• impatto sui tasti: probabilmente implementato soltanto dalla Casa Kurzweil, rileva la forza con la quale il
musicista si accanisce sui tasti (l'accelerazione da fermo) e restituisce in modo molto più realistico l'espressione
del pianoforte
L'aftertouch può essere monofonico o polifonico (in campo MIDI rispettivamente channel aftertouch e key
aftertouch); l'aftertouch monofonico agisce su tutti i tasti premuti al momento, mentre quello polifonico permette di
modulare l'effetto solo sui tasti effettivamente oggetto della pressione espressiva del musicista. Gli strumenti
politimbrici, provvisti di aftertouch polifonico, permettono anche di definire la destinazione del proprio aftertouch,
avendo ad esempio un timbro di violino che, con aftertouch, esprime un vibrato, e un timbro di trombone che, con
aftertouch, provoca un'apertura del VCF aumentando le armoniche come in uno sforzato degli ottoni.
Informatica 205

Informatica
L'informatica (termine che deriva dal
francese informatique, contrazione di
informazione automatica) è lo studio dei
fondamenti teorici dell'informazione, della
sua computazione a livello logico e delle
tecniche pratiche per la loro
implementazione e applicazione in sistemi
elettronici automatizzati detti quindi sistemi
informatici. In altri termini è frequentemente La rappresentazione di un'idealizzazione della macchina di Turing

descritta come lo studio sistematico dei


processi algoritmici che descrivono e trasformano l'informazione ed è quindi punto di incontro di almeno due
discipline autonome: il progetto, la realizzazione e lo sviluppo di macchine rappresentatrici ed elaboratrici di numeri
(dunque l'elettronica) e i metodi di risoluzione algoritmica di problemi dati (algoritmica), che sfruttino a pieno le
capacità di processamento offerte dalle macchine elaboratrici stesse per l'ottenimento di determinati risultati in
output a partire da determinati dati in input. La domanda principale che sostiene l'informatica è dunque: "Come si
può automatizzare efficientemente un determinato processo?".

L'informatica, assieme all'elettronica e alle telecomunicazioni unificate insieme sotto la denominazione Information
and Communication Technology, rappresenta quella disciplina e allo stesso tempo quel settore economico che ha
dato vita e sviluppo alla terza rivoluzione industriale attraverso quella che è comunemente nota come rivoluzione
informatica.

Etimologia e significato

« L'informatica non riguarda i computer più di quanto l'astronomia riguardi i telescopi. »


(Edsger Wybe Dijkstra)

L'etimologia italiana della parola "informatica" proviene dal francese, dalla compressione di inform(ation
electronique ou autom)atique, e sicuramente Philippe Dreyfus, che per primo utilizza nel 1962 il termine
informatique (informatica) voleva intendere il trattamento automatico dell'informazione mediante calcolatore
(naturale o artificiale).
Da notare il fatto che in lingua inglese non esista l'equivalente di "informatica" ma venga utilizzato il termine
"computer science" che, ad ogni modo, presuppone l'esistenza della figura dello scienziato e del ricercatore
interessato all'approfondimento della conoscenza della tecnologia dell'elaborazione.
È importante anche notare il differente significato di origine tra queste tre lingue nel denominare lo strumento base
dell'informatica:
• elaboratore (o calcolatore), in italiano, per le sue svariate capacità di elaborazione
• ordinateur, in francese, a sottolineare le sue capacità di organizzare i dati (oggi le informazioni)
• computer, in inglese, letteralmente calcolatore, in diretta discendenza delle calcolatrici, prima meccaniche, poi
elettromeccaniche, poi elettroniche.
È importante tenere a mente che, a dispetto di quanto molto comunemente si ritiene, quella dei computer non è
affatto classificabile come intelligenza. L'elaboratore non fa altro che eseguire istruzioni preventivamente
"impartitegli" da un essere umano. Ciononostante, il computer è diventato insostituibile nei campi più disparati della
vita e della scienza, grazie alla velocità di calcolo e alla notevole flessibilità della sua architettura-tipo, il modello di
Informatica 206

Von Neumann.
Una branca specifica dell'informatica, l' intelligenza artificiale (AI), si occupa di creare tecniche, algoritmi e
programmi atti a simulare processi di pensiero e ragionamento. Queste tecniche non sono meno algoritmiche e
deterministiche nei loro esiti di quelle usate in altri settori dell'informatica, e tuttavia hanno il potenziale di catturare
conoscenza e farne uso per fornire risposte spesso di qualità superiore a quella ottenibile mediante l'uso di esperti
umani.

Storia
Oggi informatica è un termine di uso comune ma dai contorni ben poco definiti.
Come scienza si accompagna, si integra, o è di supporto a tutte le discipline scientifiche e non; come tecnologia
pervade pressoché qualunque "mezzo" o "strumento" di utilizzo comune e quotidiano, tanto che (quasi) tutti siamo in
qualche modo utenti di servizi informatici.
La valenza dell'informatica in termini socio-economici ha scalato in pochi anni la piramide di Anthony, passando da
operativa (in sostituzione o a supporto di compiti semplici e ripetitivi), a tattica (a supporto della pianificazione o
gestione di breve termine), a strategica.
A questo proposito è importante ricordare che l'informatica è diventata talmente strategica nello sviluppo economico
e sociale delle popolazioni che il non poterla utilizzare, uno status battezzato con il termine digital divide, è un
problema di interesse planetario.

Descrizione e ambiti

Informatica pratica e informatica teorica


Esistono frange di persone che confondono l'informatica con aree vocazionali che tipicamente riguardano l'utilizzo di
software applicativo e che comprendono il semplice utilizzo di programmi per l'ufficio, il navigare sul web o il
gaming. L'informatica invece vede editor di testo, browser e videogame come semplici strumenti di lavoro o svago.
Quello che interessa, nell'informatica pura, non è tanto saper usare i cosiddetti applicativi per come essi si
presentano, quanto piuttosto capirne, tramite ad esempio l'analisi del sorgenti, la struttura ed eventualmente saperla
migliorare con l'uso di algoritmi più efficienti sotto diversi criteri (uso di memoria, numero di istruzioni,
parallelismo, ...). Nelle università esistono dei dipartimenti e dei corsi di Informatica. Un informatico dovrebbe
sempre avere un interesse genuino per i fondamenti teorici dell'informatica; che poi, per professione o per passione,
spesso faccia lo sviluppatore di software è possibile ma, potendo sfruttare le proprie capacità di problem solving in
diversi ambiti, non è scontato.
I fondamenti teorici della disciplina discendono quindi direttamente dalla matematica (matematica discreta), a cui
l'informatica è strettamente legata, ed è anche per tale motivo che di recente lo studio dell'informatica ha assunto
rilevanza multidisciplinare nel cercare di chiarire o giustificare processi e sistemi complessi del mondo reale, quali
ad esempio la capacità del cervello umano di generare pensieri a partire da interazioni molecolari (studi facenti capo
alla bioinformatica).
In particolare l'informatica spazia in diversi campi più ristretti: lo studio dei linguaggi formali e degli automi, che
riguarda anche i compilatori; lo studio della complessità computazionale, in particolar modo per la minimizzazione
del numero di istruzioni da eseguire per la risoluzione di un problema e per la ricerca di algoritmi approssimati per
risolvere problemi NP-difficili; la crittologia, la scienza che studia i metodi per rendere un messaggio
incomprensibile a chi non sia in possesso di una chiave di lettura del messaggio stesso; la teoria dei codici, utilizzata
per la compressione dati o per aumentare l'integrità dei dati; la ricerca operativa, per fornire strumenti matematici di
supporto alle attività decisionali; la computer grafica, suddivisa a sua volta in grafica bitmap e grafica vettoriale;
citando solo alcuni sottocampi.
Informatica 207

Dettaglio ambiti
Nel dettaglio discipline informatiche sono:
• Algoritmica
• Teoria della Calcolabilità algoritimica
• Teoria della Complessità computazionale
• Complessità di Kolmogorov
• Complessità della Comunicazione
• Strutture dati
• Teoria dei linguaggi e degli automi
• Semantica Formale
• Teoria dell'Informazione
• Crittografia
• Teoria dei codici
• Ottimizzazione combinatoriale
• Combinatorica per l'informatica e analisi degli algoritmi
• Machine Learning
• Teoria algoritmica dei Giochi
• Computazione Parallela
• Teoria dei Linguaggi di programmazione
• DNA Computing
• Quantum Computing
• Computer Graphics
• Bioinformatica
• Geometria Computazionale
• Algoritmi di Approssimazione
• Algoritmi randomizzati
• Teoria dei numeri computazionale
• Computational Machine Learning Theory
• Ricerca operativa
• Intelligenza artificiale
Dallo studio dei linguaggi formali e degli automi provengono quelle conoscenze che permettono la progettazione di
linguaggi di programmazione e di compilatori le cui finalità sono quelle di poter fornire gli strumenti essenziali per
sviluppare il software di base, come il sistema operativo, e quello applicativo (editor di testo, browser, etc.) e, di
conseguenza, di rendere il computer universalmente accessibile alle persone.
Basata sull'informatica è anche l'implementazione logica dei sistemi di telecomunicazioni almeno per ciò che
riguarda l'implementazione dei protocolli di rete attraverso software per le telecomunicazioni.
Informatica 208

Sezioni introduttive
Data l'ampiezza del trattare l'informatica è quindi necessario definire, sia pure a grandi linee, e senza la presunzione
della perfezione matematica, un quadro generale entro il quale comprendere la materia. Pertanto questa pagina cerca
di essere un indice introduttivo dell'intera materia, con rimando a maggiori dettagli nelle pagine dedicate a ciascuna
voce.
Seguono le sezioni:
• Teorie e terminologia di base - Comprende quei termini (spesso stranieri) o concetti o metodi che sono
significativi in informatica.
• Hardware - Nel senso generalista di mezzo / strumento.
• Software - Nel senso generalista di istruzioni alla macchina.
• Sistema informatico - Nel senso di connubio tra hardware e software in un insieme organico, coerente e
funzionante, pronto per fornire un servizio.
• Applicazione - Nel senso più generale di sistema informatico dedicato (in tutto o in parte) ad uno specifico
servizio, come soluzione ad una necessità (spesso latente o autoalimentata).
• Gestione - Nel senso di chi tratta direttamente l'informatica, con quali metodi, con quale organizzazione con
che tipo di sistemi.

Teorie e terminologia di base


• Algebra di Boole
• Algoritmo
• Algoritmi genetici
• Algoritmi quantistici
• Database
• File
• Fondamenti matematici dell'informatica
• Glossario informatico
• Informatica quantistica
• Ipertesto
• Teoria dell'informazione
• Teoria del segnale

Hardware
Nell'informatica pionieristica degli anni sessanta questo termine inglese, letteralmente "ferramenta", ben si prestava
a indicare le macchine utilizzate.
Anche con la sostituzione delle valvole termoioniche in favore dei transistor e poi dei primi circuiti integrati MOS,
tali macchine erano composte da telai e pannelli metallici robusti tutti rigorosamente assemblati mediante
bullonature vistose, per contenere i preziosissimi e delicatissimi circuiti elettronici che erano il cuore degli
elaboratori e delle prime periferiche di base.
Oggi, quando risulta difficile ritenere ferramenta un mouse o una webcam, il termine è rimasto più che altro per
distinguere tutto ciò che è macchina, strumento, dai programmi (il software) per far funzionare la macchina o lo
strumento. In pratica l'hardware è tutto ciò che è palpabile e visibile con gli occhi, come un hard disk, un monitor, lo
stesso case del computer.
Informatica 209

Software
È importante distinguere il software di base (oggi chiamato sistema operativo) dal software applicativo
(comunemente detto programma o applicazione):
• Il software di base serve per rendere operativo l'elaboratore;
• Il software applicativo serve per implementare nuove funzioni e/o rendere operative parti dell'elaboratore.
Una visione semplicistica può essere quella secondo cui l'elaboratore usa:
• il software di base per se stesso, come servizio interno;
• il software applicativo per fornire un servizio alle persone che lo utilizzano.
Nondimeno, molte funzioni del software di base offrono valore aggiunto anche all'utente finale (ad esempio, il file
system consente all'utente di memorizzare e poi riutilizzare secondo necessità il proprio lavoro). Perciò, all'interno
del software di base è possibile ulteriormente distinguere le funzionalità a valore aggiunto per l'utente e quelle che
sono meramente di servizio per garantire il funzionamento della macchina.[1]
Il software di base, oggi detto sistema operativo, nasce con l'evoluzione tecnologica. Mentre i primi elaboratori
contenevano tutte le istruzioni necessarie al proprio funzionamento, ivi incluse quelle di interazione con l'hardware
(spesso complesse e non portabili), l'aumento della memoria e della potenza di calcolo ha portato all'evoluzione di
strati software interposti tra il programmatore e l'hardware (all'epoca, tutti gli utenti erano anche programmatori e
non esisteva ancora la nozione di software general purpose).
Oggi, se si escludono i sistemi dedicati a particolari servizi critici come l'avionica, la chirurgia assistita, il controllo
di impianti a ciclo continuo, mezzi in movimento, ecc. il rapporto tra software di base e software applicativo è
sempre superiore a uno.
Nel caso dei personal computer domestici tale rapporto sale spesso tranquillamente al di sopra di 10 a 1.
Voci correlate su Software
• Programma
• Sistemi operativi
• Database management system
• Elenco di programmi per computer
• Utilità
• Ingegneria del software
• Linguaggi di markup o di formattazione
• Linguaggi di programmazione (cfr. Cronologia)

Sistema informatico
Hardware e software formano un sistema informatico; formano uno strumento utile per fare qualcosa.
Questa generica definizione, apparentemente banale, in realtà denota il fatto che oggi con un sistema informatico ci
si fa di tutto, e che ogni giorno ci si fa qualcosa di più.
A parte il classico personal computer o il server di rete pensiamo ad esempio al telefono cellulare, alla fotocamera
digitale, alla playstation, al cruscotto auto con il navigatore satellitare, al monitoraggio in sala di rianimazione, ecc.
Sono tutti sistemi informatici, che ci forniscono servizi specifici. Pensiamo ad un aereo moderno al suo interno
possiamo trovare non uno, ma molti sistemi informatici, ciascuno con un preciso compito.
Internet nel suo insieme è un sistema informatico, formato a sua volta da una rete di sistemi informatici che lavorano
per un obiettivo comune: permettere a chiunque di connettersi e scambiare informazioni con chiunque, in qualsiasi
parte del globo.
Informatica 210

Applicazione
Del sistema informatico si è detto che è uno strumento utile per fare qualcosa. Questo qualcosa è l'applicazione.
Il termine applicazione informatica è nato quando il computer è uscito dalle mani degli scienziati e dalle stanze degli
istituti di ricerca ed è entrato nel resto del mondo. Naturalmente il computer era utile anche prima (e lo è di certo
ancor di più oggi, in quegli ambienti), ma come ad esempio in ingegneria e così in informatica, si distingue l'attività
della ricerca pura da quella applicata.
Le prime applicazioni pratiche si ebbero, negli anni sessanta e inizio settanta, nelle grandi aziende, e in generale
nelle grandi organizzazioni pubbliche o private, laddove soluzioni informatiche abbastanza semplici permettevano
significativi risparmi di tempo nelle operazioni quotidiane e di routine. Basti ricordare Banca d'Italia, Alitalia, Eni,
Montedison, Enel.
Con gli anni, e con uno sviluppo sempre più veloce delle capacità di elaborazione in parallelo all'abbassamento dei
costi, l'informatica ha pervaso qualsiasi settore, fino alla vita quotidiana e all'intrattenimento personale.
Voci correlate ad Applicazione
• Basi di dati
• Base di conoscenza
• Sicurezza informatica e Standard ISO 27001:2005
• Architettura delle reti di elaboratori
• Computer grafica
• Intelligenza artificiale
• Visione artificiale
• Reti neurali
• Sistema informativo

Gestione
Con l'informatica che cominciava a diffondersi al di fuori del ristretto mondo della ricerca e all'interno di grandi
strutture operative sorse la necessità di nuove figure professionali che "curassero" l'oggetto ancora misterioso che era
l'elaboratore elettronico. E sorse anche la necessità di dare un nome e includere nella struttura operativa quell'unità a
cui veniva demandato il compito di elaborare i dati.
Il primo nucleo riconosciuto di persone addette alla elaborazione dei dati fu il cosiddetto Centro Meccanografico.
Era dotato di elaboratori della seconda generazione (circuiti elettromagnetici, pannelli di programma somiglianti alle
consolle telefoniche dei centralini di inizio secolo, in cui le istruzioni erano connettori a doppio spinotto introdotti in
prese unipolari, ciascuna col suo scopo), schede perforate per i dati di massa, macchine perforatrici, macchine
selezionatrici e stampatrici a barre verticali. Il centro era gestito da un capo centro che governava sui primi
programmatori, sugli operatori, sulle perforatrici (donne).
All'inizio degli anni sessanta, con l'avvento della terza generazione degli elaboratori (del tipo IBM/360), le cose non
cambiarono molto, tranne che l'unità organizzativa, soprattutto in ambienti nuovi si chiamava Centro Elaborazione
Dati (CED). Nota: la definizione di centro meccanografico è stata dura a morire, soprattutto in Pubblica
Amministrazione.
Con l'aumento della pervasività dell'informatica via via in ogni settore aziendale e di servizio, il CED è diventato una
unità strategica, spesso anche scomoda e comunque costosissima.
Già negli anni settanta alcune aziende hanno dato il via a quel processo che negli anni ottanta si chiamerà
outsourcing, estraendo il Servizio Elaborazione Dati (ex CED) dalla struttura dell'azienda, facendone una società a sé
stante (ad esempio Datamont, dalla Montedison, ed Enidata, dall'ENI).
La diffusione del personal computer ha dato il colpo di grazia alla maggior parte di queste strutture, costrette a
cedere il potere di unici depositari delle capacità di gestire i mezzi informatici.
Informatica 211

Oggi le grandi aziende tendono ad avere un nucleo interno dedicato all'informatica, composto solo da personale di
alto livello e generalmente dipendenti direttamente dalla Direzione generale. Tutta la parte operativa è gestita in
outsourcing da società specializzate.
Tutto questo riguarda soprattutto l'informatica gestionale delle medie grandi aziende del settore privato, quella
governata con i sistemi ERP. Alcune isole di applicazioni mission critical (determinati processi o determinati servizi)
sono rimasti sotto la piena responsabilità interna.
Nel settore Pubblico il processo di esternalizzazione è stato molto più lento ed è tuttora in corso.
Le piccole e medie aziende, non avendo a disposizione risorse finanziarie sufficienti hanno iniziato a fruire delle
opportunità offerte dall'informatica solo in tempi relativamente recenti, quando le case costruttrici di elaboratori
hanno creato macchine ad hoc (vedi ad esempio il sytstem/38 IBM diventato poi AS/400), dotato anche di
applicazioni software adatte a quelle realtà, sia con il diffondersi sul territorio di aziende specializzate nel fornire
servizi orientati a tale tipo di azienda.
Voci correlate su Gestione dell'informatica Centro elaborazione dati
• Le figure professionali
• Associazioni per l'informatica
• Industrie informatiche
• Laboratori per l'informatica
• Organizzazioni per il Web
• Progetti informatici
• Pubblicazioni informatiche

Note
[1] Si potrebbe argomentare che tutte le funzioni del SO offrono valore aggiunto all'utente, ma molte di queste operano in background e sono
trasparenti rispetto all'utilizzatore del sistema, mentre altre sono parte integrante della computing experience.

Bibliografia
• A.M. GAMBINO - A. Stazi, Diritto dell'informatica e della comunicazione (Manuale), Giappichelli, Torino,
2009

Voci correlate
• Social commerce
• Digital divide
• Software libero, Open source
• Software proprietario
• Telecomunicazioni
• Ingegneria
• E-health
• Ingegnere elettrico ed informatico
Informatica 212

Altri progetti
• Wikisource contiene opere originali riguardanti l' informatica
• Wikibooks contiene testi o manuali di informatica
• Wikimedia Commons contiene file multimediali sull' informatica
• Wikinotizie contiene notizie di attualità su informatica
• Wikizionario contiene la voce di dizionario «informatica»
• Wikiquote contiene citazioni sull' informatica

Hardware
Con hardware, in ingegneria elettronica e
informatica si indica la parte fisica di un
personal computer, ovvero tutte quelle parti
magnetiche, ottiche, meccaniche ed
elettroniche che ne consentono il
funzionamento (dette anche strumentario).

Più in generale il termine si riferisce a


qualsiasi componente fisico di una
periferica o di una apparecchiatura
elettronica.
L'etimologia del vocabolo nasce dalla
fusione di due termini della lingua inglese,
hard (duro) e ware (manufatto, oggetto), in
contrapposizione con il software, la parte
logica (e perciò soft, "morbida") che L'hardware di un PC con raffreddamento a liquido
compone il personal computer.
Hardware 213

Alcuni componenti hardware


• Mouse
• RAM
• Read only memory (ROM)
• Hard Disk
• Scheda madre
• Monitor
• Scheda video
• Scheda audio
• Scheda di rete
• CPU
• Tastiera
• Lettore CD
• Masterizzatore
• Modem
• Stampante
• Scanner
• Cavi

Altri progetti
Componenti hardware di un PC:
• Wikimedia Commons contiene file 1) Monitor
multimediali su Hardware 2) Scheda madre
• Wikizionario contiene la voce di 3) CPU
dizionario «hardware» 4) Interfaccia ATA
5) RAM
6) Slot di espansione
Voci correlate 7) Alimentatore
8) Lettore CD/DVD
• Architettura (computer) 9) Hard Disk
• Computer 10) Tastiera
• Firmware 11) Mouse

• Informatica
• Intelligenza artificiale
• Software
• Storage Networking Industry Association
Software 214

Software
Il software è un programma o un insieme di
programmi in grado di funzionare su un
computer o qualsiasi altro apparato con
capacità di elaborazione (smartphone,
console, navigatori satellitari e così via).
Il termine è un vocabolo della lingua inglese
costituito dall’unione di due parole, soft
(morbido) e ware (manufatto, componente,
oggetto, cosa). Il termine si contrappone
tradizionalmente a hardware (la componente
fisica di un sistema di calcolo). Nel tempo
sono entrati nell'uso altri termini che
OpenOffice.org Writer, un software di videoscrittura, sul sistema operativo
descrivono elementi di un computer, come il
Ubuntu.
firmware. Il suffisso -ware viene usato
anche in altri termini che indicano
particolari tipi di programmi: in funzione del ruolo che hanno in un sistema di calcolo (per esempio middleware); del
tipo di licenza con cui sono distribuiti (freeware, shareware); e altro.

Storia del software


Il termine software ha origine durante la seconda guerra mondiale. I tecnici dell'esercito inglese erano impegnati
nella decrittazione dei codici tedeschi di Enigma, di cui già conoscevano la meccanica interna (detta hardware,
componente dura, nel senso di ferraglia) grazie ai servizi segreti polacchi. La prima versione di Enigma sfruttava tre
rotori per mescolare le lettere.
Dopo il 1941, ad Enigma venne aggiunto un rotore, e il team di criptanalisti inglesi, capitanati da Alan Turing, si
dovette interessare non più alla sua struttura fisica, ma alle posizioni in cui venivano utilizzati i rotori della nuova
Enigma.
Dato che queste istruzioni erano scritte su pagine solubili nell'acqua (per poter essere più facilmente distrutte,
evitando in tal modo che cadessero nelle mani del nemico) furono chiamate software (componente tenera), in
contrapposizione all'hardware.
Il senso moderno del termine deriva dalle istruzioni date ai computer, ed è stato utilizzato per la prima volta nel 1957
da John Wilder Tukey, noto statistico statunitense.
Dal 1950 l'analogia tra l'hardware ed il corpo umano e quella tra il software e la mente umana si è fatta molto forte,
dal momento che Turing ha sostenuto che il progresso tecnologico sarebbe riuscito a creare, entro il 2000, delle
macchine intelligenti (in grado cioè di "pensare" autonomamente) atte alla risoluzione dei problemi.

Aumento del codice e potenziamento dell'hardware


Alla storia dell'evoluzione del software è legato lo sviluppo dell'hardware. Come evidenziato dalla seconda legge di
Moore, una minaccia alla velocità di elaborazione, oltre ai costi, proviene dal software. Infatti ciò che conta per un
utente non è tanto la velocità di elaborazione del processore, quanto la velocità effettiva di elaborazione del codice,
calcolata in base al tempo che occorre alla CPU per eseguire un'operazione (come la scrittura di un testo, la
creazione di una cartella, ecc.).
Software 215

Nathan Myhrvold, direttore dell'Advanced Technology Group della Microsoft, ha effettuato uno studio sui prodotti
Microsoft calcolando le linee di codifica per le successive release dello stesso software:
• Basic: da 4.000 linee di codice nel 1975 a 500.000 nel 1995
• Word: da 27.000 linee di codice nel 1982 a 2.000.000 nel 2002
La continua aggiunta di nuove funzionalità al software esistente giustifica la costante richiesta di processori più
veloci, memorie sempre più grandi e più ampie capacità di I/O (Input/Output).
Infatti, anche le altre tecnologie si sono evolute di pari passo:
• i dischi rigidi da 10 MB (1982) a 1 TB (2007);
• i modem analogici da 110 bit/sec a 56 kbit/sec.
Myhrvold traccia un parallelismo con la legge di Moore: "abbiamo aumentato la dimensione e la complessità del
software ancora più rapidamente di quanto non prevedeva la legge di Moore", "gli utenti del software hanno sempre
consumato le maggiori capacità di elaborazione ad una velocità uguale o superiore a quella con cui i produttori di
chip le mettevano a disposizione" (Stewart Brand, 1995).

Classificazione
I software possono essere classificati in base a diverse loro caratteristiche:
• funzione (videoscrittura, foglio elettronico, database management system, grafica ecc.);
• grado di apertura della licenza (software libero o software proprietario);
• sistema operativo su cui possono essere utilizzati (Unix, Mac OS, Windows ecc.);
• da installare o portabile;
• tipo di interfaccia utente (testuale o grafica).
I software possono essere divisi in quattro categorie principali:
• software di base (che a sua volta si divide in sistemi operativi, compilatori e interpreti, librerie);
• driver;
• firmware;
• programmi applicativi (cioè tutti quei software che vengono utilizzati nel quotidiano, dai programmi per l'ufficio,
ai videogiochi).

Realizzazione del software


Un software viene normalmente realizzato utilizzando uno o più linguaggi di programmazione. Se il progetto diventa
complesso, è opportuno dividere il programma in uno o più moduli, che possono essere così affidati a diversi
programmatori, modificati più semplicemente e riutilizzati in altri progetti.
La fase detta di compilazione, traduce ogni file del codice sorgente, scritto nel o nei linguaggi di programmazione, in
un file oggetto contenente il programma in linguaggio macchina adeguato all'architettura hardware di destinazione.
In seguito tutti i file oggetto attraversano una fase di linking per giungere al prodotto finale: il file eseguibile.
Alcuni software non vengono compilati in quanto le istruzioni contenute nel codice sorgente vengono eseguite
utilizzando un software detto interprete.
La gestione del processo di sviluppo è caratterizzato dalla scelta di un modello di sviluppo del software codificato
nell'ambito dell'Ingegneria del Software (Software Engineering), esistono:
• Il modello classico, o a cascata (water-fall)
• Il modello a spirale (object oriented)
La realizzazione del software è un'attività complessa articolata in più fasi, per questo motivo spesso il software è
associato ad un prodotto ingegneristico, ma se ne differenzia soprattutto per alcune caratteristiche:
Software 216

• è molto "malleabile";
• è un prodotto human intensive (e cioè un prodotto che richiede un considerevole sforzo in risorse umane perché si
concentra soprattutto sulla progettazione e sull'implementazione).

Licenze d'utilizzo e distribuzione


La licenza d'uso è un documento che
accompagna il software e specifica i
diritti e i doveri di chi lo riceve e di chi
lo diffonde.
Tutte le licenze d'uso traggono il loro
valore legale dalle norme sul diritto
d'autore (il copyright).
Esistono licenze libere, le licenze Open
Source e licenze proprietarie. Nasce in
seguito anche l'Open content che ha
come scopo quello di trasferire le
licenze su opere diverse dal software.
Le licenze di utilizzo e distribuzione del
software libere ed Open Source sono Le differenti categorie del software
numerose, ma quelle effettivamente
diffuse sono poche. Per l'89% si tratta di GPL, LGPL e BSD (licenza storica di Unix, tornata in uso dall'avvento di
Linux).
Alcune licenze libere:
• GNU-GPL (la licenza libera più diffusa)
• GNU-LGPL
• BSD
• Creative Commons
Ogni tipo di licenza differisce dagli altri per vari aspetti

Brevettabilità del software


Nell'Unione europea, i software non possono essere oggetto di brevetto. Il 6 luglio 2005, il Parlamento Europeo ha
respinto la proposta di direttiva per la "Brevettabilità delle invenzioni attuate per mezzo di elaboratori elettronici",
sostenuta dalla Commissione[1] [2] .
La proposta è stata rigettata alla prima votazione con 648 voti contrari, 32 favorevoli, rispetto a 680 schede
scrutinate.
Il giorno prima della votazione, la Commissione Europea ha confermato che, in caso di bocciatura, non sarebbe stato
presentato un nuovo testo sull'argomento.
Software 217

Note
[1] Testo della proposta di Direttiva per la brevettabilità del software (http:/ / 64. 233. 183. 104/ search?q=cache:SQehO9LJHPQJ:www.
europarl. europa. eu/ pv2/ pv2?PRG=CALDOC& TPV=DEF& FILE=20030924& SDOCTA=2& TXTLST=2& POS=1& LASTCHAP=3&
Type_Doc=FIRST& LANGUE=IT+ proposta+ di+ direttiva+ del+ Parlamento+ europeo+ e+ del+ Consiglio+ relativa+ alla+ brevettabilità+
delle+ invenzioni+ attuate+ per+ mezzo+ di+ elaboratori+ elettronici+ N+ A5-0238/ 2003& hl=it& ct=clnk& cd=2& gl=it/ )
[2] Argomenti della Commissione Europea a sostegno della brevettabilità (http:/ / 64. 233. 183. 104/ search?q=cache:-m-a_LyBYg0J:www.
europarl. europa. eu/ hearings/ 20021107/ juri/ wd_directive_it. pdf+ direttiva+ brevettabilità+ invenzioni+ attuate+ per+ mezzo+ di+
elaboratori+ elettronici& hl=it& ct=clnk& cd=1& gl=it/ )

Bibliografia
• G. Guglielmetti, L'invenzione di software. Brevetto e diritto d'autore, 2ª ed., Milano, Giuffrè, 1997.

Voci correlate

Sviluppo del software


• Ingegneria del software
• Progettazione (ingegneria del software)
• Metodologia di sviluppo del software
• Processo software
• Ciclo di vita del software
• Scelta del modello di sviluppo
• Localizzazione
• Manutenzione
• Collaudo
• Tecniche di controllo
• Ispezione

Strumenti
• Compilatore
• Computer-aided software engineering
• Software development kit

Tipi di software in relazione alla licenza d'uso


• Freeware
• Shareware
• Software proprietario
• Software libero
• Elenco di casi di adozione di software libero
• Software libero/draft
• Software Free/Libero/Open-Source (FLOSS)
• Free Software Users Group (FSUG)
• Free and Open Source Software (FOSS)
• Differenza tra Software Libero e Open Source
Software 218

Tipi di software
• Elenco di tipi di software
• Software per l'office automation

Professioni correlate
• Sviluppatore
• Programmatore
• Webmaster

Fondazioni e aziende
• Creative Commons
• Free Software Foundation (FSF)
• Elenco di aziende informatiche

Altri progetti
• Wikimedia Commons contiene file multimediali sul software
• Wikizionario contiene la voce di dizionario «software»

Collegamenti esterni
• Software (http://www.dmoz.org/World/Italiano/Computer/Software/) su Open Directory Project ( Segnala
(http://www.dmoz.org/cgi-bin/add.cgi?where=World/Italiano/Computer/Software/) su DMoz un collegamento
pertinente all'argomento "Software")
• Oscon.it (http://www.oscon.it) Oscon, facsimile di contratto per la vendita di software.
• Lista di software gratuiti per pc (http://unikgeek.com/software/)
Word clock 219

Word clock
WordClock è un segnale di sincronia utilizzato nel campo audio professionale per sincronizzare fra loro gli
oscillatori interni dei vari dispositivi audio digitali utilizzati (p.es., registratori a nastro o lettori CD). Il WordClock
consiste in un'onda quadra che ha frequenza pari alla frequenza di campionamento della periferica che abbia
funzione di master; tutte le altre periferiche slave si adatteranno all'oscillazione del master tramite il segnale
WordClock. Il WordClock viene distribuito alle varie periferiche audio digitali tramite cavi coassiali a 75Ω con
connettore BNC.

Scheda audio
Una scheda audio è una scheda di espansione che si
occupa di trasformare un flusso audio digitale in un
segnale analogico (o anche digitale nelle configurazioni
più recenti), riprodotto da un set di altoparlanti. La
maggior parte delle schede audio attuali è anche in
grado di ricevere input (da microfoni o strumenti
musicali) che invia all'unità di elaborazione centrale.

Caratteristiche Generali
Una scheda audio tipica include un chip sonoro
solitamente equipaggiato con un convertitore
digitale-analogico che converte onde sonore registrate o
generate in digitale in un segnale analogico. Questo segnale è indirizzato a un connettore al quale può essere
connesso un amplificatore o un'apparecchiatura simile.
Le architetture più avanzate solitamente includono più di un chip sonoro, e dividono fra sintetizzatore di suoni
(solitamente usato per generare suoni in tempo reale con poco uso della CPU) e riproduzione digitale di suoni.
Le schede audio più avanzate (come ad esempio le X-Fi di Creative Labs) possiedono anche un processore (CPU)
proprio per migliorare l'elaborazione del suono.
Nei PC di fascia medio-bassa la scheda audio è di solito integrata in un chip della scheda madre, per contenere i costi
e i consumi. Queste schede audio, pur non avendo funzionalità di elaborazione avanzate, sono in grado di riprodurre
suoni ad alta qualità e dispongono di uscite per sistemi di altoparlanti surround fino a 9.1.

Connessioni
La maggior parte delle schede audio in commercio (integrate o no) a partire dal 1999 segue lo standard Microsoft PC
99 per la colorazione delle uscite:
Scheda audio 220

Colore Funzione

Rosa Entrata analogica per il microfono.

Azzurro Entrata analogica. (per mixer o altro dispositivo digitale o analogico tramite RCA/jack)

Verde Uscita stereo principale (per cuffie o altoparlanti frontali).

Nero Uscita per gli altoparlanti posteriori (nei sistemi surround).

Argento Uscita per gli altoparlanti laterali (nei sistemi surround).

Arancione Uscita digitale S/PDIF (a volte utilizzata come uscita analogica per subwoofer).

Canali e polifonia
Due importanti caratteristiche di una scheda audio sono:
• la sua polifonia, ovvero il numero di suoni e voci distinti che possono essere riprodotti indipendentemente e
simultaneamente;
• il numero di canali, intesi come segnali audio elettrici distinti, corrispondenti alla configurazione degli
altoparlanti, come 1 (mono), 2.0 (stereo), 2.1(stereo e subwoofer), 5.1 ecc.
Spesso i termini vengono utilizzati entrambi per indicare il grado di polifonia, non la configurazione delle uscite.
Le schede più datate avevano una polifonia di 3 voci, ma un solo canale audio in cui venivano mixate le voci.
Per diversi anni, le schede per PC avevano da 9 a 18 voci, per lo più usate per la riproduzione di musica MIDI, ma
solo una (mono) o due (stereo) voci e canali per la riproduzione di suoni digitali. Quando dovevano essere riprodotti
due o più suoni, essi erano mixati a livello software. Gran parte delle schede audio integrate ed economiche, pur
avendo diversi canali audio (5.1, 7.1), non hanno nessuna polifonia a livello hardware.
Oggi, una scheda che fornisce una polifonia hardware viene definita un "acceleratore audio" e include funzioni
avanzate per il calcolo del suono 3D o effetti DSP in tempo reale.

Storia
La prima scheda audio è stata la AdLib con chipset Yamaha. Clonando questa scheda venne creata la Sound Blaster
con chipset Philips e poi la prima scheda audio a 16-bit. Infine vennero create schede a 24-bit.

Voci correlate
• Audio digitale
• Surround

Altri progetti
• Wikimedia Commons contiene file multimediali su Scheda audio
Hard disk recording 221

Hard disk recording


Con il termine hard disk recording si indica un sistema di registrazione che usa l'alta capacità di un hard disk per
registrare del materiale sonoro in formato digitale. L'hard disk recording rappresenta una soluzione alternativa alla
registrazione multitraccia su nastro, fornendo strategie di editing molto avanzate, complicate se non impossibili da
attuare con i vecchi registratori a bobina. Questo tipo di sistemi di registrazione, autonomi o computerizzati,
includono tipicamente le disposizioni per la miscelazione digitale e l'elaborazione del segnale audio.

Storia
Prima degli anni ottanta, la stragrande maggioranza degli studi di registrazione utilizzava registratori multitraccia
analogici, basati appunto sulla tecnologia di registrazione su nastro. Negli anni a venire, società come la New
England Digital cominciarono a includere, nei loro sistemi destinati alla fascia alta del mercato, la possibilità di
registrare materiale multimediale su disco fisso. L'alto costo e la capienza limitata di queste prime soluzioni hanno
limitato il loro uso ai grandi studi di registrazione e, perfino allora, erano solitamente riservati per delle applicazioni
specifiche quali, ad esempio, la post-produzione cinematografica.
Con l'introduzione dei compact disc, la registrazione digitale diventò una delle aree di sviluppo più importanti per i
produttori di hardware. A cavallo fra gli anni ottanta e gli anni novanta furono progettate e sviluppate numerose
soluzioni commerciali, molte delle quali continuavano a usare supporti a nastro di vecchia generazione. Qualche
anno dopo, il costante abbassamento dei prezzi e il corrispondente aumento in capacità e nella portabilità dei dischi
fissi favorì un abbassamento dei costi dei sistemi di registrazione digitale, rendendoli abbordabili anche agli studi più
piccoli. Oggi, benché vi siano ancora numerose soluzioni analogiche, i sistemi di registrazione su hard disk sono
diventati un marchio di garanzia e facilità d'uso per gli studi professionali.
Uno dei maggiori vantaggi di questa tecnica è la possibilità di modificare il materiale audio in maniera non lineare. I
dati audio digitali posso essere acceduti in maniera casuale e modificati, facoltativamente, anche in una modalità
definita non distruttiva, la quale permette l'applicazione delle modifiche solo dopo aver compiuto un salvataggio di
backup dei dati originali. Fra gli svantaggi annotiamo, come forse il più importante, la limitata capienza degli hard
disk.

Utilizzo
Negli studi di registrazione digitale, ma spesso anche nei cosiddetti home studio, la registrazione su hard disk viene
combinata con un mixer digitale. Entrambi questi elementi fanno parte delle cosiddette stazioni di lavoro per audio
digitale, nelle quali i compiti complessi posso essere automatizzati, liberando l'ingegnere audio dalla gestione di
ogni singolo aspetto del missaggio.
Come unità adibita alla registrazione spesso viene usato un personal computer, sul quale viene eseguito un software
adatto allo scopo: oggi, questa risulta essere la soluzione preferita, poiché fornisce un'interfaccia flessibile e di facile
uso all'assistente di studio.
Molti sistemi professionali per studi di registrazione forniscono il supporto per periferiche hardware esterne, in modo
particolare per la fase di conversione analogico-digitale, mentre altri sistemi meno costosi possono essere
tranquillamente usati sfruttando esclusivamente le caratteristiche hardware di un calcolatore moderno.
I vincoli principali per ogni sistema di hard disk recording sono la dimensione dello spazio disponibile e la velocità
di trasferimento dei dati del disco, dunque la frequenza di clock del microprocessore è praticamente ininfluente.
Alcuni sistemi di registrazione usano algoritmi di compressione audio digitale per minimizzare i primi due fattori
sopracitati. Comunque, questa soluzione viene adottata sempre meno, grazie ai continui incrementi di capacità dei
dischi rigidi.
Hard disk recording 222

Software professionale per sistemi di hard disk recording

Software libero
• Ardour (Linux, Mac OS X)

Software proprietario
• Cubase (Microsoft Windows, Mac OS)
• Digital Performer (MacOS)
• Nuendo (Microsoft Windows, Mac OS)
• Logic Audio (Mac OS, Microsoft Windows)
• Fruity Loops (Microsoft Windows)
• Pro Tools (Mac OS, Microsoft Windows)
• Cool Edit (Microsoft Windows)
• Cakewalk Sonar (Microsoft Windows)
• n-Track Studio (Microsoft Windows)

Voci correlate
• Disco rigido
• Home recording
• Conversione digitale-analogica
• Scheda audio
• Ingegneria audio

Collegamenti esterni
• Strumenti musicali digitali [1], studio sulle tecniche di hard disk recording e su come gli strumenti digitali
cambiano i processi di produzione musicale

Note
[1] http:/ / www. strumentidigitali. it/
Home recording 223

Home recording
Con il termine Home recording si indica uno studio di registrazione in ambito casalingo, o comunque non
professionale. La sua popolarità è in continua crescita grazie all'aumento di dispositivi di registrazione (analogici e
digitali) ad un prezzo accessibile anche ai non professionisti. Tutto ciò ha molti vantaggi, tra i quali la possiblità di
avere un proprio studio nella comodità di casa, invece che pagare uno studio professionale in base alle ore di
servizio.

Equipaggiamento di un Home recording Studio


Un Home recording studio si basa principalmente su una DAW (Digital Audio Workstation), che spesso è composta
da un computer (Microsoft Windows o Apple Macintosh), e vari strumenti acustici o sintetizzati, al contrario della
tradizionale console.
Per poter registrare in un Home recording studio la strumentazione minima si basa su un'interfaccia audio, microfoni
e un software di registrazione. Esistono molti marchi che producono dispositivi audio per ogni esigenza, per esempio
la registrazione di una voce o di una chitarra. Con l'aiuto di sequencer professionali come Ableton Live, Cubase e
Sonar, si può minimizzare la necessità di possedere grandi dispositivi audio esterni, come console per il missaggio e
tastiere.

Scheda Audio
Questo componente è il cuore del sistema, insieme al Pc. La scheda audio è infatti una periferica che converte l'audio
analogico di microfoni, strumenti musicali o sorgenti analogiche in digitale (ADC). Spesso è affidato allo stesso
strumento il dovere di convertire le elaborazioni digitali del Pc in analogico, per mezzo di monitor o cuffie. La
risoluzione della scheda audio varia di caso in caso, ma la più diffusa è di 24 Bit a 44 100 Hz.
Una domanda comune che ci si pone è il perché la risoluzione di entrata sia così alta, se poi l'audio dei comuni CD è
a soli 16 bit. La risposta è semplice: il Pc, nel produrre effetti audio, mixare le varie tracce ed eseguire molti altri
compiti che un editor permette, ha un certo margine di errore che provoca un notevole ribasso della qualità finale.
Per questo motivo gli studi di registrazione professionali adottano risoluzioni molto più alte, come di 24 Bit 192
000 Hz e oltre.
Spesso nelle schede più accessoriate alcuni canali sono dotati di alimentazione phantom, utilizzata con Microfoni a
condensatore.

L'outboard
Con il termine outboard si intende ciò che sta fuori, ovvero ciò che non è presente nella scheda audio e non si può
riprodurre con il PC. In questa catergoria ci sono preamplificatori a valvole, compressori, limiter, riverberi .

Software
• Cubase
• Pro Tools
• Logic Pro
• Audacity
• Adobe Audition
Home recording 224

Voci correlate
• hard disk recording
• audio digitale
• ingegneria audio
• Sequencer
• Plugin
• Virtual Instruments
• Masterizzazione

Note
• http://en.wikipedia.org/wiki/Home_recording
• http://de.wikipedia.org/wiki/Home_recording

Collegamenti esterni
• Homestudiorecording.it [1], sito italiano dedicato all'homestudio recording
• Homerecording.it [2], sito italiano dedicato all'home recording

Note
[1] http:/ / www. homestudiorecording. it/
[2] http:/ / homerecording. it/

Registrazione multitraccia
La registrazione multitraccia ('multitracking' o 'tracking' sono
usati come abbreviazioni in inglese) è un metodo di registrazione
sonora che permette di separare la registrazione di sorgenti sonore
multiple per creare un tutto unico.
Questo metodo è quello più comune per la registrazione della
musica pop. Il metodo è stato utilizzato a partire dagli anni
quaranta usando apparati analogici, mentre dagli anni 2000
vengono largamente usati anche strumenti software come Pro
Tools.
Il registratore analogico su nastro TASCAM 85 16B, in
grado di registrare 16 tracce audio su nastro di un
pollice (2.54 cm).
Registrazione multitraccia 225

Processo
Il multitracking si può ottenere con apparati analogici basati su
nastro (da quello basato su semplici cassette a 4 o 8 tracce fino a
quello con bobine di nastro di 2 pollici a 24 tracce), con apparati
digitali che utilizzano cassette su cui si registrano informazioni
digitali (come le macchine a otto tracce ADAT) o con sistemi
basati su hard disk, che spesso usano un computer e un software
per la registrazione audio multitraccia.

A seconda degli strumenti utilizzati, varia il numero di tracce


disponibili simultaneamente per la registrazione.
Nel caso di sistemi con nastro magnetico le tracce sono limitate,
tra gli altri fattori, dalla larghezza fisica del nastro impiegato.
Alcuni dei più grandi studi di registrazione analogica professionale
usavano un computer per sincronizzare più macchine a 24 tracce,
portando il numero di tracce disponibili ad alcune centinaia: per
esempio, il gruppo rock Toto registrò il suo quarto album su Il TEAC 2340, uno dei primi (1973) registratori
multitraccia "casalingo", registrava su quattro tracce su
quattro macchine a 24 tracce sincronizzate tramite computer.
nastro da ¼ di pollice.
Nei sistemi basati su computer si va invece verso la disponibilità
di un numero illimitato di tracce per la registrazione/il playback, anche se fattori come la memoria e la potenza di
calcolo disponibile limitano di fatto questo numero a seconda dell'hardware impiegato. In più, su questi sistemi il
numero di tracce simultaneamente disponibili per la registrazione è limitato dagli ingressi discreti analogici o digitali
sulla scheda audio.
Durante la registrazione, l'ingegnere del suono può scegliere quale traccia (o quali tracce) sul dispositivo verranno
usate per ogni strumento, voce o altra fonte sonora.
In un qualsiasi punto dato del nastro, ogni traccia del dispositivo di registrazione può essere in registrazione o in
playback, in modo da dare la possibilità all'artista di registrare per esempio la traccia numero 2 e, simultaneamente,
ascoltare la traccia numero 1, permettendogli di cantare o suonare un accompagnamento alla performance già
registrata sulla prima traccia. Successivamente potrà essere registrata la traccia numero 3 mentre si ascolta la traccia
numero 2. Tutte le tracce possono poi essere riprodotte in perfetta sincronia, come se fossero state suonate e
registrate assieme. Questo processo si può ripetere fino a che tutte le tracce disponibili sono state usate o, come
succede in alcuni casi, riusate. In un qualsiasi punto del processo di registrazione, infatti, qualsiasi numero di tracce
esistenti può essere "sotto-mixato" in una o due tracce, consentendo così di cancellare poi le tracce originali, per fare
spazio ad altre tracce da registrare. Il produttore discografico dei Beatles, George Martin, utilizzò questa tecnica
estensivamente per ottenere tracce multiple, essendo limitato all'uso di una macchina a 4 tracce, finché una macchina
a otto tracce non divenne disponibile durante la registrazione del White Album. Anche l'album Pet Sounds dei Beach
Boys fece un uso innovativo del multitracking con le macchine a otto tracce dell'epoca (1965-1966) .
La registrazione multitraccia permette ad ogni artista di registrare diverse "prove" di ogni data sezione della propria
performance, permettendogli di raffinarla virtualmente alla perfezione. Un ingegnere alla registrazione può registrare
solo la sezione su cui si sta lavorando, senza cancellare una qualsiasi altra sezione della stessa traccia. Questo
processo di accensione e spegnimento del meccanismo di registrazione viene chiamato "punching in" e "punching
out".
Quando la registrazione è completa, le molte tracce vengono unite attraverso un mixer in un formato che può essere
duplicato e distribuito. La maggior parte delle registrazioni - CD e cassette - disponibili commercialmente in un
negozio sono registrazioni originariamente registrate su tracce multiple e poi mixate in stereofonia, ma le colonne
sonore di film e DVD possono essere mixate a 4 o più tracce, in base alla necessità (la modalità più comune è in
Registrazione multitraccia 226

cinque tracce, con una traccia addizionale per il subwoofer, da cui deriva il surround "5.1" che è comunemente
disponibile nei DVD).
In alcuni rari casi, come ad esempio quando una vecchia canzone viene tecnicamente "aggiornata", i mix stereo (o
mono) possono essere riversati inizialmente su una o due tracce del registratore come se fossero dei "sotto-mix",
permettendo l'aggiunta di effetti sonori addizionali nelle tracce rimanenti.

Flessibilità
Durante la registrazione multitraccia, più strumenti musicali (e voci) possono essere registrati, sia uno alla volta che
simultaneamente, su tracce singole, in modo che i suoni ivi registrati possano essere letti, processati e manipolati
individualmente per produrre gli effetti desiderati. Per esempio, dopo aver registrato alcune parti di una canzone, un
artista potrebbe ascoltare solo la parte della chitarra, mettendo in 'mute' tutte le altre tracce eccetto quella della
chitarra. Se invece si volesse ascoltare soltanto le parti vocali isolate è sufficiente mettere in mute tutte le tracce
tranne quelle vocali, se si volesse invece ascoltare l'intera canzone si possono riprodurre tutte le tracce assieme. Se
non piace la registrazione di uno strumento, o si trova un errore e si volesse rimediare, si può ri-registrare soltanto la
traccia relativa a quello strumento, piuttosto che ri-registrare l'intera canzone. Questa libertà di modifica è uno dei
più importanti vantaggi del multitracking. Se tutte le voci e gli strumenti in una registrazione sono registrati
individualmente su tracce distinte, allora l'artista è in grado di avere il controllo completo sulla struttura finale della
canzone durante il missaggio finale (la ri-registrazione su due tracce stereo per il consumo di massa).
Per esempio, se un artista volesse applicare un effetto ad una parte di sintetizzatore, un altro a una di chitarra, un
'chorus con riverbero' alla voce principale, e diversi effetti su tutte le percussioni e la batteria, questo non sarebbe
possibile se fossero stati tutti registrati sulla stessa traccia. Tuttavia se fossero stati registrati su tracce separate
l'artista potrebbe mescolare e alterare tutti i suoni in completa libertà.
La registrazione multitraccia permette ad un singolo musicista di registrare più parti, permettendo a duetti (come i
Ween o i Tenacious D) e a terzetti (come i Cream o i Nirvana) di produrre più parti musicali, a gruppi più grandi di
raddoppiare le parti o aggiungere altri strumenti, e anche un solista potrebbe creare un insieme suonando più parti.
Stevie Wonder, Emitt Rhodes, Skip Spence, Paul McCartney, Todd Rundgren, Trent Reznor, Lenny Kravitz, Elliott
Smith, R. Stevie Moore, Enya, Dave Grohl Delbert McClinton, Michael Sembello, Ben Folds, Kurt Ralske e Prince
sono gli artisti che producono gli album in questa maniera, come fossero una "band". Anche un musicista che non
suona nessun strumento può creare una registrazione di successo, come l'artista "a cappella" Bobby McFerrin, che ha
interpretato tutte le parti nelle sue registrazioni (dal 1980 al 2000) vocalmente.
La registrazione multitraccia di una canzone lascia anche aperta la possibilità di effettuare dei remix da parte dello
stesso artista o di quelli futuri, come i disc jockey. Se la canzone non fosse disponibile in formato multitraccia, il
lavoro dell'artista che remixa potrebbe essere molto difficile, o impossibile, perché una volta che le tracce sono state
mixate assieme durante la fase di missaggio stereo, sono inseparabili. Teoricamente si potrebbero usare dei filtri
selettivi in frequenza per questo, ma in realtà non si riesce a fare con un buon grado di qualità, a causa della natura
multi-armonica (con molte frequenze) di molti strumenti musicali e voci.

Storia
Il processo è stato concepito e sviluppato dal chitarrista Les Paul negli anni '40 con l'assistenza finanziaria e
ispirazionale di Bing Crosby e della Ampex Corporation, risultando nella prima macchina a 8 tracce che usava nastro
magnetico di 1 pollice. Durante gli anni '50 molte registrazioni popolari, come quelle di Les Paul and Mary Ford e
di Patti Page, usarono questa tecnologia per migliorare le voci e i suoni degli strumenti. Da questi inizi pionieristici,
si è evoluto nelle seguenti decadi nella principale tecnica di registrazione.
Registrazione multitraccia 227

Registrazione multitraccia con il computer


Negli anni 2000 alcuni artisti hanno registrato i propri album usando soltanto un personal computer come macchina
di registrazione, alcuni esempi sono Mylo, Gotye e Daniel Bedingfield. Per usare un computer come dispositivo di
registrazione è necessario che vi sia installata una scheda audio e un software per la registrazione in multitraccia
(software che è disponibile anche a basso costo se non gratuitamente, nel caso di software libero o open source).
Inoltre è necessario un microfono di buona qualità per registrare la voce di un cantante e/o una qualsiasi altra fonte
sonora.
Questo è tutto ciò che serve per preparare uno studio di registrazione multitraccia a casa propria in grado di produrre
registrazioni di buona qualità. La scheda audio standard di un PC può essere usata per acquisire suoni semplicemente
attaccando un microfono al relativo ingresso o attaccando la strumentazione elettronica, come un sintetizzatore o un
amplificatore per chitarra, all'ingresso stereo (è chiaro che migliore è la qualità della scheda audio e della
strumentazione e migliore sarà la qualità della registrazione). I computer con software e hardware appropriato sono
in grado di registrare più tracce contemporaneamente.
Gli strumenti e la voce dei cantanti sono registrati su file singoli nel disco rigido del computer, i quali funzionano
come le tracce nella registrazione multitraccia tradizionale. Effetti come il riverbero, il chorus o il delay possono
essere applicati dallo stesso software. Quando i musicisti sono soddisfatti del risultato, le tracce multiple vengono
missate in due tracce pulite, sempre con il software per il multitracking, infine la registrazione finale si può
masterizzare su di un CD, che può poi essere copiato e distribuito.

Ordine di registrazione
Nella maggior parte delle canzoni pop, la batteria e gli strumenti a percussione sono i primi ad essere registrati. Ci
sono diverse ragioni per questo; la batteria di solito è lo strumento che tiene il tempo: è molto più facile tenere il
tempo della batteria per gli artisti che registrano le altre tracce, anche per il preciso attacco dei suoni dei tamburi. Un
batterista troverebbe molto difficile suonare assieme a tracce pre-registrate senza le percussioni, a causa delle
eventuali variazioni del tempo dei musicisti. In più per tenere il ritmo prestabilito accuratamente un batterista
avrebbe bisogno che il suono degli altri strumenti fosse a volume elevato, per competere con il suono della propria
batteria; a parte il fatto che i microfoni della stessa potrebbero raccogliere il suono degli altri strumenti dalla cuffia
del batterista, quest'ultimo sarebbe comunque sottoposto a una esposizione prolungata ad alti volumi, danneggiando
il proprio udito. Inoltre si possono registrare pochi secondi di batteria per poi ripeterli. A volte vengono usate tracce
composte da "click" quando il batterista non è disponibile per le prime registrazioni o per quando il mix finale va
sincronizzato con immagini o filmati.
Anche se i suoni della batteria possono essere registrati su due sole tracce, solitamente ogni singolo tamburo e
percussione viene registrato su una traccia individuale. La batteria e le percussioni assieme di solito occupano il più
grosso numero di tracce usate per una registrazione; tutto questo per poter processare ogni singola percussione
singolarmente per ottenere il migliore effetto. Un effetto usato comunemente per le percussioni è il lento
spostamento del loro suono dal canale stereofonico di sinistra a quello di destra durante la canzone. L' equalizzazione
viene spesso utilizzata sui singoli tamburi, per estrarre da ciascuno il miglior suono possibile e caratterizzante.
Le ultime tracce ad essere registrate sono solitamente le voci, anche se una traccia vocale temporanea potrebbe
essere registrata prima come riferimento o per guidare gli altri musicisti, viene chiamata "Ghost Vocal" ("voce
fantasma") o "Scratch Vocal" ("voce improvvisata"). Una ragione di ciò è che spesso i cantanti accordano la propria
voce con l'accompagnamento, e vice versa.
Registrazione multitraccia 228

Musica da concerto
Per le registrazioni di musica classica jazz (particolarmente strumentali) dove il multitracking viene scelto come
metodo di registrazione (opposto a quello direttamente in stereo, per esempio), viene utilizzato un diverso
espediente: tutte le tracce vengono registrate simultaneamente. Spesso vengono frapposte tra i diversi gruppi
dell'orchestra delle barriere sonore, ad esempio tra i pianisti, i violinisti e i percussionisti. Quando vengono usate
queste barriere, i diversi gruppi si ascoltano tra di loro tramite auricolari.

Voci correlate
• Musical Instrument Digital Interface (MIDI)
• Surround
• Quadrifonia
• Remix
• Riverbero
• Tracker

Altri progetti
• Wikimedia Commons contiene file multimediali su Registrazione multitraccia

Sequencer
Il sequencer è un dispositivo (hardware o software), utilizzato nel campo musicale, che permette di creare e
riprodurre delle sequenze di segnali di controllo, per comandare uno strumento elettronico.
Sebbene l'utilizzo del sequencer abbia un fine musicale, non è da confondere con un dispositivo di registrazione
audio. A differenza del registratore, dove sono le forme d'onda di un suono a essere memorizzate, nel sequencer non
viene memorizzato alcun segnale audio, solo quello di controllo. Si può immaginare un sequencer come una "mano
elettronica" automatica e programmabile che suona strumenti e regola pulsanti e potenziometri di sintetizzatori e
processori audio.

Storia del Sequencer

Sequencer Hardware
I primi dispositivi che si avvicinavano a tale scopo erano due strumenti elettromeccanici costruiti negli anni
cinquanta da Raymond Scott: il Wall of Sound e l'Electronium.
Negli anni sessanta, al fianco dei primi sintetizzatori analogici, la cui altezza tonale delle note prodotte era
controllata da un valore di tensione, troviamo lo Step Sequencer che permetteva di ripetere ciclicamente una
sequenza di controllo preimpostando tutti gli step ovvero una serie di voltaggi che componevano la sequenza. Tale
sequenza di tensioni elettriche andava a controllare direttamente i VCO (Voltage Controlled Oscillator) del
sintetizzatore, e quindi l'intonazione della voce sintetizzata, producendo così la nota desiderata.
Il segnale di controllo poteva essere usato sia per generare una melodia sia per controllare altri parametri del
sintetizzatore come ad esempio la frequenza di taglio del filtro.
Nel 1971 Ralph Dyck sviluppò il prototipo di un sequencer analogico che sfruttava la tecnologia digitale per
memorizzare gli eventi.
Sequencer 229

La memoria digitale permetteva di memorizzare un gran numero di eventi (circa 1000) superando il problema della
memoria degli step sequencer i quali, come abbiamo detto, si limitavano a riprodurre una sequenza piuttosto corta
composta da alcuni step, ovvero una serie di voltaggi.
Nel 1976 la Roland, sviluppando il prototipo di Dyck, mise in commercio il sequencer MicroComposer MC8.
L'MC8 era dotato di molta più memoria del prototipo di Dyck e disponeva di otto tracce programmabili. Come molti
sintetizzatori della metà degli anni settanta, utilizzava la tecnologia digitale solo per quanto concerneva la memoria,
mentre le uscite erano analogiche poiché non esisteva ancora un segnale di controllo digitale. Grazie alle otto uscite
di controllo, era possibile così pilotare anche più di uno strumento alla volta o di sfruttare lo strumento controllato in
maniera polifonica. Il MicroComposer era difficile da programmare; tramite una piccola tastiera numerica era
necessario inserire complicate sequenze numeriche relative agli eventi da memorizzare e riprodurre.
Solo successivamente nacquero anche sequencer che permettevano di memorizzare una sequenza di note
semplicemente suonandola. Tuttavia tali macchine avevano una compatibilità limitata. Nonostante ciò strumenti
come questi ebbero un ruolo fondamentale nello sviluppo della musica elettronica degli anni ottanta anche perché
permettevano la composizione e l'esecuzione di un brano anche se non si era dei musicisti o se non si era dotati di
una grande tecnica esecutiva.

Sequencer Software
Con l'avvento negli anni ottanta del protocollo MIDI le possibilità dei sequencer si ampliarono: Il MIDI permetteva
di trasmettere 16 esecuzioni polifoniche contemporaneamente con tutto il relativo corredo di espressioni esecutive.
Ma questo di per sé grande salto di qualità fu ampliato da un altro salto di qualità che all'epoca la tecnologia stava
compiendo: il computer da pachidermico strumento sperimentale dalle prestazioni modeste acquisiva sempre
maggiori capacità di calcolo a costi e ingombri sempre minori, così da diventare sempre più un oggetto comune.
Aziende come Atari e Commodore producevano macchine a 16 bit alla portata del proprietario di uno "studio", e fu
così che il computer cominciò ad essere utilizzato come sequencer, grazie a opportuni software e alle interfacce
MIDI che lo mettevano in comunicazione con qualsiasi apparecchiatura compatibile.

Storia
Uno dei primi programmi scritti per l'uso fu Cubase, che permetteva di programmare attraverso MIDI le partiture per
i sintetizzatori e le drum machine, altri programmi permettevano cose simili, ma costringendo i compositori a
programmare ad un livello molto basso. Tuttavia qualcuno intuì le potenzialità di questo strumento e l'utilizzo del
computer come sequencer iniziò a prendere campo. Negli anni novanta si riscontra il successo dei "tracker", che per
la prima volta trasformano il computer in una vera e propria "DAW", grazie alla possibilità di lavorare non solo
comandando attraverso file MIDI e interfacce dei dispositivi esterni, ma anche assegnare agli stessi MIDI dei
campioni audio e manipolarli attraverso effetti audio, per poi salvare il tutto in file dal formato .mod. Sarà proprio
questa la strada che seguiranno i software di sequencing, con ancora Cubase in prima linea che nel 1996 lancia il
Cubase VST, una versione del già noto software che introduce due novità molto importanti, come il protocollo VST
che permette addirittura di comporre musica escludendo completamente tutti i dispositivi hardware esterni alla
DAW, grazie a una tecnologia che permetteva di assegnare a programmi MIDI degli strumenti ed effetti (questi
ultimi arrivati in un secondo momento con Cubase SX) sotto forma di plug-in. In ultimo la tecnologia ASIO che
aggira i driver nativi della scheda audio per offrire dei driver con valori di latenza molto bassi e permettere quindi al
compositore di lavorare in tempo reale sulle proprie produzioni suonando attraverso le MIDI keyboard o registrando,
e sentendo contemporaneamente i risultati.
Sia il protocollo VST che la tecnologia ASIO diventeranno un vero e proprio standard per un mercato sempre più
fiorente, fino ad arrivare a cavallo del XXI secolo in una situazione di grande offerta, con programmi che hanno fatto
dimenticare il lavoro per i primi dischi prodotti al computer, dove note e battute erano righe di comando. I sequencer
diventano sempre più potenti, versatili e hanno un'interfaccia di grande utilizzabilità anche per un pubblico
Sequencer 230

scarsamente specializzato, e sarà anzi questa fascia di pubblico quella investita da maggiori novità: tra programmi
come Magix Music Maker ed Ejay Dance che permettono un approccio amatoriale, nasce nel 2000 Fuity Loops della
Image-line, programma inizialmente freeware che faceva della semplicità e immediatezza il suo punto di forza. Il
programma risultava però anche molto grezzo, il che lasciava che il pubblico professionale preferisse altri applicativi
come il collaudatissimo Cubase o Logic, ma lo stesso "fruity" col tempo espanderà le sue funzioni fino ad arrivare
alla versione 8, con i consensi di artisti affermati come Tiga.
Diretto concorrente di Fruity Loops in questi anni sarà Reason che percorre una strada praticamente inversa rispetto
a quella seguita dagli altri sequencer: se infatti lo stesso Cubase ed altri nel tempo hanno seguito una linea ispirata
alla versatilità, il riutilizzo di parti di programma e soprattutto al distacco con le metodologie dell'era hardware,
Reason invece tenta di simulare i vecchi studi fatti di rack di sintetizzatori collegati attraverso fili, idea che alletta
molti addetti ai lavori che lo eleggono come software principale utilizzato nelle loro opere. Questo successo però
servirà anche a portare verso la definitiva affermazione di altre tecnologie: il ReWire (già sperimentato con un altro
pezzo di storia del sequencing come ReBirth) che permette di collegare in real-time diversi sequencer, il formato
audio "REX", ovvero praticamente un WAV contenente informazioni di suddivisione del file stesso in piccole parti
dette slices. Questi file vengono suonati attraverso il sampler di Reason Dr.Rex e hanno la grande proprietà di
adattarsi automaticamente alla velocità di riproduzione dell'audio, indipendentemente dal BPM del file originale.
Queste tecnologie diventano parte di un po' tutti i software in uscita, così come accaduto per ASIO e VST: e rendono
più potenti programmi già apprezzati per la loro semplicità come Sony Acid PRO e Ableton Live, nati per lo studio,
ma diventati poi gli strumenti preferiti rispettivamente per il montaggio audio e per le esibizioni dal vivo dei DJ,
grazie ad alcune innovazioni come il formato "acid loop" (ancora più potenti del REX, visto che sono dei
normalissimi file WAV) e un sistema di sequencing attraverso clips per Ableton Live. In questi anni il sequencer che
più attira l'attenzione di tutto il settore, tanto da rubare il posto storico di Cubase è Pro Tools: ovvero il concentrato
di tutte le tecnologie più avanzate (a partire da nuovi protocolli per i plug-in) e la novità di basarsi su un hardware
specifico e considerato di grande qualità prodotto dalla stessa casa madre del software, la Digidesign, buona parte del
mondo della produzione audio-video si affida ad esso diventando standard anche per una questione di portabilità
La maggior parte delle tastiere-workstation attuali è dotata di un sequencer midi che viene sfruttato spesso dal vivo
per riprodurre parti aggiuntive del brano musicale che il tastierista non potrebbe eseguire altrimenti.

Sequencer hardware e software


I sequencer hardware basati sulla tecnologia digitale sono stati molto diffusi fino all'avvento dei più flessibili
sequencer software, eseguiti come programmi informatici. Per la programmazione di sequenze complesse il
sequencer software ha potuto sfruttare le ampie interfacce grafiche, l'integrazione con i sintetizzatori virtuali,
l'espandibilità e la flessibilità di comunicazione del sistema operativo dei moderni computer. Nel corso degli anni la
comunicazione e l'interazione di sintetizzatori di diverse marche con i sequencer hanno richiesto l'adozione di un
protocollo standard che è universalmente riconosciuto con l'acronimo di M.I.D.I. (Musical Instruments Digital
Interface)
Malgrado la progressiva migrazione verso gli strumenti informatici, i sequencer digitali basati sull'elettronica sono
ancora indispensabili componenti per alcuni strumenti musicali come i sintetizzatori e le drum machine. È però un
dato di fatto che, progressivamente, soprattutto grazie alla maggiore velocità dei processori per pc, all'integrazione
AUDIO-MIDI e al continuo sviluppo di nuovi algoritmi per plug-in, l'utilizzo di sequencer software stia
soppiantando quello di apparecchiature hardware, permettendo il controllo di tutte le fasi della creazione artistica in
un vero e proprio "studio virtuale" in ambiente pc.
Sequencer 231

Voci correlate
• Cubase
• Synapse Orion
• Tenori-on
• home recording
• Musica elettronica

Collegamenti esterni
La lista seguente indica i principali produttori di sequencer software che sfruttano il computer e le interfacce MIDI
per la comunicazione con altri dispositivi MIDI:
• (DE, EN, JA) Cubase [1]
• (EN) Digital Performer [2]
• (EN) Emagic Logic [3]
• (EN) FL Studio [4]
• (EN) Reason [5]
• (EN) SawStudio [6]
• (EN) harmonySEQ [7]
• (EN) Seq24 [8]
• (EN) Sonar [9]
• (EN) Tracktion [10]
• (EN) Live [11]
• (EN) ThunderBeatD3 [12] - Windows

Note
[1] http:/ / www. steinberg. net
[2] http:/ / www. motu. com
[3] http:/ / www. emagic. de
[4] http:/ / www. flstudio. com
[5] http:/ / www. propellerhead. se
[6] http:/ / www. sawstudio. com
[7] http:/ / harmonyseq. wordpress. com
[8] http:/ / www. filter24. org/ seq24/
[9] http:/ / www. cakewalk. com
[10] http:/ / www. rawmaterialsoftware. com
[11] http:/ / www. ableton. com
[12] http:/ / www. thunderbeat. net/
Drum machine 232

Drum machine
Drum machine

Classificazione

Elettrofoni

Estensione

Strumenti correlati

Batteria, Percussioni

Musicisti

Disc jockey e i produttori di musica elettronica

Costruttori

Roland, Linn Instruments, Korg, Boss, Alesis etc.

Voci correlate

Sequencer, Campionatore, Sintetizzatore.

Una drum-machine è uno strumento


musicale elettronico progettato per eseguire
ritmi imitando il suono di tamburi e
strumenti a percussione. Prima dell'avvento
del MIDI le drum machine, oltre ad un
modulo di generazione del suono,
contenevano quasi sempre un sequencer
interno.

Storia

Una drum-machine, modello Roland TR-808


Le prime drum-machine
Le prime drum-machine venivano chiamate "rhythm machines" (macchine di ritmo). Nel 1930-31 venne realizzato
l'innovativo e complesso Rhythmicon, costruito da Leon Theremin su commissione del compositore Henry Cowell,
che voleva uno strumento con cui suonare melodie con molteplici unità ritmiche, basate su una serie di
Drum machine 233

armoniche superiori. Ciò era troppo difficile


da fare con le tastiere dell'epoca. Lo
strumento poteva produrre sedici ritmi
diversi, ognuno associato con un particolare
tono, entrambi in maniera individuale o in
qualsiasi combinazione, anche in massa, se
desiderato. Con la sua pubblica
presentazione, nel 1932, il Rhythmicon
venne accolto con considerevole interesse,
per poi essere presto messo da parte dal
Cowell e virtualmente dimenticato per
La Linn LM-1
decenni. La generazione seguente di
"rhythm machine" suonava solamente
ritmiche preprogrammate (preset), come il
mambo e il tango. Le prime ad essere
reperibili sul mercato erano incorporate
negli organi della fine dei '60, con
l'intenzione di accompagnare gli organisti.

La prima drum-machine autonoma, la PAiA


Programmable Drum Set, fu anche la prima
ad essere veramente programmabile. Venne
lanciata sul mercato nel 1969, ed era
venduta come un kit, con tanto di parti ed
istruzioni che il compratore avrebbe dovuto
Roland TR-909
usare per montare la macchina. Comunque
la prima drum-machine che ebbe un grande
successo fu la Rhythm Ace, rilasciata intorno al 1970 da una compagnia, la Ace Tone, in seguito conosciuta come
Roland. La Rhythm Ace consisteva solamente nei "presets", che l'utente non aveva modo di alterare. Negli anni '70
vennero poi distribuite un certo numero di drum-machine che giravano solo in "preset". La prima canzone pop di
successo fatta con l'ausilio di una drum-machine fu una cover di "Somebody's Watching You" dei Sly and the
Family Stone, registrata dalle Little Sisters. La canzone, prodotta e composta da Sly Stone, entrò nelle classifiche
R&B nel 1971. Il primo album in cui una drum-machine produceva tutte le percussioni fu "Journey" di Arthur
Brown/Kingdom Come, registrata nel novembre 1972 usando la Bentley Rhythm Ace.

Sintesi sonora
Alcune Drum machine sono definibili "drum synth", ovvero riproducono i suoni tramite un sintetizzatore analogico o
digitale, basato su forme d'onda semplici. Ad esempio, il suono di un rullante o delle maracas può essere creato con
lo scroscio di rumore bianco mentre per la grancassa si può utilizzare una sinusoide o altre onde base. Questo era il
sistema di produzione del suono più diffuso nelle prime drum machine, ciò significava che ogni modello aveva dei
propri suoni caratteristici, e l'effetto finale non era simile a quello degli strumenti a percussione reali. Questa
originalità del suono ha fatto sì che alcuni modelli siano diventati strumenti "di culto", ricercati da Disc jockey e i
produttori di musica elettronica e techno.
Altre Drum machine, in genere più moderne (ma non mancano esempi già nei primi anni '80, come la Linn LM-1),
affiancano alle capacità di sintesi anche quelle di campionamento e vengono per questo definite "drum sampler".
Possono essere dotate di ingressi audio per il campionamento diretto di strumenti a percussione reali, oppure possono
caricare campioni ("sample") creati in precedenza.
Drum machine 234

Drum-machine programmabili
Nel 1979 venne commercializzata la Roland CR-78. Era una delle prime "rhythm machine" programmabili, ovvero
che permettevano la composizione di propri ritmi. Lo stesso anno la Roland distribuì la Boss DR-55, la prima
drum-machine completamente programmabile, ad un costo inferiore ai 200$. La DR-55 aveva quattro suoni, e
memoria sufficiente per soli 16 ritmi. Oggi è una macchina molto arretrata, ma ai suoi tempi fu una conquista
relativamente economica.
Il Drum Computer Linn LM-1 (rilasciato nel 1980 al prezzo di 4000$) fu la prima drum-machine ad usare campioni
digitali. Ne vennero realizzati solamente 500 esemplari, ma la lista di coloro che l'hanno posseduta era
impressionante. La sua distintiva sonorità ha segnato il pop degli anni '80 e può essere ritrovata in dozzine di canzoni
di quell'epoca, tra cui "Dare" di The Human League, "The Anvil" dei Visage, "Dance" di Gary Numan e "Beatitude"
di Rick Ocasek. Anche Prince comprò una delle primissime LM-1, e la usò sulla maggior parte delle sue
registrazioni più popolari, tra cui "1999" e "Purple Rain".
Molti suoni dell'LM-1 erano composti di due chip che erano letti allo stesso tempo, e di ogni singolo suono era
possibile variare l'intonazione, con uscite individuali. A causa delle limitazioni di memoria, non era disponibile il
suono del crash, evidentemente più lungo di uno snare o di un cowbell, a meno che non si acquistasse un costoso
terzo componente. Una versione più economica dell'LM-1 venne rilasciata nel 1982 e chiamata LM-2 (o più
semplicemente "Linndrum"), al costo di circa 3000$. Non era possibile variare l'intonazione di tutti i suoni, rendendo
tale macchina meno desiderabile dell'originale LM-1. Il Linndrum includeva il crash come standard, e, come il suo
predecessore, era caratterizzato da chip intercambiabili. Ne possiamo ascoltare le sonorità su canzoni come "Rhythm
of Youth" dei Men without Hats e "Heartbeat City" dei The Cars.
A un certo punto si temette che l'LM-1 potesse togliere il lavoro ad ogni batterista di Los Angeles, e ciò porto i
migliori percussionisti della città (come ad esempio Jeff Porcaro) a comprarsi le proprie drum-machine e ad imparare
ad usarle per rimanere in attività.
Anche la famosa Roland TR-808 uscì nel 1980. All'epoca venne accolta con poco entusiasmo, visto che non aveva
suoni campionati digitalmente; si preferivano le drum-machine che usavano i campioni digitali. Comunque con il
tempo la TR-808 e il suo successore (la Roland TR-909 del 1983) divennero caratteristiche della fiorente musica
dance underground, techno e hip-hop, visto il basso costo (soprattutto rispetto alle macchine della Linn) e l'impronta
dei suoi suoni analogici. Le ritmiche della 808 e della 909 sono state usate molto anche nella pop music, e se ne
possono rintracciare le sonorità in un'infinità di canzoni anche ai nostri giorni.
Secondo le caratteristiche di ogni macchina, la programmazione può essere fatta in tempo reale: l'utente crea pattern
di percussioni premendo i bottoni come se stesse suonando un drum kit; oppure usando gli "step-sequencing": il
pattern viene costruito aggiungendo suoni singoli in certi punti, piazzandoli, come nella TR-808 e TR-909, su una
barra costituita da 16 step. Ad esempio un pattern dance generico come il 4 to the floor può essere fatto piazzando un
charleston chiuso (closed hit hat) sugli step 3, 7, 11 e 15, poi una grancassa (kick drum) su 1, 5, 7 e 13, e un clap su 5
e 13. Questo pattern può essere cambiato in vari modi per ottenere fill, break-down e altri elementi che il
programmatore cerca di arrangiare insieme.
Se la drum-machine ha una presa MIDI, allora si può programmare la macchina con un computer o un altro
dispositivo MIDI.
Drum machine 235

La conquista del MIDI


Visto che le prime drum-machine nacquero prima dell'introduzione del MIDI, nel 1983, si usavano molti metodi per
sincronizzare le proprie ritmiche agli altri dispositivi elettronici. Alcuni usavano un metodo di sincronizzazione
chiamato DIN-sync, o sync-24. Alcune di queste macchine emettevano anche con i voltaggi CV/Gate che potevano
essere usati per sincronizzare o controllare i sintetizzatori analogici e altra strumentazione musicale.
Le drum-machine possono essere programmate sia in tempo reale (l'utente ascolta un metronomo e suona seguendo
il suo tempo), sia in precedenza, specificando il preciso momento in cui verrà suonata ogni nota. Mettendo insieme
delle barre programmate diversamente possono essere create delle melodie più lunghe. I controlli delle macchine di
solito includono il tempo, l'inizio e lo Stop, il volume dei singoli suoni, tastiere per suonare specifici campioni, e
memoria per un certo numero di ritmiche preregistrate. La maggior parte delle drum-machine possono essere
controllate anche via MIDI.
Dal 2000 le drum-machine autonome sono diventate meno comuni, rimpiazzate in parte da campionatori più generici
controllati dai sequencer (incorporati o esterni), software di sequenziamento e di creazione di loop, workstation con
l'integrazione dei suoni di batteria e sequenziamento. La TR-808 ed altri modelli possono essere trovati in archivi
internet. Comunque le macchine tradizionali sono ancora costruite dalle compagnie come la Roland (ora la Boss),
Zoom, Korg e l'Alesis, di cui la SR-16 è ancora molto popolare.

Voci correlate
• Musica elettronica
• Electro
• Sintetizzatore
• Sequencer
• Vocoder

Altri progetti
• Wikimedia Commons contiene file multimediali su Drum machine

Collegamenti esterni
• (EN) QuickBeat Human Drummer V1 [1]
• (EN) Drum Machine Museum [2]
• (EN) Synthtopia tratta delle classiche Roland TR-909 [3] e Roland TR-808 [4].

Note
[1] http:/ / www. quickbeat. com/
[2] http:/ / www. drummachine. com/
[3] http:/ / www. synthtopia. com/ synth_review/ RolandTR-909. html
[4] http:/ / www. synthtopia. com/ synth_review/ RolandTR-808. html
Tracker 236

Tracker
Tracker è il termine generico per
indicare una classe di software che
serve a sequenziare musica; nella loro
forma più pura permettono all'utente di
impostare dei campioni sonori in base a
una linea di tempo su diversi canali
monofonici. L'interfaccia di un tracker è
generalmente numerica; le note
vengono inserite attraverso la tastiera,
mentre i parametri, gli effetti e altro
vengono inseriti in esadecimale. Una
musica completa è formata da diversi
piccoli "pattern" multi-canale collegati
assieme tramite una lista superiore.

Schermata di ModPlug Tracker

Caratteristiche
Alcuni elementi sono comuni ad ogni
programma di tipo tracker: sample
(campione), instrument (strumento),
note (chiamate anche rows), effetti,
tracce (o canali), pattern, e ordini.

Sample
I sample (campioni) sono dati sonori
che vengono riprodotti a varie
frequenze, in modo simile ai "sampler"
musicali. Il sample può avere un punto
di inizio ciclo e fine ciclo che rende
possibile la ripetizione infinita di una
porzione del campione. La ripetizione
può essere lineare, in modo che quando Schermata di Milky Tracker
il contatore raggiunge il punto di fine
ciclo ritorna al punto di inizio ciclo, e riprende a percorrere il sample, oppure a "ping-pong", come viene denominata
in Fast Tracker, in modo che quando il contatore raggiunge il punto di fine ciclo percorre il sample inversamente,
tornando al punto di inizio ciclo. In Fast Tracker esiste una caratteristica chiamata "crossfade" (dissolvenza a
Tracker 237

incrocio) che permette al ciclo di


diminuire di volume del sample. I
compositori possono anche registrare i
sample o caricarne di predefiniti,
manipolarli o crearli semplicemente
tracciando la forma d'onda nel riquadro
apposito. Ogni sample ha un nome
identificato personalizzabile dal
compositore, spesso veniva usato per
contenere commenti o il nome del
compositore.

Schermata di Cheese Tracker

Instrument
Gli instrument (strumenti) sono essenzialmente liste di sample con caratteristiche aggiuntive. Un musicista può
assegnare diversi sample a diversi toni del suono, eliminando quindi la possibilità di una riproduzione
qualitativamente scarsa se suonata ad un tono troppo alto o troppo basso (con il conseguente non-realismo di un vero
strumento a note più alte o basse). Gli instrument supportano diverse impostazioni riguardo al volume o all'effetto
stereofonico, ed anche un effetto vibrato. È possibile inoltre impostare diverse impostazioni generiche: accordo fine,
volume di default, panning di default e nota relativa a C-4 (Do sulla quarta ottava).

Nota
Le note specificano la frequenza di riproduzione del sample. Incrementando o decrementando la velocità di
riproduzione del campione digitale, il tono viene alzato o abbassato, simulando note strumentali (Do, Do#, Re,
ecc...). I tracker utilizzano la notazione internazionale per la scrittura delle note. Una nota viene rappresentata in
questo modo:

C#4 02 20 R11

Questo significa che la nota è C# (Do#) sulla scala cromatica, suonata sulla quarta ottava secondo la notazione
scientifica dei toni, usando lo strumento numero 02. La colonna successiva (non utilizzabile nel formato MOD) è
l'impostazione del volume in esadecimale da 00 a 40, e l'ultima colonna implementa una varietà di effetti applicabili
al suono, nel caso un "retrigger".

Effetto
Un effetto è una funzione speciale applicata a una nota particolare. Questi effetti vengono applicati durante la
riproduzione attraverso hardware o software. Effetti comuni dei tracker includono volume, portamento, vibrato,
"retrigger", e arpeggio.

Traccia
Una traccia (o canale) è uno spazio in cui un sample viene riprodotto. Anche se il tracker della Amiga prevedeva
solo quattro tracce, i tracker odierni possono mixare un numero virtualmente illimitato di tracce. Le tracce hanno un
numero fisso di "righe" su cui le note e gli effetti vengono scritti (molti tracker estendono le tracce in verticale). Le
tracce in genere sono composte da 64 righe, anche se si possono incrementare o decrementare a seconda dei gusti del
Tracker 238

compositore.

Pattern
I pattern sono essenzialmente "fogli" di musica dove il musicista è in grado di comporre la traccia musicale. Un
pattern è formato da diverse righe, in genere 64 che si estendono verticalmente ed è diviso in colonne o "tracce" che
si sviluppano orizzontalmente.Ogni riga può contenere un solo campione. Uno o più pattern possono essere
paragonati tranquillamente ad un giro armonico,all'interno del pattern la battuta viene visualizzata di default per
gruppi di 16 righe;1 riga rappresenta 1/16 di valore,4 righe 1/4 di valore e così via;di conseguenza (per la maggior
parte dei Trackers) un pattern formato di default da 64 righe contiene 4 battute in 4/4.

Ordine
Un "ordine" è la parte di una sequenza di pattern che definisce l'aspetto di una musica. I pattern possono essere
ripetuti diverse volte in ordine diverso e salvati per mantenere anche solo certi pezzi di musica.

Storia

Tracker su Amiga
Il termine tracker deriva da Ultimate Soundtracker, il primo programma di questo tipo, scritto da Karsten Obarski e
rilasciato nel 1987 per il Commodore Amiga, anche se il concetto generale della sequenziazione dei campioni può
essere ricondotto al Fairlight CMI del tardo 1970. Il primo videogioco a usare la musica da tracker è stato Amegas
(1987), un clone di Arkanoid per Amiga. La sua musica, composta da Obarski, è spesso considerata come la prima
MOD mai fatta ed è conosciuta dai fan della musica da computer "vecchio stile" (old-school).
Il Soundtracker di Karsten Obarski era stato pensato come un tool di sviluppo per la EAS, una compagnia di
sviluppo tedesca. Il programma di Karsten non fu mai un gran successo in quanto era molto limitato e poco
"user-friendly". In poco tempo, dopo la decisione da parte di Karsten Obarski di rendere commerciale il suo tracker,
cominciarono a circolare tracker di pubblico dominio molto simili nell'interfaccia e nelle funzionalità, come
MasterSoundTracker (la prima), ProTracker e NoiseTracker, che diventarono popolari.
I tracker furono molto popolari sui computer Amiga perché il formato da essi creato, a 4 strumenti, poteva essere
riprodotto con grande qualità sonora in quanto l'Amiga aveva quattro diversi canali audio per la riproduzione
indipendente di sample.
Il formato tracker funziona in modo diverso da come funziona il formato MIDI. Il formato tracker salva le note e gli
strumenti in modo digitale nel file, invece di basarsi, per la riproduzione degli strumenti, sui banchi presenti sulla
scheda di generazione sonora. Una musica da tracker incorpora tutti i dati della sequenza e i sample, dando quindi la
possibilità di creare brani anche lunghi e complessi, ma potendone comunque limitare le dimensioni a meno della
dimensione di un floppy disk Amiga (880K).
La maggior parte dei compositori con tracker proviene dai paesi nordici, come Svezia, Norvegia e Finlandia,
probabilmente perché il tracker era legato molto alla demoscene, che aveva preso piede in fretta in Scandinavia.
Dalla Scandinavia provengono anche molti sviluppatori di nuovi tracker: Scream Tracker era stato sviluppato in
Finlandia dalla Future Crew e Fast Tracker in Svezia dai Triton.
Tracker 239

Tracker su PC
Negli anni '90, con l'aumento delle prestazioni dei PC, uscirono i primi riproduttori di MOD per PC. Poiché il PC
non aveva 4 canali audio, la riproduzione poteva avvenire solo combinando i sample in modo da essere riprodotti dal
singolo canale audio dello speaker, con una lieve perdita di suono. Gli stessi inconvenienti si ebbero con le prime
schede audio Creative Sound Blaster che avevano un solo canale audio.
Nel 1993 venne introdotto Scream Tracker 3 e rese disponibile l'uso di 16 canali. Le schede audio compatibili
Creative risultarono limitate per cui i programmatori di Tracker iniziarono a puntare l'attenzione sulle schede audio
Gravis Ultrasound, dotate di 32 canali audio distinti nei quali potevano essere inseriti sample personalizzati. Anche
la demoscene spostò la sua attenzione nello sviluppo di demo per Gravis Ultrasound, ma non abbandonò le schede
Creative che potevano mantenere la loro fetta di competizione grazie anche all'aumento progressivo delle prestazioni
dei PC. L'attenzione verso i tracker e della composizione musicale andò comunque riducendosi negli anni successivi,
anche in concomitanza con la scomparsa, dal mercato, del Commodore Amiga.

Situazione attuale
Nonostante il decremento di popolarità negli ultimi anni, dovuto anche alla diffusione di formati digitali come mp3 e
wma che non contengono dati relativi alle sequenze di note della musica riprodotta, i tracker sono tuttora utilizzati.
Sono diversi i progetti attivi ispirati ai programmi progenitori sviluppati per la piattaforma Amiga o MS-DOS e
alcuni si basano direttamente sul codice sorgente di alcuni di essi.
Renoise, ModPlug Tracker, Skale Tracker, Milky Tracker ed altri offrono caratteristiche del tutto simili a quelle
offerte dai tracker originali, unitamente a caratteristiche comparabili a quelle dei software di concezione più
moderna, grazie alle quali questi cosiddetti tracker di terza generazione consentono di ottenere risultati professionali
in termini di qualità sonora.
In particolare Renoise, giunto in Gennaio 2009 alla versione 2.0, rappresenta la massima espressione di questa
tecnologia grazie al grande numero di innovazioni apportate al concetto di tracker, ed è probabilmente il software di
questa tipologia maggiormente utilizzato, come testimonia la dimensione della sua comunità online [1].

Formati dei file prodotti con tracker


• UST - Ultimate SoundTracker (4 canali, 15 samples a 8 bit, fu il primo tracker di moduli musicali, inventato da
Karsten Obarski)
• MST - Master SoundTracker (4 canali, 15 samples a 8 bit, fu la prima versione "hacked" di Ultimate
SoundTracker e diede la possibilità di salvare in un unico file i moduli musicali)
• MOD – Noise/ProTracker (4 canali, 31 samples a 8 bit, ProTracker ebbe la possibilità di impostare il ritmo della
canzone a BPM in un modulo musicale, cosa che nei suoi predecessori era possibile solo modificando il valore
"Speed")
• MED - MED/OctaMED (64 canali utilizzabili con campioni audio 8 bit, suoni sintetizzati e midi (campioni e
suoni sintetizzati solo con i primi 4 canali, midi su tutti i 64 canali), ?? samples a 8 bit, fu il primo tracker che
ebbe il supporto anche per suoni non-digitalizzati, ossia che non erano campioni audio ma suoni sintetizzati)
• STM – ScreamTracker 2 (4 canali, 31 samples a 8 bit, fu l'assoluto primo tracker per PC)
• 669 – Composer 669 / UNIS 669 (8 Canali, 64 samples a 8 bit, fu il primo tracker per PC ad utilizzare più di 4
canali ed il supporto per le schede Gravis Ultrasound)
• FAR – Farandole (16 canali, 64 samples a 8 bit, un'evoluzione del Composer 669 con il supporto a 16 canali)
• S3M – Scream Tracker 3 (16 canali, 99 samples a 8 bit ma poi è stato aggiunto il supporto non ufficiale per le
samples a 16 bit)
• MTM – Multi Tracker (32 canali, 63 samples a 8/16 bit, forse conosciuto per il supporto di samples a 16 bit, fu
usato pochissimo perché in quell'era già regnava Scream Tracker 3)
Tracker 240

• XM – Fast Tracker 2 (32 canali, samples a 8/16 bit, fu una rivoluzione nella scena tracking, per la capacità degli
"strumenti" per la prima volta)
• IT – Impulse Tracker (256 canali, samples a 8/16 bit, nonostante le molte caratteristiche in più di Fast Tracker,
non superò la sua popolarità, in quanto Fast Tracker era molto più apprezzato per la sua GUI ed il suo uso simile a
ProTracker)
• RNS, XRNS - Renoise (256 canali, samples fino ai 32 bit)

I tracker più conosciuti


• Ultimate SoundTracker
• Renoise
• ProTracker
• Scream Tracker
• Fast Tracker
• Impulse Tracker
• ModPlug Tracker
• Skale Tracker

Compositori che usano il software tracker


• Alexander Brandon (Siren) ha composto la musica di Unreal e Unreal Tournament
• Michiel van den Bos ha composto la musica di Unreal e Unreal Tournament

Altri progetti
• Wikimedia Commons contiene file multimediali su Tracker

Collegamenti esterni
• (EN) The MOD Archive [2]
• (EN) United-Trackers [3]
• (EN) The Karsten Obarski tribute project [4]
• (EN) Tracker Software [5] su DMOZ
• (EN) Modulez [6]
• (EN) Modplug [7]
• (EN) Traxernews [8]
• (EN) Nectarine [9]
• (EN) No Error [10]
Tracker 241

Note
[1] http:/ / www. renoise. com/ board/
[2] http:/ / www. modarchive. org
[3] http:/ / www. united-trackers. org/
[4] http:/ / membres. lycos. fr/ fonzo/ weneed. html
[5] http:/ / www. dmoz. org/ Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MOD/ Software/
[6] http:/ / metamacro. com/ modulez/
[7] http:/ / www. modplug. com/
[8] http:/ / www. traxernews. net/
[9] http:/ / www. scenemusic. net/
[10] http:/ / noerror. scene. org/

Musica tracker
La musica tracker è un genere musicale diffusosi brevemente a metà degli anni novanta, seguendo l'espansione del
formato musicale per computer .mod, che permetteva attraverso i famosi software detti tracker (spesso distribuiti
gratuitamente) di comporre molto facilmente pezzi molto vicini a generi musicali come la techno.
I maggiori compositori del genere provenivano dai paesi scandinavi (Norvegia, Svezia, Finlandia).
I file ".mod" servivano molto spesso a distribuire pezzi "famosi" in bizzarre versioni karaoke, su cui si basava tutta la
popolarità del formato. Con lo sviluppo della tecnologia e la creazione di formati più all'avanguardia per la
diffusione di musica (come gli MP3), il fenomeno si spense molto velocemente.
Il formato originale .mod ha subito evoluzioni con il passare del tempo e con la creazione di software tracker più
avanzato, con vari formati, i più conosciuti dei quali sono .s3m (Scream Tracker), .xm (Fast Tracker) e .it (Impulse
Tracker), che forniscono diversi miglioramenti rispetto al formato originale. Questi formati sono stati moderatamente
popolari nella creazione di musica per videogiochi, tra cui molti giochi per Amiga, e giochi prodotti da Epic Games,
come Unreal, Unreal Tournament, Deus Ex, e Unreal Tournament 3.
Loop (musica) 242

Loop (musica)
In musica, un loop è un sample, cioè un campionamento di un suono registrato e ripetuto, tramite l'utilizzo di
specifici nastri, effetti audio, un campionatore o dei software appositi.
Nel libro del produttore discografico e remixer Erik Hawkins, un loop viene definito come "il campionamento di una
performance che è stato mixato in modo da ripetersi senza interruzione quando la traccia è suonata dall'inizio alla
fine".

Storia
I pioneri nell'uso dei loop furono i musicisti Pierre Henry, Edgard Varèse e Karlheinz Stockhausen. Quest'ultimo
influenzò i Beatles i quali a loro volta utilizzarono i loop nel loro cosiddetto periodo psichedelico rendendo così i
sample (loop) noti all'orecchio del grande pubblico.

Il "looping" oggi
Risalgono ai primi anni novanta degli strumenti digitali per il cosiddetto live looping, cioè la registrazione dal vivo di
loop da poter eseguire al momento negli show.
Al giorno d'oggi il looping, tecnica largamente usata in generi come rap, hip hop, drum n bass e dub, è portato avanti
grazie a software appositi, di cui alcuni dei più usati sono Pro Tools, Cubase, Sound Forge, GarageBand, FL Studio.
Dispotivi fisici per i loop oggi si trovano sotto forma di rack unit, o sono integrati nelle pedaliere degli effetti.
Esistono dei festival musicali dedicati interamente al looping, come "Loopstock", che si tiene dal 2002 in California,
mentre in Italia il primo festival internazionale dedicato al Live Looping [1] si è tenuto solo nel giugno 2009.

Bibliografia
• (EN) Daniel Duffell, Making Music with Samples: Tips, Techniques, and 600+ Ready-to-Use Samples, 2005,
ISBN 0-87930-839-7
• (EN) Erik Hawkins, The Complete Guide to Remixing: Produce Professional Dance-Floor Hits on Your Home
Computer, 2004, ISBN 0-87639-044-0

Voci correlate
• Musica elettronica

Note
[1] http:/ / www. livelooping. it
Plugin (musica) 243

Plugin (musica)
Un plugin nell'informatica musicale è un componente aggiuntivo che, utilizzato in un programma di produzione
audio - video, permette di aggiungere effetti audio o generare nuovi suoni. Il termine deriva dall'inglese plug, ovvero
spina o connettore: si riferisce al fatto che il plugin viene virtualmente inserito o attivato nel programma che lo
utilizza.
In pratica si tratta di un modulo contenente una serie di istruzioni di elaborazione o di generazione di segnali, che
non ha funzionamento autonomo bensì deve essere richiamato da un'applicazione "host", che può essere un
sequencer, un software di produzione audio/video, un audio editor oppure un dispositivo hardware autonomo. Alcuni
plugin vengono forniti anche in versione stand-alone, ovvero incorporati in un programma eseguibile che ospita e
attiva il plugin senza necessità di un ulteriore host. Possono essere controllati con mouse e tastiera di un computer,
ma anche con unità di controllo MIDI come tastiere, pad percussivi, chitarre MIDI, pedali, controller di vario tipo
(rotativi, a fader, ecc.), che inviano il segnale MIDI all'host il quale a sua volta lo indirizza al plugin desiderato.

Categorie di plugin
I plugin audio si possono suddividere in due categorie principali:
• effects detti anche "effetti software" o "effetti virtuali", include tutti i plugin che accettano un segnale audio in
ingresso e lo restituiscono modificato: Riverberi, Delay, Distorsori, Chorus, Equalizzatori, simulatori di
amplificatori e altro.
• instruments detti anche "strumenti software" o "strumenti virtuali": include i plugin che accettano un segnale
MIDI in ingresso e in base a quello restituiscono un segnale audio: il segnale MIDI è generalmente un segnale di
nota, e il segnale audio restituito è il suono sintetizzato o campionato corrispondente alla nota suonata. I plugin
appartenenti a questa categoria sono generalmente delle riproduzioni software di strumenti reali: pianoforti,
organi, percussioni, sintetizzatori analogici vintage, fiati, archi, chitarre, voci, cori, sezioni di orchestra,
didjeridoo.
questa classificazione ha solo un significato di esempio, in quanto la flessibilità dei linguaggi di programmazione e
degli standard di plugin permettono di ottenere anche dei plugin di collocazione intermedia fra le due categorie (ad
es. sintetizzatori pilotati da segnali audio).

L'orchestra in un computer
L'ampia e rapida diffusione dei plugin, unitamente all'incremento delle performance dei personal computer, ha
favorito l'informatizzazione musicale di massa e la nascita di nuove forme di produzione musicale. Con un comune
computer, un ristretto numero di plugin e un host adatto (entrambi reperibili anche gratuitamente) è infatti possibile
disporre di capacità di elaborazione e generazione sonora virtualmente illimitate: inoltre strumenti ed effetti software
possono sostituire gli omologhi reali, con conseguente riduzione dell'investimento necessario in termini di denaro e
soprattutto di spazio. In un unico computer possono essere caricati plugin che riproducono tonnellate di strumenti ed
effetti software, e può essere agevolmente trasportato in una sala prove, in uno studio di registrazione e sul palco di
un concerto per una esibizione dal vivo. Il computer diventa quindi il nuovo strumento musicale, espandibile tramite
il software, e suonato tramite periferiche MIDI.
Plugin (musica) 244

Standard di plugin
Esistono diversi standard di plugin, fra i quali i più diffusi sono:
• VST (standard ideato da Steinberg Media Technologies GmbH, la software house che ha realizzato il sequencer
Cubase)
• Direct-X o DX (disponibili nel sistema operativo Microsoft Windows)
• Audio Units o AU (disponibili nel sistema operativo Apple MacOSX)
• RTAS (per sistemi Pro Tools)
• TDM (anch'essi usati da Pro Tools, con la differenza che non sfruttano la potenza di calcolo della CPU del
computer ma di DSP aggiuntivi, implementati in schede di espansione)
Numerosi plugin sono disponibili per più di uno degli standard sopraelencati, per consentirne l'uso con più
programmi e in più piattaforme, e quindi favorirne la diffusione commerciale: dal punto di vista della
programmazione, l'algoritmo del plugin rimane lo stesso, cambia la "spina" del plugin. Esistono, inoltre, degli
adattatori software detti wrapper che permettono l'utilizzo di Plug-in VST con host DX o viceversa.

Modalità di generazione sonora


I plugin di tipo instruments annoverano diversi tipi di generazione sonora, tra i quali:
• librerie di campioni: il plug-in è corredato da una libreria di suoni campionati dallo strumento reale. Per ogni nota
dello strumento, e per diverse intensità ed espressioni della stessa nota, gli sviluppatori del plug-in registrano vari
campioni. Questa tecnica permette una grande fedeltà nella riproduzione del suono dello strumento, ma di contro
è inficiata da una scarsa flessibilità nella possibilità di variare il suono a posteriori, da parte dell'utilizzatore del
plugin. Infine, una libreria di suoni di alta fedeltà può richiedere molti giorni di installazione, e occupare svariati
GigaByte nell'hard disk dov'è installata e nella memoria RAM del computer in che sta riproducendo i suoni.
• Sintesi musicale a modelli fisici: il segnale viene generato da una catena di algoritmi, ciascuno che simula una
fase della generazione sonora nello strumento reale o che riproduce il comportamento di un componente dello
strumento reale. Ad esempio, nella definizione delle caratteristiche timbriche del suono di un clarinetto vengono
coinvolti fattori quali la durezza dell'ancia, le caratteristiche del soffio, la durezza del legno dello strumento: una
sintesi a modelli fisici del clarinetto, per essere maggiormente accurata, dovrà prevedere una modellazione
matematica di ciascuno di questi elementi. Maggiore è la quantità di parametri considerati dal modello fisico,
maggiore può essere la verosimiglianza del suono sintetizzato con quello reale, maggiore la complessità di
utilizzo, maggiore il carico di lavoro della CPU del computer.
• dei sistemi ibridi fra la Sintesi musicale a modelli fisici e le librerie di campioni permettono di combinare i
vantaggi di entrambe le tecniche riducendone gli svantaggi. Un buon campionamento di base rende superfluo la
modellazione di tutti i componenti coinvolti nella generazione sonora e quindi riduce il numero di parametri sui
quali il musicista deve intervenire durante l'esecuzione; d'altro canto la Sintesi musicale a modelli fisici permette
di aggiungere flessibilità e vitalità al suono campionato, riproducendo comportamenti dello strumento reale che
aiutano nel realismo del suono.
Plugin (musica) 245

Voci correlate
• Hard disk recording
• Sequencer
• VST
• Plugin (informatica)

Virtual Studio Technology


Virtual Studio Technology è uno standard di plugin musicali ideato da Steinberg, che ha inizialmente
implementato la tecnologia nel suo prodotto di punta Cubase.
Lo standard VST è stato lanciato nel 1997 ed ha avuto fin dall'inizio un'ampia diffusione grazie ad una relativa
semplicità di realizzazione di plugin e alla presenza di un valido supporto per il programmatore costituito da un kit di
sviluppo software reso pubblico gratuitamente: un gran numero di sviluppatori ha iniziato a rilasciare plugin anche
gratuiti, e di buon livello.
La diffusione di massa dei plugin è coincisa con l'introduzione di versioni di Cubase con funzionalità di hard disk
recording a basso costo: si tratta di un'evoluzione del sequencer MIDI degli anni '80, che oltre alle tracce MIDI è in
grado di gestire simultaneamente anche tracce audio digitali. Contemporaneamente sul mercato iniziavano a
comparire un'ampia gamma di interfacce audio multicanale anche di elevata qualità. Questo ha significato la quasi
definitiva sostituzione nello studio di registrazione del classico registratore a bobine con il personal computer,
trasformatosi in Workstation Audio Digitale - DAW, con il conseguente moltiplicarsi di piccoli studi casalinghi
definiti "home studio", e in genere di piccoli studi definiti "project studio" dove realizzare con un buon livello
qualitativo anche singole fasi della produzione musicale.
Questi eventi hanno costituito una rivoluzione nel settore musicale, infliggendo un duro colpo al mercato
dell'hardware musicale: alcuni produttori di strumenti e dispositivi musicali reali, anziché soccombere, hanno invece
"cavalcato" l'onda dell'informatizzazione musicale e collaborato con sviluppatori per realizzare degli omologhi
software dei propri prodotti di punta.

Collegamenti esterni
• Steinberg [1] - Gli sviluppatori dello standard VST.
• KVR Audio [1]
• Plugin (informatica)

Note
[1] http:/ / www. kvraudio. com/
Virtual Instruments 246

Virtual Instruments
I Virtual Instruments sono "strumenti virtuali" disponibili in diversi formati a seconda del sequencer software
utilizzato. Sono disponibili sul mercato i più svariati tipi di strumenti virtuali: pianoforti, sintetizzatori, strumenti a
fiato ecc. Solitamente i Virtual Instruments utilizzano sorgenti MIDI come segnale di ingresso e generano il suono in
uscita a seconda dello strumento utilizzato. L'interfaccia grafica dei Virtual Instruments permette i vari settaggi
relativi allo strumento caricato. Se ad esempio stiamo utilizzando un sintetizzatore possiamo regolare oscillatori,
filtri e altri controlli presenti anche nello strumento reale.
Nei software di registrazione è solitamente possibile caricare più Virtual Instruments contemporaneamente in modo
da avere più suoni e strumenti a disposizione. Da tenere in considerazione il carico di memoria RAM e l'utilizzo
della CPU. Alcuni Virtual Instruments possono essere molto pesanti e rallentare il sistema.

Orchestrazione virtuale
L'orchestrazione virtuale è una procedura, assistita tramite computer, che permette di ricreare virtualmente, con
buona approssimazione il suono e le articolazioni di tutti gli strumenti reali ma non solo. Permette inoltre di
umanizzare un'esecuzione sintetica dal punto di vista dell'esecuzione strumentale e dal punto di vista
dell'ambientazione spaziale ed ambientale. Sfrutta appieno le possibilità del MIDI, fondendole con le potenzialità dei
plug-in instruments (VST) inventati nella metà degli anni Novanta dalla software house tedesca Steinberg.

Libri
• "Una Vera Orchestra Virtuale - Creare la propria musica con l'ausilio del pc [1] ISBN 978 1 84799 372 4 by
Salvatore Livecchi 2008. Edizioni Lulu.
• "The Guide to Midi Orchestration [2] ISBN 0-9646705-3-4 by Paul Gilreath 2004. Edizioni Musicworks.

Note
[1] http:/ / www. lulu. com/ content/ 1623852
[2] http:/ / www. amazon. com/ Guide-MIDI-Orchestration-Paul-Gilreath/ dp/ 0964670534
Cog (software) 247

Cog (software)

Cog

Cog 0.07
Sviluppatore Vincent Spader

Ultima versione 0.07 (23 dicembre 2007)

SO Mac OS X 10.4+ (Tiger e superiori)

Genere Lettore multimediale

Licenza GNU GPL

Lingua ?

Sito web [1]


cogx.org

Cog è un media player open source per il sistema operativo Mac OS X. Ha un'interfaccia semplice e leggera, e
supporta molti formati audio.

Caratteristiche

Generali
• riproduzione continua (gapless)
• supporto per Last.fm
• supporto per Growl
• scorciatoie da tastiera globali
• pannello File
• pannello Info
• riproduzione casuale
• Aggiornamento automatico
Cog (software) 248

Formati audio
• AAC
• AIFF
• Apple Lossless
• Free Lossless Audio Codec (FLAC)
• Monkey's Audio
• MP3
• Musepack
• Ogg Vorbis
• Shorten
• WavPack
• WAV
• Musica per video game nei formati (NSF, GBS, GYM, SPC, VGM, HES, e altri)
• formati tracker (IT, S3M, XM, MOD)
• cue sheet

Formati di Playlist
• M3U
• PLS

Formati di Metadata
• commenti Vorbis
• ID3 v1.0, 1.1, 2.3+
• tag FLAC
• tag APEv1 e APEv2

Lingue
• Inglese
• Francese
• Tedesco
• Greco
• Ebraico
• Svedese
• Catalano
• Olandese
• Russo
• Spagnolo
• Cinese
Cog (software) 249

Voci correlate
• Lista dei media player

Collegamenti esterni
• Sito ufficiale del progetto Cog [1]
• Forum su Cog [2]
• Pagina di Cog su SourceForge [3]

Note
[1] http:/ / cogx. org/
[2] http:/ / cogx. org/ forums/
[3] http:/ / sourceforge. net/ projects/ cogosx/

Podcasting
Il podcasting è un sistema che permette di scaricare in modo automatico documenti
(generalmente audio o video) chiamati podcast, utilizzando un programma ("client")
generalmente gratuito chiamato aggregatore o feed reader.
Un podcast è perciò un file (generalmente audio o video) in internet e messo a
disposizione di chiunque si abboni ad una trasmissione periodica. È scaricabile
automaticamente da un apposito programma, chiamato aggregatore, e si basa sui feed
RSS. Pittogramma dei feed RSS.
Nel linguaggio comune podcast è utilizzato anche per definire la radio in rete. Sono
numerosi i siti che permettono di ascoltare file audio di artisti partendo dal titolo di un
brano. Vengono create delle playlist di artisti correlati in base alle selezioni degli utenti.

Etimologia
Podcasting è un termine basato sulla fusione di due parole: iPod (il popolare riproduttore
di file audio MP3 di Apple), e broadcasting. Il termine nacque quando l'uso dei feed RSS
divenne popolare per lo scambio di registrazioni audio su computer, palmari, lettori di
musica digitale e anche telefoni cellulari. Un pittogramma dei
podcast.
Pare che il termine podcasting sia comparso per la prima volta il 12 febbraio 2004 in un
[1]
articolo del giornalista Ben Hammersley sul The Guardian intitolato " Audible revolution ". Uno dei pionieri di
questo sistema è invece Adam Curry, Video Jockey della MTV americana.
Il nome fu primariamente associato al solo scambio di file audio, ma l'uso delle tecniche RSS al fine di condividere
file video, iniziate già dal 2001, fece estendere il suo significato anche allo scambio dei file video, pur non avendo
alcuna relazione etimologica con essi.
Nel dicembre 2005, il dizionario americano New Oxford ha dichiarato Podcasting «parola dell'anno», definendo il
termine come «registrazione digitale di una trasmissione radiofonica o simili, resa disponibile su internet con lo
scopo di permettere il download su riproduttori audio personali».
Il termine è, in realtà, improprio, visto che né per il podcasting, né per il successivo ascolto dei file sono strettamente
necessari l'utilizzo di iPod o una trasmissione tradizionale (broadcasting). L'associazione con iPod nacque
semplicemente perché in quel periodo il lettore audio portatile ideato e prodotto da Apple era estremamente diffuso.
Podcasting 250

Il termine è stato spesso criticato poiché darebbe meriti ingiustificati alla Apple nello sviluppo della tecnologia del
podcasting. Per questo motivo si è cercato di renderlo "neutro", utilizzandolo come acronimo di "Personal Option
Digital casting" (il primo ad averlo fatto sarebbe Doc Searls nell'articolo " DIY Radio with PODcasting [2]"). La
confusione sull'origine del termine si è perciò diffusa, anche alcune importanti testate giornalistiche italiane come Il
Corriere della Sera, La Repubblica, la RAI, hanno commesso l'errore di trovare l'etimo nel suddetto acronimo: è
invece ormai internazionalmente accettato che il termine derivi dal nome del supporto della Apple.

Cos'è e come funziona


Per ricevere un podcast sono necessari:
• un qualsiasi supporto connesso ad internet (un PC, ad esempio)
• un programma client apposito (spesso gratuiti)
• un abbonamento presso un fornitore di podcast (spesso gratuiti)
Un podcast funziona alla stregua di un abbonamento ad una pubblicazione periodica, utilizzando una metafora: il
supporto connesso ad internet è la cassetta postale, il client è il postino, e il fornitore di podcast è la casa editrice.
L'abbonato riceve regolarmente le pubblicazioni, e può ascoltarle o vederle nella modalità e nei tempi che gli sono
più congeniali.
Per fruire del podcasting è innanzitutto necessario installare un semplice software gratuito (per esempio iTunes,
Juice [3] o Doppler), quindi selezionare i podcast di interesse. Il software, con la frequenza decisa dall'utente, si
collega ad internet e controlla quali file sono stati pubblicati dai siti ai quali si è abbonati: se ne trova di nuovi, li
scarica. La notifica della pubblicazione di nuove edizioni avviene tramite un feed RSS scambiato tra il sito del
produttore e il programma dell'utente.
I podcast potranno poi essere ascoltati in ogni momento poiché la copia del file, una volta scaricata
automaticamente, rimane sul computer dell'abbonato. In tal modo non si rende necessaria alcuna operazione attiva da
parte dell'utente. Inoltre, a differenza delle radio on line in streaming, i podcast non richiedono necessariamente un
collegamento ad internet durante la fase di ascolto, ma solo in fase di download: ciò permette di fruire dei podcast
anche off-line o in condizioni di mobilità.

Differenze tra podcasting e streaming


Qualche definizione:
• Broadcast indica una trasmissione radio/tv tradizionale, ascoltabile ad una determinata ora decisa dall'emittente.
Quindi sincrona e on-line.
• Streaming indica una risorsa audio/video fruibile in qualsiasi momento tramite un collegamento internet al sito
dell'emittente e un dispositivo per la riproduzione del flusso audio/video digitale. Si possono avere le due
modalità di streaming in memoria (video/audio on demand), che è asincrona e on-line, e di streaming dal vivo
simile alla trasmissione radio/tv tradizionale, che è sincrona e on-line.
• Podcasting indica una risorsa audio/video fruibile in qualsiasi momento, scaricata automaticamente in formato
mp3 (o altro) dal sito dell'emittente e salvata nella memoria di un dispositivo per la riproduzione. È quindi:
asincrona, off-line e nomadica.
Iscriversi ad un podcast permette all'utente di ottenere file che possono essere riprodotti anche off-line, e di disporre
di una grande quantità di fonti da cui attingere. Al contrario il broadcast offre una sola trasmissione alla volta, e
obbliga ad essere sintonizzati ad una determinata ora.
L'ascolto di audio in streaming su internet può eliminare l'obbligo di sintonizzazione in un determinato momento
dato dalle trasmissioni tradizionali, come accade nel caso del video/audio on demand, ma offre comunque una sola
risorsa alla volta ed obbliga l'utente ad essere connesso ad internet durante la riproduzione del file. La capacità di
ricevere automaticamente pubblicazioni da fonti multiple è proprio uno dei punti di forza che distinguono il
Podcasting 251

podcasting dalle trasmissioni tradizionali, e dalle trasmissioni in streaming.


Nonostante i programmi in streaming - alla stregua delle trasmissioni radio tradizionali - possano essere più o meno
facilmente registrati dal ricevente, la loro natura transitoria li distingue nettamente dai programmi podcast, che
invece arrivano già in formato compresso sul proprio computer (è la stessa differenza che c'è tra ascoltare un brano
alla radio e scaricarlo in mp3): questa rappresenta una diversità considerevole anche da un punto di vista legale, ed
ha infatti suscitato accese polemiche.

Diffusione del podcasting


L'uso del podcasting si è nel tempo enormemente diffuso, raggiungendo livelli di pubblico tali da indurre la stessa
Apple ad investire intensamente nel settore, offrendo nel firmware dell'iPod una voce di menù dedicata al
podcasting, con oltre 3000 podcast gratuiti presenti nell'iTunes Store (voce tra l'altro presente anche in alcuni
smartphone Nokia).
Molti celebri artisti (come Jovanotti, Max Pezzali, Fiorello, Bruce Springsteen, ecc.) hanno creato un proprio podcast
dove parlano di sé fra canzoni e vita privata.
Anche il mondo del giornalismo, della politica e della comunicazione si è interessato al podcasting. In Italia, ad
esempio, RadioRAI offre le proprie trasmissioni come podcast; il quotidiano La Repubblica distribuisce via
podcasting le trasmissioni di "Repubblica Radio"; molte altre emittenti radiofoniche nazionali (tra le più importanti:
Radio DeeJay, Radio 105, Radio 24, Radio RockFM, Radio Popolare) hanno iniziato a proporre le proprie
trasmissioni con la tecnologia del podcasting. Una ricca raccolta di eventi politici e documenti originali e integrali in
podcast si trova su radio Radicale, più il suo Archivio Storico. Anche il mondo accademico e quello delle istituzioni
hanno dimostrato interesse per questo metodo di diffusione di contenuti multimediali.
La maggioranza dei podcast attivi, comunque, non fa parte del circuito a pagamento o della grande editoria, ma è
costituito dal cosiddetto "movimento indipendente", formato da semplici utenti che per passione diffondono i propri
contenuti.
A dimostrazione della rapida ascesa dell'utilizzo del termine podcasting basti pensare ai risultati mostrati da Google
per questo termine. Il 28 settembre 2004, cercando podcasting su Google, erano presenti solo 24 risultati. Tre giorni
dopo, il 1 ottobre 2004, erano già 2750, e il 18 ottobre 2004 erano già più di 100.000.

Bibliografia
• Marco Traferri. Podcasting che funziona, ed. Apogeo, 2006, ISBN 88-503-2459-6
• Alessandro Venturi. Come si fa un podcast, ed. Tecniche Nuove, 2006, ISBN 88-481-1947-6
• Stefania Boiano e Giuliano Gaia. Il tuo podcast, ed. FAG, 2006, ISBN 88-8233-530-5
• Michele Faggi. Musica e radio online: realizzare un podcast partendo da zero, ed. RGB, 2006, ISBN
88-6084-012-0

Altri progetti
• Wikimedia Commons contiene file multimediali su Podcasting
Podcasting 252

Collegamenti esterni
• podcasting [4] su Open Directory Project ( Segnala [5] su DMoz un collegamento pertinente all'argomento "podcasting")
• Elenco dei Podcast Italiani suddivisi per categorie [6]
• Elenco dei Podcast Italiani Indipendenti [7]
• Raccolta di domande e risposte sul podcasting [8]
• Edidablog: Progetto del Ministero della Pubblica istruzione per tutti gli insegnanti che voglio fare podcast in
classe [9]
• (EN) Siti sul podcasting [10] (da Google Directory)
• Guida al podcasting [11] (da HTML.it)
• Guida su come creare e pubblicare un Podcast (da pc-facile.com) [12]
• Normative SIAE per il podcasting radiofonico [13]
• Elenco dei Podcast Italiani suddivisi per categorie [14]
• Definizione di podcasting: intervista televisiva [15]
• Interviste televisive sul podcasting nella didattica [16]

Note
[1] http:/ / technology. guardian. co. uk/ online/ story/ 0,3605,1145689,00. html
[2] http:/ / www. itgarage. com/ node/ 462
[3] http:/ / juicereceiver. sourceforge. net/
[4] http:/ / www. dmoz. org/ Computers/ Internet/ On_the_Web/ Podcasts/
[5] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Internet/ On_the_Web/ Podcasts/
[6] http:/ / www. audiocast. it/ podlist/
[7] http:/ / www. gunp. it/
[8] http:/ / www. digitalino. com/ toilettecast/ faq/
[9] http:/ / www. edidablog. it/
[10] http:/ / www. google. com/ Top/ Computers/ Internet/ On_the_Web/ Podcasts/
[11] http:/ / basic. html. it/ guide/ leggi/ 130/ guida-podcasting/
[12] http:/ / www. pc-facile. com/ guide/ creare_pubblicare_podcast/
[13] http:/ / www. fabriziomondo. com/ blog/ 2007/ 08/ 20/ normative-siae-per-il-podcasting-radiofonico-in-italia/
[14] http:/ / www. podcast. it/
[15] http:/ / www. youtube. com/ watch?v=Tm-yK2ROJeo
[16] http:/ / www. youtube. com/ watch?v=vTvhmBEEoO8
Masterizzazione 253

Masterizzazione
La masterizzazione è il processo di scrittura su un supporto di memorizzazione, eseguito tramite masterizzatore.
I file vengono scritti in maniera permanente o semipermanente su supporti ottici quali CD o DVD. Nel caso di
memorizzazione non permanente si parla di ReWriting.

Processo di masterizzazione
Per creare un disco ottico, il primo passo è creare una immagine del disco con un file system completo per il CD, e
quindi masterizzarla (bruciarla, in linguaggio tecnico) sul disco con un programma specifico. L'immagine è un
singolo file, memorizzato nel disco rigido, che contiene tutte le informazioni da scrivere sul disco.
Molti programmi creano l'immagine e la masterizzano in un'unica operazione, e per questo gli utenti finali non
riconoscono la distinzione. Comunque, la creazione di un'immagine di un disco è un processo che richiede tempo,
memoria, sia sull'HD che di CPU. La maggior parte dei programmi di masterizzazione eliminano l'immagine del
disco -dopo la masterizzazione, anche se l'utente può impedire che il programma cancelli l'immagine del disco, per
crearne altre copie senza doverne ricostruire l'immagine ogni volta.
Ci sono anche programmi che non scrivono tutto il disco in un solo passaggio, ma consentono di scrivere una parte
alla volta, consentendone l'utilizzazione come un floppy disk.
Alcuni OS riconoscono un'immagine come un filesystem, e possono essere montate come dei normali dischi. Questa
caratteristica può essere usata per testare una immagine prima di masterizzarla, in modo da controllare se vi siano
errori.

Sessioni
I dati su un disco vengono scritti in sessioni. Ogni sessione consiste in un lead-in, contenente la Tavola dei contenuti,
l'area in cui sono scritti i dati, e il lead-out.
Il numero di tracce massimo per CD (non intese come tracce musicali, cioè brani staccati) è 99. Per ogni sessione
deve essere scritta una traccia. Le tracce sono localizzate nella parte in cui vengono scritti i dati.
Nei dischi multisessione, le aree Lead-in contengono l'indirizzo di memoria della parte finale dell'ultima sessione. La
tavola dei contenuti scritta nell'ultima sessione serve per accedere alle tracce.

Tavola dei contenuti


La Tavola dei contenuti (TdC) è l'area dove viene scritta la posizione dei dati sul disco. È posizionata nell'area
iniziale del disco ed ha la stessa funzione della tabella delle partizioni su un Hard Disk.
Negli schemi key2Audio il danneggiamento o l'anormale scrittura della TdC è usata (e abusata) come protezione per
la copia dei CD.

Lead-IN
L'area di lead-in di un CD è nella parte iniziale del supporto.
Contiene la TdC, e l'indirizzo di memoria del prossimo spazio libero per far partire il CD, a meno che il disco non sia
chiuso o non sia multisessione.
Masterizzazione 254

Traccia
Una traccia è una continuazione di settori su un disco contenenti dati. Ogni sessione può contenere una o più tracce,
sia dati che audio.

Lead-OUT
L'area di Lead-OUT è situata nella parte finale della sessione di un disco. L'area di Lead-OUT viene scritta quando
viene terminata la sessione di masterizzazione del disco. Il primo Lead-OUT occupa 13 MB circa, ogni settore di
Lead-OUT seguente occupa 4 MB.

Hardware
La masterizzazione può essere effettuata solo su computer dotati di masterizzatore. Comunque esistono dispositivi
stand-alone come videocamere che possono anche essere usati come masterizzatori esterni.

Software
Per masterizzare dei dischi ottici vengono richiesti dei programmi di masterizzazione. All'interno di molti sistemi
operativi moderni, tra cui Windows XP e Vista, alcune distribuzioni Linux e Mac OS X è implementata una
caratteristica per masterizzare CD senza ricorrere a software di terze parti.

File Systems
I file systems per i dischi sono: ISO-9660 (anche detto semplicemente "ISO") e Universal Disk Format (UDF). Il
formato ISO è più comune per CD, mentre l'UDF lo è per i DVD.

ISO
ISO 9660 è un formato principalmente usato sui CD. L'ISO 9660 può essere esteso a Joliet, Rock Ridge, Estensioni
Amiga per Rock Ridge, El Torito, o le estensioni Apple ISO9660. Il File System Joliet è stato creato dalla Microsoft.
Con questo tipo di FS è possibile avere nomi che superano la soglia normale. Rock Ridge è invece un FS
proprietario, con più restrizioni sui nomi, e altro. Le estensioni Amiga consentono l'uso di attributi e commenti per i
computer Amiga. El Torito crea dei CD avviabili; mentre le estensioni Apple consentono di modificare nomi, file,
etc.

UDF
L'UDF prevede nomi di file con maiuscole e minuscole, con lunghezza massima di 255 caratteri. È stato ottimizzato
per utilizzare dati di grandi dimensioni e per minimizzare la necessità di cambiamenti quando un file deve essere
aggiunto o cancellato - per questo motivo è utilizzato da certi software di scrittura a pacchetti CD-R/CD-RW

Voci correlate
• Masterizzatore
• Lista dei principali software di masterizzazione
Microfono 255

Microfono
Il microfono è un trasduttore di tipo elettro-meccanico in grado di
convertire le onde di pressione sonora in segnali elettrici.
Esistono diversi tipi di microfono che basano il proprio funzionamento
su differenti tecnologie e metodi di conversione.
I microfoni vengono classificati principalmente secondo la tipologia di
funzionamento (in pratica il tipo di trasduttore) e la figura polare
(ovvero la diversa sensibilità del trasduttore in relazione alla direzione
di provenienza del suono). Altre caratteristiche tecniche sono la banda
passante / risposta in frequenza, dinamica e sensibilità, l'impedenza, la Microfono
necessità o meno di alimentazione.

Vi sono poi le caratteristiche psico-acustiche: trasparenza del suono, risposta ai transienti, selettività, resa sulle
armoniche, ecc.
Possono fare parte del sistema microfonico, a seconda del tipo: trasduttori meccanici ed elettrici, cavità di risonanza,
tubi ad interferenza, filtri, sospensioni, alimentatori, amplificatori.

Tipi di microfono

Il microfono a carbone
Praticamente non più utilizzato, il microfono a carbone sfrutta la variazione di resistività di granuli di carbone
sottoposti ad agitazione meccanica dalla sottile membrana che chiude la capsula che li contiene. Economico da
costruire, può coprire un campo di frequenza molto limitata. Erano di questo tipo i primi microfoni radiofonici
(quelli stile anni '30, che si vedono nei vecchi film), ma anche le capsule microfoniche adottate per i telefoni a
cornetta in uso fino agli anni 80; agitando tra le dita la capsula, è percepibile il movimento dei granuli, simili a
zucchero.

Il microfono dinamico (magnetico)


Il microfono dinamico è strutturalmente simile ad un piccolissimo
altoparlante, con funzionamento inverso: sfrutta il fenomeno
dell'induzione elettromagnetica per convertire il movimento di una
membrana (la parte destinata a raccogliere le pressioni sonore,
normalmente costituita da una pellicola di mylar, poliestere dello
spessore di pochi decimi di mm) in forza elettromotrice, grazie ad un
avvolgimento di filo conduttore sottilissimo meccanicamente fissato
Antica capsula microfonica a carbone alla membrana stessa chiamato bobina mobile. Tale struttura è
immersa nel campo magnetico generato da un nucleo di magnete
permanente. Il movimento della bobina mobile nel campo magnetico genera, ai capi del filo di cui è composta, una
corrente elettrica proporzionale all'ampiezza dei movimenti dell'avvolgimento e quindi, in definitiva, alla magnitudo
del segnale acustico: questa corrente costituisce il segnale elettrico audio il quale, tramite un cavo oppure via radio,
viene trasferito alla consolle o agli outboard.
Microfono 256

Microfoni a nastro
Usano un nastro sottile e, a volte, ondulato sospeso in un campo magnetico. Il nastro è collegato da un circuito
elettrico all'uscita audio del microfono cosicché le sue vibrazioni nel campo magnetico possano generare un segnale
elettrico. Sia il microfono a nastro che quello a bobina mobile hanno in comune la caratteristica di produrre il suono
per induzione magnetica.

Il microfono a condensatore
Il microfono a condensatore (electret) sfrutta le variazioni di capacità
del condensatore, realizzato con una lamina metallica o di plastica
metallizzata costituente l'armatura fissa del condensatore, ed una
seconda, mobile, (la membrana).
La capsula del microfono a condensatore, avendo caratteristiche di alta
sensibilità, si presta a prelevare suoni anche a grande distanza: per tale
uso è possibile accentuare le caratteristiche direzionali del microfono,
montando la capsula all'interno di tubi progettati e calibrati per ottenere
determinate interferenze additive e sottrattive.
Viene spesso impiegato nella sonorizzazione di molti film durante la
presa diretta. Altri impieghi del microfono a condensatore sono:
conferenze, televisione (microfoni lavalier), traduzioni simultanee ecc.
Il microfono a condensatore, il cui principio di funzionamento si basa
sulla variazione di un campo elettrico, per funzionare ha bisogno di
una batteria di alimentazione che viene utilizzata per generare il campo
elettrico necessario (la cui alimentazione generalmente si chiama
"phantom"). Molto spesso tali microfoni, specialmente se di buona L'interno di un microfono a condensatore
qualità, sono composti da due moduli separati: il modulo di
alimentazione (con batteria da pochi volt, fino ai 48 volt dei microfoni professionali) ed il modulo microfono vero e
proprio che può essere ad una, due o quattro celle, per distanze piccole, medie e grandi.

La batteria potrebbe non essere necessaria nel caso in cui l'amplificatore al quale viene allacciato sia provvisto di
alimentazione "fantasma" (phantom): questo metodo permette di fornire l'energia necessaria al preamplificatore
contenuto all'interno del microfono.

Radiomicrofoni
Per ovviare alle scomodità dei cavi di trasmissione del segnale elettrico utilizzati dai microfoni tradizionali, sono
stati introdotti, e vengono utilizzati principalmente negli studi televisivi o in manifestazioni dal vivo, i cosiddetti
radiomicrofoni, che incorporano, oltre ad una normale capsula microfonica (solitamente magnetica), un circuito
trasmettitore che modula il segnale su un'onda radio ed una piccola antenna che trasmette il segnale ad un ricevitore,
posto vicino alla consolle o comunque all'unità che si occupa dell'acquisizione del suono. Il ricevitore si occupa
quindi di riconvertire il segnale radio in un segnale audio e passarlo via cavo alla consolle.
Tali microfoni sono capaci di funzionare anche a decine di metri dal ricevitore, soprattutto in ambienti privi di
ostacoli (in particolare pareti in muratura). Data però la necessità di convertire il suono in frequenze radio e poi
viceversa, oltre al rischio che si esaurisca la batteria durante la performance o che altre fonti di onde radio
interferiscano con la comunicazione, nei concerti e tantopiù negli studi di registrazione musicali vengono preferiti i
tradizionali microfoni a cavo.
I radiomicrofoni sono disponibili principalmente in due formati: viene comunemente detto gelato (per evidenti
motivi di somiglianza con un cono gelato) il radiomicrofono che presenta una forma simile al microfono tradizionale
Microfono 257

(in gergo tecnico è detto radiomicrofono palmare) e quello a spillo (detto in gergo tecnico lavalier) il radiomicrofono
in cui la capsula microfonica è separata dal resto e, data la piccola dimensione, può essere appesa al colletto della
camicia o al bavero del vestito di colui che parla/canta oppure può essere collegata ad un "archetto", costituito di
plastica, che, attraverso uno scheletro di plastica permette di avere la capsula microfonica perpendicolare alla
direzione del suono emesso dalla bocca; nei microfoni a spillo e ad archetto il sistema di preamplificazione,
conversione e trasmissione si trova in una scatoletta a parte (bodypack), collegata alla capsula per mezzo di un
cavetto e che solitamente si tiene attaccata alla cintura: ciò consente una libertà di movimento massima, non essendo
più necessario sorreggere il microfono con le mani. L'unico difetto che appartiene al microfono a pulce è, avendo la
capsula microfonica di dimensioni ridotte, la scarsa qualità sonora mentre per il microfono ad archetto non sempre è
così poiché l'esigenza di muoversi e coinvolgere il pubblico anche attraverso il movimento delle mani o il semplice
ballare, ha spinto i produttori di microfoni a migliorare la qualità sonora infatti molti artisti preferiscono questo tipo
di microfoni al classico microfono "gelato".

Figura polare dei Microfoni


A seconda della direzionalità, i microfoni omnidirezionali sono trasduttori di pressione, mentre gli altri sono
trasduttori a gradiente di pressione oppure una combinazione tra le due.
Figure polari comuni per i microfoni:

Omnidirezionale Subcardioide Cardioide Supercardioide

Ipercardioide Bi-direzionale Direzionale (Mezzofucile)

Interfaccia digitale microfonica


Lo standard AES 42, pubblicato dalla Audio Engineering Society, definisce un'interfaccia digitale per i microfoni. I
microfoni conformi a questo standard fanno uscire un segnale digitale direttamente dalla loro uscita tramite un
connettore XLR maschio, invece di un segnale analogico. I microfoni digitali possono essere usati solo con
equipaggiamento nuovo che disponga di connessioni conformi allo standard AES 42, oppure tramite l'utilizzo di
un'interfaccia di conversione. Microfoni di alta qualità che operano in conformità con questo standard sono già
disponibili da alcuni produttori di microfoni.
Microfono 258

Antivento microfonici
Gli antivento vengono utilizzati per proteggere i microfoni dal vento o da consonanti esplosive (consonanti come
"P", "B", ecc.). Molti microfoni hanno un antivento integrale costruito intorno al diaframma. Uno schermo in plastica
o in metallo viene mantenuto ad una certa distanza dal diaframma per schermarlo. Questa protezione offre una prima
linea di difesa contro un urto o il vento. Alcuni microfoni hanno uno strato addizionale di spugna per aumentare la
protezione. Oltre all'antivento integrato, esistono tre classi di protezione dal vento.

Collegamenti esterni
• Tutorial tecniche di registrazione: i microfoni [1]

Altri progetti
• Wikimedia Commons contiene file multimediali su Microfono
• Wikizionario contiene la voce di dizionario «Microfono»

Note
[1] http:/ / www. audiomaster. it/ tutorial/ microfoni. htm

Microfono a condensatore
Il microfono a condensatore è un tipo di microfono che sfrutta
l'effetto capacitivo. Le due lamine che compongono la capsula sono
sollecitabili dalla variazione di pressione che un suono provoca nel
mezzo di propagazione (aria).
La sua figura polare può essere omnidirezionale, bidirezionale
(cosiddetta "figura 8") o unidirezionale (cardioide, supercardioide,
ipercardioide). Il microfono a condensatore può essere ritenuto
qualitativamente migliore perché più sensibile ai transienti e alle
sollecitazioni, tuttavia la capsula non ha un grande rendimento per cui
Esempio di capsula microfonica a condensatore
viene aggiunto nel corpo del microfono un preamplificatore preposto
ad alzare il livello del segnale generato, il quale però necessita di
essere alimentato (la capsula può essere invece prepolarizzata nei microfoni electret). Il preamplificatore rappresenta
però anche il punto debole di un microfono a condensatore perché se di bassa qualità può indurre saturazioni,
distorsioni e introdurre rumore (di solito è il preamplificatore a determinare il massimo e il minimo livello
sopportabile dal microfono). Per evitare i rischi di saturazione dell'elettronica, soprattutto nei microfoni di miglior
qualità che quindi, disponendo di un'elevata sensibilità e di un'alta dinamica sono soggetti a questo problema, il
produttore inserisce un "pad", una sorta di attenuatore; L'alimentazione può essere separata o viaggiare sul cavo del
microfono (in questo caso detta phantom) e di solito è di 48 volt ma può essere specifica per ogni microfono (da 5 a
svariate centinaia di volt per quelli a valvola).

Il microfono electret o elettrete è una variante del microfono a condensatore; sfrutta lo stesso principio di
funzionamento del microfono a condensatore ma, dal momento che il condensatore è pre-polarizzato in maniera
permanete al momento della costruzione, non necessita di alimentazione (phantom).
Uno dei costruttori storici più apprezzati è Neumann. L'esperienza cinquantennale di questa casa nella trasduzione
elettromeccanica del suono, fa sì che venga preferita nella scelta dei microfoni da utilizzare negli studi di
Microfono a condensatore 259

registrazione. Alcuni modelli di questo produttore, la cui attività risale agli anni 40, sono contrattati come pezzi
storici da appassionati collezionisti.

Galleria di illustrazioni

Micro AKG C414 Neumann U89i Neumann U87 (universale) Oktava 319 (per la
(universale) (universale) musica)

Capsula del Sospensione Paragone tra le curve di un Schema elettrico


Oktava 319 elastica per microfono a condensatore e di un dell'amplificatore del
evitare le dinamico microfono electret
vibrazione

Schema del microfono a


condensatore
Missaggio 260

Missaggio
Con il termine missaggio, in campo audio, si intende
l'arte di miscelare, equalizzare, ottimizzare a livello di
volume, timbro e spazialita' (direzionalita' e
riverberazione) suoni diversi tra loro, provenienti
generalmente da strumenti diversi, precedentemente
registrati su un supporto, analogico o digitale
multitraccia, o direttamente dal vivo durante concerti,
spettacoli teatrali e rappresentazioni.

In genere lo strumento che permette di portare a


compimento questa fase di lavorazione di un prodotto
fonografico si chiama mixer. Esso permette di Un piccolo mixer

raccogliere le varie tracce preregistrate e convogliarle


poi verso dei bus di uscita a scelta dell'ingegnere del suono, dopo che, attraverso i mezzi di controllo di cui il mixer
dispone, sono stati elaborati gli eventuali filtraggi, equalizzazioni, aggiunte di effetti etc.

Questo tipo di elaborazione viene fatta generalmente per ottenere quello che in gergo si chiama master, che sarà più
o meno il disco che poi, stampato in serie, verrà destinato alla distribuzione o alla vendita.
Tecniche simili al missaggio vengono anche utilizzate dai DJ per comporre e integrare le loro selezioni musicali
durante i DJ set, oppure durante le trasmissioni radiofoniche.
Simili tecniche vengono utilizzate anche per elaborare dei remix, versioni alternative di una canzone.
Anche nei concerti dal vivo i tecnici del suono utilizzano mixer per ottimizzare e miscelare i segnali audio
provenienti da strumenti musicali o voce (in questo caso non precedentemente registrati).

Cinema e televisione
Nel cinema e nella televisione si intende per missaggio l'operazione di integrazione, fusione, o sovrapposizione, in
un unico supporto della colonna sonora, dei dialoghi, delle immagini e dei suoni di un film (registrati
separatamente).
Il missaggio tuttavia è inteso anche come momento di finalizzazione della colonna sonora. Alcuni compositori di
colonne sonore si occupano anche di questa fase della produzione ritenendo che sia importante quanto il momento
creativo come ad esempio il compositore e ingegnere del suono Stefano Lentini.

Voci correlate
• Mastering
• Loudness war

Collegamenti esterni
• Imaging [1] Una introduzione alle tecniche di missaggio mediante immagini virtuali.

Note
[1] http:/ / it. youtube. com/ watch?v=MV1Bvdj5dCI
Mixer (consolle) 261

Mixer (consolle)
Il mixer (mixer audio), è una apparecchiatura
utilizzata per mixare segnali audio, utilizzato dalle
persone addette alla regia di spettacoli teatrali,
televisivi, concerti e dai DJ.

Caratteristiche
Un mixer si differenzia da un altro per molti aspetti,
numero di canali, sensibiltà dei controlli per il volume,
funzioni in generale e amplificazione o meglio dire
preamplificazione.
Un mixer utilizzato in teatro e nei concerti dal vivo
Il numero di canali determina il numero di periferiche
di riproduzioni audio che è possibile collegare in
entrata al mixer contemporaneamente.
La sensibilità dei controlli è importantissima per i mixer da DJ, infatti maggiore è la sensibilità e soprattutto la
morbidezza del controllo volume, più semplice sarà l'esecuzione di alcuni effetti come lo scratch.

Nella categoria delle funzioni rientra ad esempio il DSP degli effetti. Il preamplificatore determina il volume
dell'uscita, cioè il preamplificatore si occupa di, appunto, preamplificare il suono.

Tipologie

Mixer da regia
I mixer da regia, a differenza dei mixer per
dj, hanno un notevole numero di canali che
va più o meno dai 12 fino a mixer di 24-36
canali (fino a 48 ed oltre per le workstation
da studio di registrazione), che permettono
la variazione dei volumi, dei toni, del
segnale audio presente su quel canale. Il
mixer da regia permette inoltre di indirizzare
una parte del segnale dei singoli canali verso
eventuali effetti esterni, come delay,
riverberatori, equalizzatori, ecc. I mixer da
regia principalmente servono per regolare i
volumi dei microfoni e per creare
La consolle di missaggio Mark III della BBC Local Radio
un'immagine stereo.

La qualità sonora di un mixer è data principalmente dalla qualità dei preamplificatori, dei filtri, dei fader (Il
potenziometro, in questo caso detto a ' slitta ' serve per regolare il volume di ogni canale) dalla quantità di distorsione
armonica totale, ovvero della misura in cui ogni dispositivo audio altera il contenuto in frequenza del segnale.
Negli ultimi dieci anni si sono imposti sul mercato con sempre maggiore insistenza i mixer digitali, che convertono il
segnale analogico in digitale e lo processano in dominio completamente digitale al loro interno.
Mixer (consolle) 262

Mixer Soundcraft K1.

Mixer per DJ
I mixer per DJ a differenza di quelli per regia presentano un
numero inferiore di canali audio, da un minimo di 2 ad un
massimo di 8 nelle console più grandi. Va innanzitutto detto che i
mixer da DJ sono dei mixer stereo, quindi alzando il volume di un
canale lo si alza in realtà su due canali (sinistro e destro - L e R), i
mixer invece usati nelle regie hanno i canali di input mono in
quanto viene collegato un microfono o un ingresso di linea.
I mixer per DJ di nuova generazione hanno al loro interno un DSP
degli effetti, cioè un generatore di effetti incorporato nel mixer
stesso, che permette, al DJ, di aggiungere degli effetti esterni alla
canzone che sta riproducendo.
Oltre al DSP molti mixer per DJ incorporano anche un
campionatore che permette di registrare alcuni secondi di uno dei
brani in esecuzione e metterlo ad esempio in loop oppure eseguirlo
ogni tanto a piacere del DJ, è anche possibile mandare il campione
verso il DSP, creando quindi effetti sul loop registrato.
L'interno di un mixer da dj, si noti anche il crossfader
Quest'ultima funzione viene spesso usata quando non si ha voglia
estraibile dal gruppo per la sostituzione con uno a slitta
o tempo di "mettere a tempo" il brano successivo: viene lanciato corta, ideale per lo scratching
l'effetto e appena concluso si fa partire il brano seguente, con
questo sistema c'è la percezione del cambio (rispetto a mixare i brani) ma può essere comunque piacevole e più vario
che non avere il groove che continua tra i 10 brani.
Mixer (consolle) 263

Mixer digitali
Un'altra tipologia di mixer sono quelli digitali, ovvero quelli in grado di convertire il segnale analogico in digitale,
per consentire un processamento del segnale tramite DSP (Digital Signal Processor) o per la registrazione in formato
numerico.
Il numero dei canali fisici, solitamente tra gli 8 e i 16, potrebbe differire da quello dei canali riproducibili.
Possono includere all'interno processori di segnali quali eco, riverbero, compressori/espansori dinamici
Normalmente sono dotati di connessioni adatte ad essere interfacciati con computer tramite porte USB, FireWire e
MIDI.
Sui computer, Utilizzando appositi programmi comunemente denominati DAW (Digital Audio Workstation) o più
semplicemente Sequencer Audio/MIDI, i segnali dei vari canali in ingresso vengono indirizzati a specifiche tracce
sul software, consentendo la registrazione e la successiva elaborazione del segnale audio.
Le versioni più avanzate consentono la memorizzazione dell'automazione dei livelli e degli effetti durante la
registrazione, che si ripercuote nel movimento automatico dei cursori motorizzati in fase di riproduzione.

Componenti
I diversi tipi di mixer condividono la stessa struttura, che consiste essenzialmente nel trattare segnali sonori
provenienti da diversi canali di ingresso e sommarli in uno o più canali di uscita.

Canali di ingresso
Ciascun canale di ingresso riceve il suono da una sorgente, che può essere ad esempio un microfono, uno strumento
musicale elettronico, un riproduttore di dischi, CD o nastri magnetici. A seconda del particolare tipo di mixer e
dell'uso per cui è progettato, ciascun canale possiede una combinazione di funzionalità. Nel layout della console,
ciascun canale occupa una striscia verticale nella maggior parte dei modelli, e molto raramente orizzontale.

Connettori di ingresso
Questa sezione contiene uno o più connettori per i cavi di segnale. Tra i connettori usati troviamo gli XLR (noti
anche come Cannon, a bassa impedenza usati tipicamente per i microfoni), i Jack (alta impedenza, usati per sorgenti
"in linea" come tastiere) e gli RCA (usati per lettori CD e simili).

Stadio di ingresso
Questa sezione si occupa di adattare il segnale elettrico in ingresso alle caratteristiche del mixer. Contiene un
potenziometro per regolare il livello (Gain), e talvolta altri controlli, ad esempio per l'alimentazione remota di un
microfono a condensatore (Phantom)oppure per invertire la fase del segnale (di fondamentale importanza quando si
riprende la stessa fonte sonora con più microfoni).

Equalizzatore
Questa sezione si occupa di bilanciare le componenti del suono nelle varie bande di frequenza. Tipicamente gli
equalizzatori sono a tre o quattro bande, e su mixer di fascia medio-alta alcune bande possono essere parametriche,
ovvero è possibile modificare la frequenza centrale ed eventualmente l'ampiezza di ciascuna banda. È presente
talvolta un filtro passa-alto (HPF); la frequenza di taglio è generalmente fissa (tipicamente 80 / 100 Hz). Sui mixer di
fascia alta tale frequenza è modificabile ed è talvolta presente anche un filtro passa basso (LPF)
Mixer (consolle) 264

Mandate Monitor
Questa sezione contiene uno o più potenziometri per regolare l'invio di segnale ai canali di monitor. Questi canali
generalmente sono pre-fader, ovvero il livello del segnale inviato ai monitor non viene influenzato dal livello del
fader, ma possono anche essere settati come post-fader, e in questo caso risentono del livello dei fader.

Mandate Effetti
Questa sezione contiene uno o più potenziometri per regolare l'invio di segnale ai canali destinati a processori di
effetto. Questi canali sono post-fader, ovvero il livello del segnale inviato ai monitor viene influenzato dal livello del
fader.

Selettore dei gruppi


Presente solo su mixer di fascia più alta. Ogni canale della console presenta uno o più tasti che abilitati convogliano
il segnale audio a gruppi di canali in uscita.

Pan-pot
Questo potenziometro permette di posizionare una sorgente sonora in un qualunque punto tra il canale sinistro e il
canale destro dell'immagine stereofonica di un dispositivo audio.

Potenziometro (Fader)
Questo potenziometro, tipicamente a slitta, regola l'invio del segnale ai canali di uscita principali, o ai gruppi se
presenti.

Canali di uscita
Il canale di uscita di un mixer audio è composto da due cavi mono(sempre tenendo conto di sinistra e destra) che
entrati nel processore li divide in alti e bassi (in alcuni anche medi)da cui dei cavi escono e tenendo conto della sx e
dx entrano negli amplificatori rispettivi. Da qui altre due uscite sx e dx per le teste o i sub sx e dx.

Master
Questi sono i due canali di uscita principali, solitamente destro e sinistro, in consolle di fascia alta è presente una
terza uscita denominata mono, generalmente dedicata all'alimentazione di subwoofer. Il master è principalmente
usato per alimentare l'impianto di amplificazione in ambiente live, ma anche apparecchiature per registrazione....
(sala d'incisione).

AUX
Queste mandate dette Ausiliari, che nel mixer troviamo sotto in nome di AUX, posso essere utilizzate in svariati
modi. In ambito Live vengono utilizzate principalmente per l'invio del segnale ai monitor (o spie) dei musicisti sul
palco o per l'invio ad outboard (effetti) esterni per il processamento del suono. Questo tipo di mandate, in genere, ha
due possibilità di prelevamento del segnale che prendono il nome di PRE, se si vuole che la quantità di segnale sia
indipendente dalla posizione del nostro Fader, e POST, se invece vogliamo che sia vincolato. Questa comporta una
certa comodità poiché sullo stesso banco avremo la possibilità di creare una svariata serie di mix a seconda delle
esigenze dello spettacolo. Generalmente le mandate PRE vengono utilizzati per il pilotaggio delle spie sul palco e le
POST per le mandate agli effetti.
Mixer (consolle) 265

Effetti
Questi canali alimentano processori di effetti interni o esterni, permettendo di alimentare l'effetto con una
combinazione specifica dei canali in ingresso. Il segnale prodotto dal processore di effetto viene tipicamente
reinserito in un canale di ingresso. Molti mixer posseggono canali di ingresso semplificati specificamente per questa
funzione.

Gruppi
Questa funzionalità permette di raggruppare i canali di ingresso in gruppi che possono essere regolati in modo
unitario, ad esempio la batteria o una sezione di strumenti omogenei.

Altri progetti
• Wikimedia Commons contiene file multimediali su Mixer (consolle)

VU meter
Il VU meter è uno strumento di misura dell'intensità del
segnale negli apparecchi audio. Esso mostra il valore in
Volume Units.
La bassa velocità di risposta è tale da permette di valutare la
risposta dell'intensità del suono degli altoparlanti. È stato
originalmente sviluppato nel 1939 dagli sforzi combinati dei
laboratori Bell e dalle emittenti CBS e NBC per misurare e
standardizzare i livelli delle linee telefoniche.
Un VU meter analogico con LED di picco
La scala tipica VU è da -20 a +3 decibel in scala logaritmica. I
tempi di salita e di discesa sono entrambi di 300 millisecondi.
Ciò significa che se viene applicata una onda sinusoidale di 0 VU, lo strumento impiegherà 300 millisecondi per
raggiungere lo 0 nella scala. Esso quindi si comporta come uno strumento di misura media dell'onda intera e pertanto
non è ottimale per misurare i livelli di picco.
In genere negli amplificatori audio e nei registratori a nastro magnetico il valore 0 è il massimo livello d'intensità che
è possibile riprodurre senza che l'apparato introduca distorsione.

Voci correlate
• Decibel
• Mixer (consolle)
Preamplificatore 266

Preamplificatore
Preamplificatore è un termine utilizzato diffusamente in ambito musicale e in genere nelle fasi di registrazione e
riproduzione del suono, per indicare un particolare circuito elettronico che, ricevendo in entrata segnali analogici di
potenza molto bassa, provenienti tipicamente da cellule microfoniche o pick-up, li riemette in uscita amplificati a
sufficienza per poter essere accettati dagli ingressi di altri dispositivi elettronici, che possono essere ad esempio
mixer, amplificatori di potenza o anche effetti elettronici.
Ad esempio, quando è necessario riprodurre ad alto volume il segnale generato dalle corde di una chitarra, raramente
l'amplificazione viene effettuata in un solo stadio di un circuito; tipicamente sono disposti in serie almeno due
circuiti amplificatori, ottimizzati ciascuno per opportuni volumi di entrata. Il primo stadio è, appunto, il
preamplificatore, fatto apposta per amplificare segnali di anche pochissimi millivolt senza aggiungere rumore
apprezzabile.
Spesso i circuiti del preamplificatore e dell'amplificatore vero e proprio, sono contenuti nello stesso apparecchio, o
addirittura sono assemblati su un unico circuito stampato, in alta fedeltà questi apparecchi sono definiti amplificatori
integrati. A seconda della tipologia di impiego, il preamplificatore può essere unito oppure separato
dall'amplificatore finale. In alcuni casi risulta separato anche l'alimentatore; questo avviene negli impianti di
riproduzioone audio di classe superiore, dove per contenere il rumore a livelli estremamente bassi, il
preamplificatore e il suo alimentatore sono realizzati in telai separati. Una soluzione estrema, adottata negli anni 90
dal costruttore statunitense Jeff Rowland per un proprio modello di amplificatore finale, l'alimentatore comprendeva
batterie in continua collegate in tampone. Questa particolare soluzione mirava ad abbattere in modo drastico,
riducendolo praticamente a zero, il rumore presente sulla rete elettrica, nonché a poter disporre istantaneamente di
una riserva di corrente di centinaia di ampère, richiesta durante le rapide variazioni di livello dei segnali transitori.

I preamplificatori nei microfoni


Una cella microfonica (in particolare se a condensatore) fornisce tipicamente in uscita segnali di potenza molto
bassa; se tali segnali fossero fatti viaggiare così come sono in diversi metri di cavo prima di arrivare
all'amplificatore, facilmente potrebbero assorbire rumore, il quale verrebbe amplificato insieme al segnale stesso. Per
questo motivo, i microfoni a condensatore (ma anche vari microfoni dinamici) incorporano nella stessa scocca del
microfono un preamplificatore. In tale modo, il segnale che passa lungo il cavo ha già una potenza maggiore ed il
rumore assorbito sarà, in proporzione, molto minore e non udibile quando amplificato.
I microfoni che incorporano preamplificatori possono contenere delle pile o possono ricevere l'alimentazione
necessaria dal cavo stesso su cui passa il segnale, con l'alimentazione phantom. Possono definirsi preamplificatori,
anche singole sezioni di circuiti elettronici più complessi.
Compact disc 267

Compact disc
Il Compact Disc[1] [2] (abbreviazioni comuni: "CD", "cd")[3] è una tipologia di disco ottico utilizzata in vari ambiti
per la memorizzazione di informazioni in formato digitale.

Descrizione
Il compact disc è composto da un disco di policarbonato trasparente,
generalmente di 12 centimetri di diametro, accoppiato nella parte superiore ad
un sottile foglio di materiale metallico sul quale, nella parte inferiore vengono
memorizzate le informazioni come successioni di "buchi" e "terre" (in inglese
"pits" e "lands") successivamente letti per mezzo di un laser (per questo
motivo sono detti anche dischi ottici).
Logo del Compact Disc

Nascita del CD
L'origine del CD risale al 1979, quando fu inventato, congiuntamente, dalle aziende Sony e Philips.

L'uso dei CD ai giorni nostri


Ai giorni nostri il CD è utilizzato da chiunque per ogni cosa,
inserire foto, film, testi... La genesi del CD è dovuta alla ricerca,
da parte del mondo della telefonia, di un sistema efficiente di
moltiplicazione per le informazioni, attraverso la numerizzazione e
semplificazione dei segnali.
L'applicazione congiunta del sistema numerico binario al suono e
del laser diede vita al compact disc.
Fu il 17 agosto 1982 che il primo CD per l'utilizzo commerciale
venne prodotto in una fabbrica della Philips ad Hannover in
Germania.
Il primo CD musicale ad essere messo in commercio fu The
Visitors del gruppo svedese degli ABBA[4] (curiosamente il loro
Tipico CD visto dal lato su cui avviene la lettura e
ultimo album prodotto in studio).
scrittura
Altre fonti rivelano invece che il primo cd musicale prodotto fu
52nd Street di Billy Joel, altre ancora (Federazione Industria Musicale Italiana), dichiarano che il primo CD
pubblicato fu la Sinfonia delle Alpi di Richard Strauss suonata dai Berliner Philharmoniker e diretta da Herbert von
Karajan[5] .
Compact disc 268

La paternità del CD
Negli anni dei primi sviluppi della tecnologia il progetto fu inizialmente seguito da una joint venture tra DuPont e
Philips. DuPont poteva vantare un'enorme esperienza nel policarbonato (inventato nel 1928 proprio da DuPont) e
una forte presenza in Olanda con un'installazione chimica a Dordrecht, vicino a Rotterdam[6] .
DuPont aveva inoltre già una joint venture con Philips, la sfortunata PDM (Philips-DuPont Magnetics, sponsor anche
della PDM-Concorde), per sviluppare nastri magnetici che utilizzassero altri due prodotti DuPont: il supporto in
poliestere Cronar (invenzione DuPont 1955) e l'ossido di cromo Crolyn (invenzione DuPont 1956)
DuPont aveva inoltre in essere un'altra joint venture con British Telecom (BT&D) per sviluppare microlaser e fibre
ottiche. C'erano perciò tutte le premesse per eccellenti sviluppi.
Dopo i primi prototipi si riunì a Ginevra il management DuPont europeo per analizzare gli sviluppi del progetto e gli
investimenti necessari. Tali investimenti comprendevano anche una possibile fabbrica in Italia, per utilizzare
l'alluminio dell'Ilva.
I tecnici illustrarono quello che gli sviluppi promettevano: un disco che consentiva di immagazzinare oltre 600MB di
dati e probabilmente oltre un'ora di musica in formato digitale. La cosa non entusiasmò i manager DuPont per via
degli enormi investimenti richiesti. Tenendo conto che i personal computer di allora avevano memorie da 64KB a
4MB e hard disk da 20MB, a chi mai sarebbe servito un supporto da oltre 600MB?
Anche per la musica era impensabile che il mondo intero sostituisse i giradischi e i registratori con i nuovi
costosissimi lettori di dischi ottici... almeno non per i successivi 20 anni.
Il management DuPont liquidò il progetto e chiese quindi a Philips di continuare da sola (ecco perché poi Philips
andò in cerca di altre alleanze).
Per qualche anno rimase in vita la PDO (Philips-DuPont Opticals) che stampava CD con produzione in Gran
Bretagna (principalmente musica) e USA (dati). La PDO chiuse nel 1990 per "divergenze di interessi"[7] .
Si può dire quindi che la vera paternità del CD sia da attribuire a Philips/DuPont, anche se DuPont non partecipò a
nessuno sviluppo successivo ed uscì completamente dal progetto alla fase iniziale.

Struttura fisica

Due CD per il contenimento di pochi dati, di cui il CD a destra dedicato per i bambini

I CD hanno una struttura paragonabile a quella dei normali dischi musicali: i dati sono ordinati lungo un'unica traccia
a forma di spirale, un'organizzazione quindi molto diversa da quella dei dischi magnetici (hard disk e floppy disk).
La spirale parte al centro (contrariamente ai dischi in vinile) e procede verso l'esterno, permettendo così di avere CD
più piccoli dello standard (per esempio i mini-CD o i CD a forma di carta di credito).
La struttura a spirale del CD-ROM è tale da massimizzare le prestazioni per l'accesso sequenziale a scapito
dell'accesso diretto.
Una caratteristica dei CD audio è data dalla velocità di lettura costante (CLV: Constant Linear Velocity). Il principio
stabilisce che il laser deve leggere i dati a velocità uniforme, sia che si tratti della parte esterna sia quella interna del
disco. Questo si ottiene variando la velocità di rotazione del disco, che passa da 500 giri al minuto al centro a 200
giri al minuto all'esterno. I CD dati invece possono essere letti tranquillamente anche a velocità variabile. Per
ottenere prestazioni di lettura elevate il disco viene pertanto fatto girare a velocità costanti ed elevate (in modalità
CAV: Constant Angular Velocity), pur se questo comporta un leggero rumore. La velocità di lettura dati (DTR) è
Compact disc 269

una caratteristica fondamentale di un CD-ROM: essa viene contrassegnata da un numero standard seguito da una
"x", equivalente a 153,6 kB/s - ad es. 4x = 614,4 kB/s. Questa velocità di base indicata con "x" è quella a cui
vengono letti i CD audio registrati in PCM con 44100 campioni al secondo, ognuno da due byte per l'altoparlante
destro e altri due per quello sinistro.

Dimensioni

Physical size Audio Capacity CD-ROM Data Capacity Note

120 mm 74–99 min 650–870 MB dimensione standard

80 mm 21–24 min 185–210 MB Mini-CD

85x54 mm - 86x64 mm ~6 min 10-65 MB formato "carta di credito"

Formati fisici
I formati fisici dei CD sono definiti da documenti che prendono il nome di Red Book, Yellow Book ecc., noti
collettivamente con il nome di Rainbow Books. Il motivo di utilizzare nomi di colori per gli standard si perde nella
leggenda: pare che la prima versione delle specifiche del CD Audio fosse rilegata in un libro in cartoncino rosso, da
cui il nome. Gli standard, pur mantenendo lo stesso formato fisico si differenziano per l'organizzazione dei dati e per
i sistemi di codifica. Tutti utilizzano il codice Reed-Solomon per la correzione dei dati ma, per esempio, mentre i
compact disc dedicati all'utilizzo dati implementano due livelli di codifica dei dati, i compact disc dedicati all'audio
implementano un solo livello di codifica: in quest'ultimo caso, si è preferito ridurre la correzione degli errori per
aumentare la capacità utile del supporto.

CD Audio (Red Book)


Fu il primo tipo di compact disc messo in commercio nei primi
anni ottanta, concepito per la memorizzazione di flussi audio.

CD-ROM (Yellow Book)


Acronimo di Compact Disc Read Only Memory, sono usati per la
memorizzazione di dati generici. Si ottengono per stampa, con
appositi macchinari industriali. I CD-ROM di più larga
distribuzione hanno una capienza di 74 minuti/650 MB e di 80
Gruppo ottico di un lettore di Compact disc
minuti/700 MB, mentre più rari sono i formati da 90 minuti/800
MB e da 100 minuti/870 MB.

CD-R/CD-RW (Orange Book)


Acronimo di Compact Disc Recordable e di Compact Disc Re-Writable. L'arrivo sul mercato nel 1990 dei primi
masterizzatori di CD rendeva necessario uno standard commerciale. L'orange book prevede, in realtà tre diverse
tipologie:
• CD-R Compact Disc Scrivibili
• MO Dischi magneto-ottici
• RW Compact disc Riscrivibili
Il Compact Disc Recordable non permette di cancellare file scritti in precedenza. Se il programma di
masterizzazione consente di mantenere aperta la sessione di scrittura, al CD-R possono essere aggiunti file in più di
una scrittura, sempre senza poter cancellare quelli inseriti in precedenza.
Compact disc 270

Un CD riscrivibile, invece, permette l'aggiunta e/o cancellazione di file per un numero illimitato di volte, anche in
sessioni di scrittura differenti.

CD-i (Green Book)


Acronimo di Compact Disc Interactive. Inventato dalla Philips nel 1986 e ceduto poi alla Sony, può essere definito il
progenitore del DVD, in quanto è un supporto in grado di contenere audio, video ed altra multimedialità integrata
seppur di qualità comparabile alle cassette VHS. La loro diffusione è limitata all'oriente e agli Stati Uniti. Fanno
parte di questo standard anche i Photo CD di origine Kodak.

Video CD (White Book)


Si tratta di un formato in grado di memorizzare audio e video in formato MPEG-1, con qualità più o meno
equivalente a quella di una videocassetta VHS. Può contenere sino a 74 minuti di video a schermo pieno, e di solito
un film completo è memorizzato su due dischi. Molto diffuso in oriente e pressoché sconosciuto in Europa, è stato in
gran parte soppiantato dal DVD.

CD-XA (Blue Book)


Detto anche CD-Extra, è la contrazione di Compact Disc Extended Architecture. Formato apparso nel 1989 da una
collaborazione tra Sony, Philips e Microsoft, che permette di mescolare tracce audio secondo il Red Book, tracce di
dati secondo lo Yellow Book, permettendo così di ottenere CD audio multimediali, CD-Text, CD-Plus o CD+G
(Karaoke). Una delle caratteristiche di questo formato, fondamentale per il multimedia, è la tecnica dell'interleaving:
è possibile memorizzare fisicamente le informazioni in modo diverso dall'ordine logico, in modo da minimizzare il
movimento della testina.

Compatibilità
In generale, dato che i Books sono apparsi in modo cronologico, un lettore moderno dovrebbe essere in grado di
leggere tutti i tipi di formati.
In realtà spesso non è così: vi sono problemi relativi al CD-RW dato che la riflettività del materiale utilizzato è
diversa e che necessita in genere di modifiche speciali (e costose). I lettori CD più vecchi (e quelli di livello non
eccelso come quelli delle autoradio) non sono in grado di leggere i Blue book senza problemi, specie se la traccia dati
è all'inizio.

Formati logici
I formati logici stabiliscono il significato dei dati memorizzati sui CD ed hanno nomi ancora più fantasiosi e strani
del formati fisici.

CD-Audio
Lo standard utilizzato dai CD audio prevede di campionare con codifica PCM l'onda sonora, utilizzando una
quantizzazione a 16 bit (che fornisce una dinamica di 96 dB) ed una frequenza di campionamento di 44100 campioni
al secondo (che fornisce una risposta in frequenza teorica di 0-22 kHz - quella effettiva è più o meno inferiore
dipendendo dalla qualità del riproduttore utilizzato). I dati sono memorizzati sul disco nei settori, ciascuno dei quali
rappresenta 1/75 di secondo audio. È possibile ripartire i dati in un massimo di 99 tracce. La velocità di trasferimento
dati è 176400 byte/s, detta anche CDx1, risultato del prodotto 44100 Hz * (16 bit/8) byte * 2 (canali, stereo).
Compact disc 271

ISO 9660
È il formato più utilizzato, dato che utilizza una base comune molto semplice ed è estensibile facilmente.
• Il primo livello di ISO9660 prevede solo nomi con standard MS-DOS, ovvero 8 caratteri per il nome, 3 di
estensione ed interamente maiuscole. Ogni nome deve essere diverso dai nomi degli altri file nella stessa
directory.
• Il secondo livello (con qualche problema di compatibilità) prevede l'uso di nomi lunghi, fino a 31 caratteri e non
sono ammessi file condivisi.
• Il terzo livello è privo di ogni limitazione.
In ogni caso, dato che i sistemi operativi sono tanti e ciascuno ha le proprie caratteristiche, sono previste estensioni
specifiche al formato ISO. Tali estensioni sono:
• El Torito Estensione per il Boot via BIOS. Occorre preparare l'immagine di un dischetto di boot.
• Joliet Estensione per Windows 95. Prevede nomi in formato Unicode lunghi sino a 64 caratteri.
• Rock Ridge Definisce un modo per introdurre nomi con caratteri maiuscoli e minuscoli e collegamenti simbolici.
Poiché si tratta ancora di un file system ISO 9660, i file possono ancora essere letti da macchine che non
supportano questa estensione, semplicemente non saranno visibili i nomi lunghi dei file. Rock Ridge è supportato
dai sistemi Unix-like.
• Apple estensione per Apple Macintosh. Tali dischi sono leggibili dai sistemi MS-DOS (perdendo le informazioni
specifiche di Macintosh)
• Romeo Opzione di alcuni software di masterizzazione che consente la registrazione di CD con nomi di file lunghi
fino a 128 caratteri, spazi inclusi. Tale opzione non è inclusa nello standard Joliet, non supporta i caratteri
Unicode, e non prevede nomi file DOS associati.
I sistemi Windows 95, Windows 98 e Windows NT leggono i nome file Romeo. I sistemi Macintosh leggono i dischi
Romeo se la lunghezza dei nomi file non supera i 31 caratteri.

Apple-ISO (HFS)
Permette di memorizzare i dati secondo il sistema di file di Macintosh, e prevede quindi nomi con maiuscole,
minuscole e di lunghezza sino a 31 caratteri. Oltre a ciò memorizza altri dati tipici del filesystem HFS. Tale CD può
essere utilizzato nativamente solo sui computer Macintosh, ma è leggibile anche con i sistemi operativi Linux.

Mixed Mode
Noto anche come CD Ibrido (Hybrid CD). Permette di mescolare, ad esempio, un CD Macintosh e un CD Windows.

Photo CD
Formato specifico utilizzato dalla Kodak. Permette di memorizzare 100 immagini ad alta, media e bassa risoluzione
su un singolo disco.
Compact disc 272

UDF
Si tratta di un nuovo filesystem in grado di superare le limitazioni di ISO9660. Viene anche usato da certi software di
scrittura a pacchetti CD-R/CD-RW.

Problemi
Se tra i punti forti del CD possiamo elencare il basso costo, l'elevata capacità e la durata fisica del mezzo, non
mancano diversi problemi.

Lentezza
Il CD-ROM è un sistema di memorizzazione piuttosto lento. Progettato originariamente per la riproduzione audio è
ottimizzato per la stessa.
I fattori che determinano la sua lentezza sono:
• Tempo di accesso: È necessario spostare tutto il gruppo ottico di lettura per raggiungere la zona di disco richiesta,
gruppo che ha una massa decisamente superiore rispetto a quella delle testine di un hard disk. Questo aspetto era
ininfluente nell'uso originale in quanto lo spostamento ad un altro brano è un'operazione piuttosto rara e
comunque un ascoltatore non ha problemi ad aspettare anche un secondo o due (come spesso accedeva sui lettori
di CD audio). I lettori di CD-ROM sono più veloci ma il tempo di accesso ai dati si aggira comunque attorno ai
100 ms ovvero circa dieci volte quello di un hard disk.
• Velocità di trasferimento dati: Per la riproduzione di un flusso audio stereo era sufficiente un flusso di dati a circa
170 kB/s e in base a questo i CD-ROM vennero progettati. Per l'uso come supporto di memorizzazione tale
velocità si riduce a 150 kBi/s, per la necessità di introdurre ulteriori informazioni atte a garantire la correzione
degli errori, ed è decisamente bassa. Le attuali unità CD-ROM usano velocità di rotazione molto superiori, fino a
52X (52per), riuscendo ad ottenere, teoricamente, una velocità di alcuni MB/s che è comunque inferiore di quasi
due ordini di grandezza rispetto a quella di un hard disk. Non è possibile aumentare ulteriormente la velocità in
quanto il poliestere di cui sono fatti i CD verrebbe sollecitato eccessivamente.

Velocità trasferimento dati alle varie velocità di rotazione


Moltiplicatore velocità KiB/s Giri al minuto

1× 150 200–500 (CLV)

2× 300 400-1.000 (CLV)

4× 600 800–2.000 (CLV)

8× 1.200 1.600–4.000 (CLV)

10× 1.500 2.000–5.000 (CLV)

12× 1.800 2.400–6.000 (CLV)

20× 1.200–3.000 4.000 (CAV)

32× 1.920–4.800 4.800 (CAV)

36× 2.160–5.400 7.200 (CAV)

40× 2.400–6.000 8.000 (CAV)

48× 2.880–7.200 9.600 (CAV)

52× 3.120–7.800 10.400 (CAV)

56× 3.360–8.400 11.200 (CAV)


Compact disc 273

Sicurezza
Quando i CD furono inventati, le macchine duplicatrici erano costosissime e 650 MB sembravano un'enormità. Oggi
tali macchine sono estremamente a buon mercato, e chiunque può creare una copia perfetta di un CD (audio, dati,
video), spendendo meno di 1 euro; se si passa alla produzione su larga scala, un CD-ROM può costare meno di 10
centesimi. Per questo motivo, le ditte produttrici si sono preoccupate per le copie non autorizzate e hanno cercato di
introdurre sistemi anti-copia. Per quanto riguarda il software, varie aziende di software (soprattutto di giochi) sono
sempre alla ricerca di nuove tecniche anti-cracker. Una di esse, sviluppata da Macrovision [8], si chiama SafeAudio e
dovrebbe impedire la copia digitale ma non il normale funzionamento del CD. Il sistema funziona creando dei settori
volutamente difettosi: se letto con un normale lettore CD Audio, questi verranno visti come "imperfezioni" e
automaticamente corretti - seppure con una piccola perdita di qualità mentre i lettori CD-ROM troveranno il disco
illeggibile. La cosa non è priva di strascichi: alcune case discografiche sono state citate in giudizio per aver venduto
materiale (volutamente) scadente e non riproducibile su tutti i dispositivi. Famoso è il caso del gruppo Sony/BGM,
che ha inserito nei suoi CD[9] un programma ad avvio automatico, chiamato XCP, che modificava i driver per
ostacolarne la copia e utilizzava una serie di tecniche per nascondere queste modifiche anche agli utenti piuttosto
esperti. Il fatto che le modifiche fossero permanenti e fatte automaticamente e praticamente all'insaputa del
proprietario ebbe un certo clamore, e Sony rilasciò uno strumento per rimuoverlo. Attualmente non sono note delle
tecniche efficaci per la protezione dei CD audio.

Qualità
Orientarsi nella scelta fra le innumerevoli marche presenti sul mercato di CD-R e CD-RW non è sempre facile.
Esistono centinaia di marche diverse di supporti, dal marchio noto e pubblicizzato, al marchio sconosciuto, al
marchio della catena di distribuzione, tuttavia la quasi totalità dei dischi è prodotta da un numero tutto sommato
piccolo di industrie più o meno famose come per esempio Ritek, Philips, Mitsubishi Chemicals, Moser Baer,
Plasmon, Sony e altre i cui nomi a volte non compaiono sull'etichetta o sulla scatola del supporto. I dischi vengono
prodotti da queste aziende e "brandizzati" con il marchio che viene di volta in volta richiesto da chi andrà a
commercializzare il prodotto. Per stabilire chi è il "vero" produttore di un certo supporto CD-R o CD-RW è
indispensabile leggere, con un programma apposito ed un lettore compatibile, la traccia ATIP (Absolute Time In
Pre-Groove), traccia normalmente non visibile che contiene informazioni inserite nel cd dal produttore. Esistono
supporti, più semplici e meno costosi, privi di una protezione fisica nella parte superiore (la faccia non incisa): molte
volte basta una piccola etichetta adesiva o l'utilizzo di un inchiostro aggressivo per rovinare questi supporti; una
seconda categoria di supporti, più costosa e solitamente distribuita solo da marche note, ha una protezione in
materiale plastico anche sulla faccia superiore del disco: per questo etichette, post-it e inchiostri all'alcol non sono in
grado di inficiare la leggibilità di questo tipo di dischi. Anche a livello chimico i CD-R non sono tutti uguali: lo
strato di memorizzazione di un generico CD-R può infatti essere realizzato con: Cianina – brevetto della Tayo Juden
Company LTD; Ftalocianina - prodotto Mitsui Toatsu Chemicals; Azo – prodotto della Mitsubishi Chemicals
Corporation) oppure Formazan - prodotto della Kodak Japan Limited. Lo strato di memorizzazione dei CD-RW
invece è un composto di argento, indio, antimonio e tellurio. I CD stampati ed incisi industrialmente invece non
hanno generalmente problemi di qualità del substrato in quanto lo stesso è normalmente in alluminio.

Problemi di smaltimento
I vari tipi di supporti CD sono accomunati dal fatto di avere una struttura "a sandwich" composta da vari tipi di
sostanze chimiche, tra cui anche metalli, depositate su un foglio di materiale plastico (policarbonato). Questa
struttura fa sì che questi supporti vengano classificati come "materiali compositi" e non possano essere riciclati con
la comune plastica. Pertanto i CD non più funzionanti, in disuso o comunque non più utili non devono essere
conferiti nella raccolta della plastica. Se abbandonato nell'ambiente un disco di questo tipo resta praticamente
immutato per un tempo indefinito poiché non è biodegradabile; inoltre le sostanze chimiche depositate sulla
Compact disc 274

superficie riflettente del disco possono staccarsi e divenire fonte di inquinamento.

Timori e problemi relativi alla durata


Quando vennero messi sul mercato i primi CD, tra i vantaggi decantati dai produttori vi era la loro lunga durata nel
tempo. Ma nell'arco di pochi anni si verificò un fenomeno increscioso: alcuni dischi prodotti da aziende europee
cambiavano colore ai bordi e il programma ne soffriva.
Il fenomeno si chiamò "bronzing" e si propagò sulla stampa (anche specializzata) un allarme del tipo: "i CD non
durano" o "sono destinati a rovinarsi nell'arco di anni o meno". In realtà il problema era limitato: era dovuto al
contatto con alcune sostanze (principalmente zolfo) contenuto nella carta e nelle etichette.
Lo strato inciso tendeva a diventare più scuro partendo dai bordi (il punto in cui lo strato era meno protetto) e si
rovinava. Questo problema riguardò diverse marche prestigiose, che producevano dischi basati sulle produzioni da
Philips/DuPont: Hyperion, Pearl, Academy Sound&Vision, CRD, Archiv, Deutsche Grammophon, London/Decca,
Unicorn-Kanchana.

Fotografie

Interferenze ottiche in un CD CD nella custodia porta-CD

Note
[1] "Compact Disc" è un nome proprio di origine inglese che tradotto letteralmente significa "disco compatto".
[2] "Compact Disc" in quanto nome proprio andrebbe scritto con le iniziali maiuscole. Essendo però molto diffuso nel linguaggio comune è
accettata anche la grafia con le iniziali minuscole "compact disc".
[3] "CD" è l'acronimo di "Compact Disc" e come tutti gli acronimi molto diffusi nel linguaggio comune viene anche scritto tutto in minuscolo.
[4] Fonte: Romaone.it (http:/ / redazione. romaone. it/ 4Daction/ Web_RubricaNuova?ID=90579& doc=si)
[5] La registrazione in questione (Deutsche Grammophon) (http:/ / www2. deutschegrammophon. com/ cat/ result?SearchString=4390172)
[6] (http:/ / www2. dupont. com/ Dordrecht_Plant_Site/ en_NL/ )
[7] (http:/ / www. nytimes. com/ 1990/ 10/ 25/ business/ talking-deals-end-of-a-venture-in-optical-disks. html?pagewanted=1)
[8] http:/ / www. macrovision. com
[9] Sony nella bufera: un virus nascosto nei suoi cd anticopia (http:/ / www. repubblica. it/ 2005/ k/ sezioni/ scienza_e_tecnologia/ virusony/
virusony/ virusony. html) Repubblica.it
Compact disc 275

Voci correlate
• Blu-ray Disc
• Blu-spec CD
• CD-TEXT
• Digital Audio Tape (DAT)
• Dual Disc
• DVD
• Floppy Disk
• HD DVD
• MiniDisc
• Super Video CD
• Video CD
• Loudness war
• K2 HD

Altri progetti
• Wikimedia Commons contiene file multimediali su Compact disc
• Wikizionario contiene la voce di dizionario «Compact disc»

Digital Audio Tape


Il Digital Audio Tape, abbreviato in DAT, è un
supporto per la registrazione e riproduzione di audio
introdotto da Sony nel 1987.
In apparenza è simile ad una videocassetta e utilizza un
nastro magnetico da 1/8" protetto da una analoga
copertura. Le dimensioni sono tuttavia circa la metà di
un supporto VHS, 73 mm × 54 mm × 10,5 mm. Come
suggerisce il nome, la registrazione non avviene in
modo analogico, ma digitale. Il DAT converte il suono
ad una frequenza di campionamento più o meno elevata
rispetto al CD (48, 44.1 o 32 kHz di frequenza, e 16 bit
di quantizzazione), senza compressione audio. Questo
significa che tutto il segnale di input viene mantenuto.
Un DAT da 90 minuti confrontato con una pila AAA (LR03)
Se viene riprodotta una risorsa digitale, allora il DAT
produrrà un clone identico, al contrario di quello che
fanno per esempio la musicassetta, che registra il segnale analogico, o il minidisc che usa una compressione di tipo
lossy.

I DAT sono di durata variabile tra 15 e 240 minuti; uno di 120 minuti è lungo circa 60 metri.
Il DAT è tutt'ora utilizzato dai grandi broadcaster in tutto il mondo, tra questi: RAI Italia, BBC Regno Unito, ZDF
Germania, ORF Austria, RTSI Radiotelevisione della Svizzera italiana,SVT Svezia, NHK Giappone, CBS USA,
ABC USA, NBC USA, YLE Finlandia. Largo utilizzo nel mondo del Cinema come sincronizzazione del Master
finale e naturalmente nella radiofonia soprattutto quella pubblica. È anche utilizzato nella masterizzazione in campo
musicale, ma commercialmente fu un flop. In parte perché costoso, cosicché il pubblico di largo consumo ebbe
Digital Audio Tape 276

difficoltà ad adeguarvisi, ma soprattutto perché con la facilità con cui permetteva la riproduzione di materiale audio
minava seriamente alla base il mercato discografico e la tutela del copyright. Nessuna casa discografica si accollò
quindi il rischio di promozioni vantaggiose che incentivassero da parte dei consumatori l'adozione di questo
standard, nonostante l'introduzione nei registratori commercializzati di un sistema anticopia che, pur consentendo la
duplicazione digitale dei nastri originali, inibiva l'ulteriore clonazione delle copie da questi ottenute. Il DAT rimase
perciò relegato all'area professionale, soprattutto in ambito editoriale.
Fu invece più utilizzato nel campo informatico, grazie alla sua capienza, soprattutto per realizzare copie di sicurezza
(Backup) o archiviare file di grandi dimensioni (grafica, animazioni ecc.), per essere infine soppiantato dalla
diffusione del masterizzatore per CD.

S/PDIF
S/PDIF o S/P-DIF è l'acronimo di Sony/Philips Digital Interface Format (Interfaccia Digitale Sony / Philips),
questo standard è anche detto IEC 958 type II, ed è definito dallo standard internazionale IEC 60958-3.
È una collezione di specifiche hardware e protocolli a basso livello per il trasporto di segnali audio digitali PCM
stereo tra periferiche.
S/P-DIF è una versione commerciale dello standard conosciuto come AES/EBU; da cui si distingue per alcune
piccole differenze e componenti più economici.
S/PDIF è coperto dal brevetto EP000000811295B1, scaricabile presso http://depatisnet.dpma.de [1]

Applicazioni

Cavo coassiale Cavo ottico

L'interfaccia S/PDIF è usata soprattutto nei lettori CD (e i lettori DVD che riproducono CD), ma è comune anche in
altri componenti audio come i MiniDisc e le schede audio per computer. È utilizzata anche in ambito car audio, gran
parte del cablaggio può essere sostituito da un unico cavo in fibra ottica immune alle interferenze elettriche.
Un altro utilizzo comune per l'interfaccia S/P-DIF è il trasporto di segnali audio compressi definito dallo standard
IEC 61937. In questo caso l'uscita del lettore DVD viene connessa a un ricevitore home theater Dolby Digital o DTS.
La compressione è necessaria per poter trasportare un audio multicanale, in quanto l'S/P-DIF può portare audio non
compresso di soli due canali.
S/PDIF 277

Specifiche hardware
A seconda dell'utilizzo le specifiche "S/P-DIF" consentono l'utilizzo di diversi tipo di cavo. Questi si dividono in
connessioni analogiche (cavi coassiali o RCA) e digitali in fibra ottica (TOSLINK). Esistono anche adattatori per
convertire il segnale dei diversi tipi di collegamento (nonostante siano più spesso utilizzati quelli RCA-TOSLINK).
Tutti i tipi di collegamento richiedono un'alimentazione esterna. Il collegamento ottico è ritenuto più efficace in
quanto immune alle interferenze elettriche.
L'interfaccia S/P-DIF è stata sviluppata a partire da uno standard rivolto all'audio professionale chiamato AES/EBU
e utilizzato soprattutto nei sistemi Digital Audio Tape (DAT) e nelle trasmissioni all'interno degli studi di
registrazione professionali. S/P-DIF ha un protocollo di comunicazione pressoché identico, ma si differenzia a livello
fisico per i diversi connettori, da XLR a RCA o TOSLINK, e i cavi, da STP con linea bilanciata da 110 Ω al più
comune cavo coassiale a 75 Ω. Questo per rendere a tutti gli effetti S/P-DIF una versione più pratica ed economica
del formato AES/EBU.

Differenze principali tra AES/EBU e S/P-DIF


AES/EBU SPDIF

Cablaggio 110 Ω STP o coassiale 75 Ω coassiale 75 Ω o fibra ottica

Connessione XLR a 3-pin , D-sub a 25-Pin, BNC RCA, BNC, o TOSLINK

Livello del segnale da 3 a 10 V da 0.5 a 1 V

Modulazione Biphase Mark Code Biphase Mark Code

Informazioni incapsulate testo ASCII informazioni sulla protezione dalla copia SCMS

Risoluzione massima 24 bits 20 bits (opzionale a 24 bit)

Specifiche del protocollo


S/P-DIF è utilizzato per trasmettere segnali digitali di diverso tipo. I più comuni hanno un sample rate di 48 kHz (lo
stesso del DAT) e 44.1 kHz (come per i CD Audio). per far sì che entrambi i sistemi siano supportati non c'è un
bitrate predefinito, i dati invece sono inviati utilizzando il Biphase Mark Code, che può avere una o due transizioni
per ogni bit, in modo da consentire l'estrazione del word clock originale dal segnale stesso.
S/P-DIF è adatto alla trasmissione di dati audio digitali a 20 bit più altre informazioni (per la protezione dei dati
stessi). Nella trasmissione di flussi a meno 20 bit, i bit superflui avranno valore zero. Alcuni dispositivi utilizzano 4
bit extra per aumentare la risoluzione a 24 bit (nel caso non siano supportati i bit extra vengono ignorati).
L'unica differenza a livello di protocollo tra S/P-DIF e AES/EBU è il "Channel status bit".

Il channel status bit nel protocollo S/P-DIF


C'è un channel status bit in ogni subframe, quindi ogni blocco audio ha word di 192 bit. Questo significa che ci sono
192/8 = 24 byte disponibili in ogni blocco audio. Il significato del channel status bit cambia completamente tra
AES/EBU e S/P-DIF.
In S/P-DIF, la word di 192 bit è suddivisa in 12 words da 16 bit. I primi 6 bit della prima word sono un codice di
controllo il cui significato è mostrato nella tabella sotto:
S/PDIF 278

Significato della word di controllo in S/P-DIF


bit num. se zero significa: se uno significa:

0 consumer professional

1 normal compressed data

2 copy prohibit copy permit

3 2 channels 4 channels

4 - -

5 no pre-emphasis pre-emphasis

Bibliografia
• J. Watkinson, The Art of Digital Audio, Third Edition, Focal Press, 2001

Voci correlate
• word clock
• AES/EBU
• ADAT

Collegamenti esterni
• Epanorama.net: S/PDIF [2]

Note
[1] http:/ / depatisnet. dpma. de
[2] http:/ / www. epanorama. net/ documents/ audio/ spdif. html
AES/EBU 279

AES/EBU
L'AES/EBU è un formato standard per l'audio digitale, usato per interfacciare tra di loro diversi dispositivi.
Ufficialmente, è denominato AES3 ma prende il suo nome comune dal fatto che è stato sviluppato congiuntamente
da Audio Engineering Society (AES) e European Broadcasting Union (EBU). La prima introduzione di questo
formato risale al 1992, con revisioni successive nel 1995, 1998 e 2003. Lo standard definisce anche diversi tipi di
connettori utilizzati dalle apparecchiature.
Uno standard correlato, chiamato S/PDIF, è stato sviluppato come versione consumer dell'AES/EBU, con connettori
di tipo più comune, ed è ora parte delle specifiche complessive AES3.

Connessioni
Lo standard AES3 rispecchia la parte 4 dello standard internazionale IEC 60958. Dei tipi di connettori fisici che
definisce, tre tipi sono di uso comune:
• IEC 60958 Type I bilanciato - cavo a 3 conduttori, coppia ritorta da 110 ohm e connettore XLR, utilizzato in
installazioni professionali (standard AES3)
• IEC 60958 Type II sbilanciato - cavo coassiale a 2 conduttori da 75 ohm con connettore RCA, usato nelle
apparecchiature di classe domestica
• IEC 60958 Type II Ottico - cavo in fibra ottica, generalmente di plastica ma talvolta anche di vetro, con un
connettore F05, usato anche in questo caso su apparecchiature di classe domestica
I connettori F05, connettori Toshiba da 5mm per fibra ottica in plastica, sono di solito più noti con il loro nome
commerciale, TOSLINK.
Il precursore delle specifiche IEC 60958 Type II era l'interfaccia S/PDIF, al cui articolo si rimanda per dettagli sul
formato dati AES/EBU. Si osservi, tuttavia, che i livelli elettrici sono differenti tra le due interfacce.
Altre strutture di trasporto AES3.
In tempi recenti, molte apparecchiature professionali sono equipaggiate con cablaggi coassiali a 75 ohm che usano
un connettore BNC. Questo permette di usare gli stessi cavi, sezionatori e infrastrutture già in uso per il video
analogico e digitale. L'esempio tipico è nella più recente generazione di videoregistratori betacam, ma anche molti
video server prevedono questo tipo di connessione, nota come AES3id.
L'audio AES/EBU può anche essere trasportato direttamente insieme al segnale video, all'interno di un segnale SDI.
In questo caso, viene integrato come ancillary data insieme alle informazioni di sincronismo orizzontale e prende il
nome di audio embedded.
Un ulteriore modo di di trasmettere l'audio AES/EBU è di incapsularlo all'interno di una rete ATM. Lo standard per
fare questo è l'AES47, noto anche come IEC 62365.
Per informazioni sulla sincronizzazione di strutture di audio digitale, si veda lo standard AES11, mentre la capacità
di inserire identificatori univoci all'interno di un flusso AES3 è coperta dallo standard AES52.
AES/EBU 280

Il protocollo
Il protocollo di basso livello per la
trasmissione dati è in gran parte identico
tra AES/EBU e S/PDIF, per cui quanto
segue si applica anche a quest'ultimo
formato, tranne se diversamente indicato.
L'AES/EBU fu progettato in primo luogo
per supportare l'audio codificato PCM sia
nel formato DAT a 48 kHz che nel formato
CD a 44.1 kHz. Non si tentò in alcun modo
di usare una portante che potesse supportare
entrambe le frequenze di campionamento:
l'AES/EBU permette ai dati di essere di
qualsiasi frequenza, e recupera il clock di
riferimento usando la codifica Biphase Mark
Code (BMC) per i dati. Una conseguenza
importante di questo è che il segnale
AES/EBU trasportato attraverso una linea
bilanciata è indipendente dalla polarità, e
viene trasmesso correttamente anche se il
Semplice rappresentazione del protocollo sia AES/EBU che S/PDIF
cavo è in controfase.

Il flusso di bit consiste nei dati audio PCM raggruppati in campioni di piccole dimensioni e inseriti in una struttura
più grande che trasporta anche varie informazioni e codici di stato. La struttura di più alto livello è l'audio block, che
corrisponde pressappoco al numero di campioni di dati PCM. Ogni blocco è suddiviso in 192 frame numerati da 0 a
191, a loro volta divisi in due subframe (o canali): A (sinistro) e B (destro). Ogni subframe contiene l'informazione
di un singolo campione di audio PCM o, più semplicemente, un canale di audio. Ogni subframe è organizzato in 32
time slot numerati da 0 a 31, ognuno dei quali corrisponde all'incirca a un singolo bit. Non tutti i blocchi sono usati
per trasmettere i dati audio, alcuni servono per segnali di controllo, e altri per trasmettere informazioni sui canali.
Nell'uso normale solo 20 blocchi sono usati per l'audio, il ché fornisce una qualità audio a 20 bit (come confronto, un
CD usa campioni a 16 bit).

In definitiva, un audio block completo contiene 192 campioni di due canali audio e altri dati, per 12288 bit in totale.
I 32 bit del time slot sono usati in questo modo:

Time slot da 0 a 3
In realtà, questi time slot non trasportano dati ma possono aiutare il recupero del clock e l'identificazione dei
subframe. Non sono codificati BMC per cui sono unici nel flusso di dati e più facili da riconoscere, ma non
rappresentano bit reali. La loro struttura minimizza la corrente continua sulla linea di trasmissione. Sono possibili tre
preamboli:
• X (o M): 11100010 se lo stato precedente era "0", 00011101 se era "1"
• Y (o W) : 11100100 se lo stato precedente era "0", 00011011 se era "1"
• Z (o B) : 11101000 se lo stato precedente era "0", 00010111 se era "1"
La denominazione X,Y,Z è dello standard AES; quella M, W,B dell'IEC 958 (un'estensione dell'AES).
AES/EBU 281

Time slot da 4 a 7
Questi time slot possono trasportare informazioni ausiliarie, come un canale audio supplementare a bassa qualità,
impiegato per esempio per il talkback verso lo studio o per comunicazioni di servizio tra due studi Come alternativa,
posso essere usati per espandere la lunghezza di word a 24 bit, anche se questo richiede che i dispositivi che ricevono
il segnale possano impiegare questo formato non standard.

Time slot da 8 a 27
Questi time slot portano 20 bit di informazione audio, nell'ordine da LSB a MSB. Se la sorgente fornisce meno di 20
bit, gli LSB inutilizzati sono posti allo zero logico (per esempio, i bit 8-11 di un flusso dati a 16 bit proveniente da un
CD audio sono a zero).

Time slot da 28 a 31
Questi time slot portano bit associati a diverse informazioni, come segue:
• V (28) Validity bit: se è impostato a zero la word del campionamento audio è composta da dati corretti e adatti
per la conversione digitale/analogica. Altrimenti, l'apparecchio ricevente deve silenziare l'uscita durante la
presente dei campioni difettosi. È usato dai lettori che hanno problemi a leggere un campione.
• U (29) User bit: ogni tipo si dato, quale: durata, canzone, numero di traccia ecc. Un bit per canale audio per frame
form un flusso dati seriale. Ogni audio block a una word di controllo di 192 bit.
• C (30) Channel status bit: la sua struttura dipende dal tipo di segnale, se AES/EBU oppure S/PDIF.
• P (31) Parity bit: per la rilevazione di errori. Un bit di parità è fornito per permettere di rilevare errori derivanti dal
malfunzionamento dell'interfaccia. Se il bit è impostato, la parità è pari.

Il Channel Status Bit nell'interfaccia AES/EBU


Come indicato prima, c'è un channel status bit in ogni subframe, da cui deriva una word di 192 bit ogni audio block.
Questo significa che ci sono 192/8 = 24 byte disponibili in ciascun audio block. I contenuti del channel status bit
sono completamente diversi tra AES/EBU e S/PDIF. Per l'AES/EBU, lo standard descrive in dettaglio come la
maggior parte dei bit debba esserte usata. Questa è solo una panoramica da un punto di vista più alto, che descrive
solo lo scopo dei 24 byte:
• byte 0: basic control data: indica se l'audio è compresso o no, se c'è qualche tipo di enfasi, qual è la frequenza di
campionamento.
• byte 1: indica se il flusso audio è stereo, mono o altre combinazioni.
• byte 2: indica la lunghezza della word audio.
• byte 3: usato solo per applicazioni multicanale.
• byte 4: indica se il segnale può essere impiegato come riferimento per la frequenza di campionamento.
• byte 5: riservato.
• byte 6 - 9 e 10 - 13: questi due slot di quattro byte sono usati per trasmettere caratteri ASCII.
• byte 14 - 17: questi 4 byte forniscono uno slot di 32 bit in cui c'è un indirizzo che viene incrementato a ogni
frame, e viene usato per numerarli.
• byte 18 - 21: come sopra, ma in un formato diverso, poiché è relativo al tempo reale (viene azzerato a
mezzanotte).
• byte 22: contiene informazioni sull'affidabilità dell'audio block.
• byte 23: il byte finale è un CRC. Se non viene ricevuto, significa che la trasmissione è stata interrotta prima della
fine dell'audio block, così quel blocco viene ignorato.
AES/EBU 282

Bibliografia
• J. Watkinson, The Art of Digital Audio Third Edition, Focal Press, 2001

Voci correlate
• S/PDIF
• ADAT
• AES11
• AES52
• timecode embedded AES-EBU

Collegamenti esterni
• THE EBU/AES DIGITAL AUDIO INTERFACE [1], documento tecnico della EBU
• Discussione [2] sull'interfaccia AES3id.

Note
[1] http:/ / www. ebu. ch/ CMSimages/ en/ tec_AES-EBU_eg_tcm6-11890. pdf
[2] http:/ / www. gpsys. com/ aes3id. htm

ATRAC
ATRAC

Estensione .aa3
.oma

Sviluppatore Sony Corporation

Tipo Compressione audio digitale

ATRAC (Adaptive Transform Acoustic Coding) è un sistema di registrazione audio compresso del tipo lossy
impiegato nel Minidisc che tiene conto di fenomeni psicoacustici quali l'effetto di mascheramento e la soglia di
udibilità.

Caratteristiche
Il Minidisc è un supporto magneto-ottico di soli 64 mm nel quale vi si possono registrare fino a 74 minuti di musica
e che usa la tecnica di compressione ATRAC. In fase di registrazione, in pratica, il segnale viene suddiviso in
intervalli di tempo regolari di 20 millisecondi e scomposto nelle sue componenti mediante FFT (trasformata rapida
di Fourier). Successivamente il segnale audio analizzato viene fatto riconoscere dall'algoritmo di compressione che
taglia tutti i segnali ritenuti non udibili e quindi superflui per la registrazione. Il segnale di registrazioni audio con
questo tipo di compressione ha un fattore prossimo a 5. In fase di lettura del Minidisc dopo che il decodificatore
ATRAC ha ricomposto le varie componenti del segnale audio ed i diversi segmenti di 20 millisecondi, il segnale
digitale viene trattato con un normale convertitore D/A a 16 bit.
ATRAC (Adaptive Transform Acoustic Coding) è una famiglia di algoritmi di compressione audio di tipo lossy
proprietaria sviluppata da Sony. La prima applicazione commerciale di tale codifica avvenne nel 1992 come formato
audio utilizzato nei MiniDisc (anch'essi sviluppati da Sony) e permette di immagazzinare in un disco magneto-ottico
di soli 64 mm di diametro informazioni audio per una durata uguale a quella di un CD (74 minuti in modalità stereo),
ATRAC 283

con una perdita di qualità percepibile molto limitata. Nel tempo i codec utilizzati da tale formato sono stati evoluti e
migliorati ed oggi comprendono ATRAC3 (sviluppato nel 1999), ATRAC3plus (2002) e ATRAC Advanced
Lossless (2006).
Oggi ATRAC viene ancora supportato da molti riproduttori audio realizzati dalla stessa Sony.

Principi di funzionamento
In fase di registrazione il segnale viene suddiviso in intervalli di tempo regolari di 20 millisecondi e scomposto nelle
sue componenti mediante FFT (trasformata rapida di Fourier). Successivamente il segnale audio analizzato viene
fatto riconoscere dall'algoritmo di compressione che taglia tutti i segnali ritenuti non udibili e quindi superflui per la
registrazione. Il segnale di registrazioni audio con questo tipo di compressione ha un fattore prossimo a 5. In fase di
lettura, dopo che il decodificare ATRAC ha ricomposto le varie componenti del segnale audio ed i diversi segmenti
di 20 millisecondi, il segnale digitale viene trattato con un normale convertitore D/A a 16 bit.

Bitrate e qualità
In origine ATRAC prevedeva un bitrate di 292 kbit/s (utilizzato per la codifica audio nei MiniDisc) e consentiva di
ottenere una qualità 'vicina' a quella riscontrabile in un CD-Audio. Nel tempo, i miglioramenti apportati al formato
hanno consentito di ottenere risultati qualitativi migliori a parità di bitrate.

Comparazione con altri formati


Sony ha dichiarato ufficialmente che la specifica ATRAC3plus a 64kbit/s consente di ottenere un audio comparabile
a quello ottenibile con una codifica MP3 a 128kbit/s, rendendolo paragonabile ad altri codec quali AACplus,
mp3PRO e Windows Media Audio.

Prestazioni
Gli sviluppatori del codec sostengono che gli algoritmi utilizzati da ATRAC, grazie anche alla stretta collaborazione
di LSI, consentono un'alta velocità di encoding con un minimo utilizzo di potenza. Caratteristica che differenzi
ATRAC degli altri codec, sviluppati principalmente per i computer e senza prestare particolare attenzione alle
limitate capacità hardware dei dispositivi portatili.
La linea Walkman di riproduttori multimediali di Sony denota una durata della batteria più elevata durante la
riproduzione di file in formato ATRAC rispetto all'utilizzo di file MP3.

ATRAC1
La specifica ATRAC1 venne inizialmente applicata da Sony al proprio formato audio per i cinema, l'SDDS, in
diretta competizione con i sistemi Dolby Digital (AC3) e DTS. SDDS utilizza il formato ATRAC1 su 8 canali con
un bitrate complessivo di 1168 kbit/s.

ATRAC3 (Modi LP2 e LP4)


Modo LP2
Utilizza un bit rate pari a 132 kbit/s e la qualità percepita è molto simile a quella ottenibile con una codifica MP3 a
bit rate simile; come afferma un blind test tenutosi nel febbraio 2003 commissionato da Sony e svolto da una società
esterna afferma. Altri test di tipo scientifico svolti dalle European Broadcasting Union indicano che
l'implementazione di ATRAC3 utilizzata dal formato RealAudio 8 a 64 kbit/s si posiziona come secondo miglior
codec oggi disponibile, battuta solamente dal più avanzato formato MP3Pro. Tuttavia, in ulteriori indagini di tipo
double blind-test del maggio 2004 che mettevano a confronto ATRAC3, Ogg Vorbis, MP3 a bit rate variabile
ATRAC 284

ottenuti con LAME ed AAC il codec di Sony si è classificato ultimo. Alcune critiche comuni inerenti alle indagini
svolte riguardano la possibilità che Sony abbia deciso di non implementare i migliori sistemi di encoding e decoding
(denominati DSP TYPE S) per PC. Tali supposizioni però vengono smentite dalla presenza dei codec DSP TYPE S
in alcuni modelli di riproduttori e registratori portatili delle serie HiMD (come il Sony HiMD Walkman MZ-NH1) e
NetMD (come il Sony MD Walkman MZ-N10).

General bitrate quality


L'originale bit rate ATRAC a 292 kbit/s fu dichiarato essere 'vicino alla qualità di un CD', acusticamente parlando.
Questa è la frequenza di compressione usata nei primi MiniDisc. Anni dopo ATRAC fu migliorato ed è in genere
considerato migliore delle versioni precedenti a bit rate simile. Per ragioni di comparazione, i CD sono compressi a
1411.2 kbit/s e i migliori compressori possono creare CD intorno ai 1000 kbit/s, con significative riduzioni di bitrate
per contenuti semplici come la voce.

Qualità del bitrate comparato ad altri formati


Sony dichiara che un ATRAC3plus a 64 kbit/s fornisce una qualità comparabile a quella di un MP3 a 128 kbit/s;
questo pone il codec nella stessa categoria di AACplus, mp3PRO e Windows Media Audio (secondo dichiarazioni
simili da parte di Microsoft).

Performance
Secondo ingegneri ATRAC, gli algoritmi ATRAC furono sviluppati in stretta cooperazione con ingegneri per lo
sviluppo LSI di Sony per creare un prodotto che potesse comprimere ad alta velocità e con minimo dispendio
energetico.[1]
I Walkman Sony offrono una migliore durata della batteria quando riproducono file ATRAC rispetto ai file MP3. È
il modo in cui le serie Sony NW-HDx (NW-HD1, NW-HD3, NW-HD5) dei Walkman dichiarano una durata della
batteria di 30 ore. Tuttavia, Sony ha inserito la compatibilità con ATRAC solo nei telefoni della serie Sony Ericsson
Walkman del mercato giapponese, e non è supportata nel mercato GSM/UMTS. Le serie Xplod di Sony per
riproduttori CD per audio supportano i CD ATRAC. I minidisk con canzoni in formato ATRAC sono stati, in
passato, supportati dalle autoradio Eclipse.

ATRAC1
ATRAC1 fu per la prima volta usato da Sony nel proprio formato theater SDDS negli anni '90, e in questo contesto è
un concorrente diretto di AC3 (Dolby Digital) e DTS. SDDS usa ATRAC1 con compressione a 8 canali.
Two stacked quadrature mirror filters divide il segnale in 3 parti:
• da 0 a 5.5125 kHz
• da 5.5125 a 11.025 kHz
• da 11.025 a 22.05 kHz
ATRAC 285

Note
[1] Sony Global - ATRAC (http:/ / www. sony. net/ Products/ ATRAC3/ special/ developers01. html)

Voci correlate
• Lossy data compression
• OpenMG
• SonicStage

Collegamenti esterni
• ATRACLife (http://www.atraclife.com) - Portale news, forum di discussione e download collegati a ATRAC.
• ATRAC technology page (http://www.sony.net/Products/ATRAC3) - Sito ufficiale su ATRAC ospitato sul
sito Sony.

Broadcast Wave Format


Broadcast Wave File

Estensione .WAV ; .BWF

Sviluppatore European Broadcasting Union, Microsoft

Tipo Nessuna Compressione

Broadcast Wave Format (BWF) è un'estensione del popolare formato audio WAV ed è il formato di registrazione
per molti registratori audio digitali utilizzati per il cinema, la televisione e la radio.
È stato specificato per la prima volta dalla European Broadcasting Union nel 1997, e modificato successivamente nel
2001 e 2003.
L'obiettivo di questo formato di file è l'aggiunta di metadata per facilitare lo scambio dei dati audio tra differenti
piattaforme e applicazioni di computer. Viene specificato il tipo di metadata, permettendo agli elementi della
processazione audio di identificarsi, documentare le proprie attività e permettere la sincronizzazione tramite time
code con altre registrazioni. I metadata sono immagazzinati come "chunks" in un file standard audio .WAV.
I file conformi alle specifiche Broadcast Wave possono avere l'estensione finale .WAV o .BWF.
In aggiunta ai comuni WAV chunk, i seguenti ulteriori chunk possono apparire in un file Broadcast Wave:
• Original Bext chunk ('bext')
• iXML chunk ('iXML')
• Quality chunk ('qlty')
• MPEG audio extension chunk ('mext')
• Peak Envelope chunk ('levl')
• link chunk ('link')
• axml chunk ('axml')
Broadcast Wave Format 286

Compatibilità formato WAV


Poiché l'unica differenza tra un file BWF e un normale file WAV sono le informazioni extra aggiunte nel header del
file, un file BWF è pienamente compatibile con tutti i riproduttori audio.

Voci correlate
• RF64, Un formato di file multicanale compatibile BWF che permette di superare le dimensioni di 4GB
• WAV
• MXF, Material eXchange Format
• Advanced Authoring Format

Collegamenti esterni
• (EN) EBU Tech 3285 - Specification of the Broadcast Wave Format (BWF) - Version 1 - first edition (2001) [1]
• (EN) EBU Tech 3285-s1 - Specification of the Broadcast Wave Format (BWF) - Supplement 1, MPEG Audio -
first edition (1997) [2]
• (EN) EBU Tech 3285-s2 - Specification of the Broadcast Wave Format (BWF) - Supplement 2, Capturing Report
- first edition (2001) [3]
• (EN) EBU Tech 3285-s3 - Specification of the Broadcast Wave Format (BWF) - Supplement 3, Peak Envelope
Chunk - first edition (2001) [4]
• (EN) EBU Tech 3285-s4 - Specification of the Broadcast Wave Format (BWF) - Supplement 4, Link Chunk - first
edition (2003) [5]
• (EN) EBU Tech 3285-s5 - Specification of the Broadcast Wave Format (BWF) - Supplement 5, <axml> Chunk -
first edition (2003) [6]

Note
[1] http:/ / www. ebu. ch/ CMSimages/ en/ tec_doc_t3285_tcm6-10544. pdf
[2] http:/ / www. ebu. ch/ CMSimages/ en/ tec_doc_t3285_s1_tcm6-10545. pdf
[3] http:/ / www. ebu. ch/ CMSimages/ en/ tec_doc_t3285_s2_tcm6-10482. pdf
[4] http:/ / www. ebu. ch/ CMSimages/ en/ tec_doc_t3285_s3_tcm6-10483. pdf
[5] http:/ / www. ebu. ch/ CMSimages/ en/ tec_doc_t3285_s4_tcm6-10484. pdf
[6] http:/ / www. ebu. ch/ CMSimages/ en/ tec_doc_t3285_s5_tcm6-10485. pdf
Codice (teoria dell'informazione) 287

Codice (teoria dell'informazione)


In tutte le attività nelle quali si trattano informazioni, come nelle telecomunicazioni (e di conseguenza anche
nell'elettronica e nell'informatica), nell'organizzazione delle biblioteche e in molte attività gestionali, per codice si
intende una modalità per rappresentare mediante un opportuno insieme di stringhe (o di simboli) un insieme di
oggetti materiali o un insieme di informazioni tendenzialmente più complesse delle stringhe (o dei simboli) che le
codificano. Un codice si dice efficiente quando utilizza un numero di simboli strettamente necessario per codificare
l'informazione, mentre all'opposto si dice ridondante quando usa un numero di simboli abbondanti, e quindi più di
quelli necessari, ma utili per semplificare la generazione e la interpretazione delle informazioni. Il termine codice
viene usato con due significati: il primo, equivalente a procedimento di codifica, riguarda la modalità seguita per
assegnare univocamente ad ogni elemento dell'insieme da rappresentare una stringa che lo rappresenta; il secondo,
equivalente a insieme delle codifiche, denota l'insieme delle stringhe rappresentative (questo è il significato utilizzato
nel capitolo della matematica chiamato teoria dei codici (v. 94-XX).
Un esempio tradizionale di codice è il Morse utilizzato nei primi tempi della telegrafia (1840): in cui ad ogni lettera
dell'alfabeto inglese (l'insieme di informazioni da rappresentare) viene assegnata una sequenza di punti e linee (gli
elementi dell'alfabeto usato per la codifica).
L'univocità della rappresentazione gioca un ruolo cruciale in tutte le applicazioni della codifica (il procedimento di
trasportare gli elementi dalla rappresentazione di partenza a quella definita dal codice) e di decodifica (l'inverso). I
codici risultano utili quando la comunicazione verbale normale non è sufficiente o non è praticabile. Con
un'opportuna codifica è possibile descrivere realtà ben più complesse del lessico del linguaggio naturale, come ad
esempio un'immagine o una serie di suoni.
Con l'avvento dell'informatica e delle telecomunicazioni i codici hanno preso ulteriore piede per la trasmissione
affidabile e la compressione dei dati, anche se già all'epoca del telegrafo venivano usate degli acronimi per
trasmettere frasi di uso particolarmente frequente. Ad esempio, BYOXO (Are you trying to weasel out of our deal? -
Stai cercando di uscire dal nostro accordo?), LIOUY (Why do you not answer my question? - Come mai non rispondi
alla mia domanda?), o AYYLU (Not clearly coded, repeat more clearly. - Codificato male, per favore ripetere più
chiaramente).

Definizione formale
Sia S un insieme finito di elementi detto alfabeto del codice, come ad esempio le due facce con una moneta (T, C).
Un insieme A di sequenze costruite giustapponendo uno o più elementi di S è un codice. Ogni elemento di A è una
parola del codice e il numero di elementi dell'alfabeto usati per costruirla ne indica la lunghezza. Perché un codice
abbia utilità e senso, tuttavia, dev'essere associato con qualche meccanismo controllabile (formula, algoritmo, elenco
ben definito, ...) a un insieme di possibili dati che deve rappresentare fedelmente e dunque averne la stessa
cardinalità. Per esempio, l'insieme {T, C, TC, TT} è un codice e può essere usato come codifica dei numeri 0, 1, 2, 3.

Proprietà
Giustapponendo più parole del codice si ha un messaggio costruito su tal codice, come ad esempio TTC o TCTC.
Dipendentemente dal fatto che un qualsiasi messaggio possa essere scomposto in modo che esista un'unica serie di
parole del codice che la compongano il codice si dice univocamente decodificabile o meno. Il codice di cui sopra
non è univocamente decodificabile poiché il messaggio TT potrebbe essere scomposto come la ripetizione 2 volte
della parola T o la parola stessa del codice TT. Al contrario, {C, TC, TTC, TTTC} è un codice univocamente
decodificabile. Un codice in cui tutte le parole hanno la stessa lunghezza si dice codice a blocchi o in caso contrario
codice a lunghezza variabile.
Codice (teoria dell'informazione) 288

Altre proprietà di un codice sono la capacità di correggere errori, comprimere i messaggi, essere lineari o meno,
essere utilizzabili in crittografia o essere istantanei.
Lo studio dei codici in maniera sistematica come elementi fondamentali per la teoria dell'informazione e della
trasmissione è nato nel 1948 con il lavoro di Claude Shannon.

Codice di Gödel
In matematica, un codice di Gödel è alla base della dimostrazione del Teorema di incompletezza di Gödel. In tal
caso, l'idea consiste nel trasformare notazione matematica in un numero naturale (numero di Gödel).

Altri progetti
• Wikimedia Commons contiene file multimediali su Codice (teoria dell'informazione)

Codec
Un codec è un programma o un dispositivo che si occupa di codificare e/o decodificare digitalmente un segnale
(tipicamente audio o video) perché possa essere salvato su un supporto di memorizzazione o richiamato per la sua
lettura.
Tale programma può essere installabile/aggiornabile (su personal computer o apparecchiature multimediali
predisposte) oppure essere integrato in un componente hardware dedicato (ad es. nei lettori CD o DVD casalinghi o
in alcune schede video/audio per PC).
Oltre alla digitalizzazione del segnale, i codec effettuano anche una compressione (e/o decompressione in lettura) dei
dati ad esso relativi, in modo da poter ridurre lo spazio di memorizzazione occupato a vantaggio della portabilità o
della trasmissività del flusso codificato.
I codec si dividono in base alla modalità in cui effettuano la compressione:
• con perdita di informazione (lossy)
• senza perdita di informazione (lossless)
Per realizzare tale compressione si fa ricorso alla riduzione della precisione dei colori dei singoli pixel (codec video)
o delle frequenze da riprodurre (in alcuni codec audio vengono soppresse le frequenze non udibili dall'orecchio
umano), alla eliminazione delle ridondanze o alla scrittura delle sole differenze (codec video) rispetto ad una
immagine di riferimento.
Esistono vari tipi di codec, differenti tra loro per il tipo di segnale su cui devono operare e per l'algoritmo di
codifica/compressione in essi implementato.
Nel sistema operativo Microsoft Windows, i codec sono delle librerie con estensione .dll, che i vari player audio e
video gestiscono come dei plug-in.
Nel sistema operativo Mac OS X i codec sono gestiti dal sistema QuickTime che li utilizza come plug-in con
estensione .component memorizzati nella cartella QuickTime che si trova nella cartella Libreria.
Il codec permette di ascoltare formati proprietari e aperti da qualunque lettore di file, mantenendo separati il livello
fisico del formato da quello logico della sua rappresentazione.
Codec 289

Voci correlate
• Compressione audio
• Compressione video
• Codec video
• Codec audio
• Compressione dei dati
• Artefatti di compressione
• Lista dei codec
• Sigle dei DivX
• Screener
• SUPER

Collegamenti esterni
• Codecpackguide.com [1]
• Portale dove scaricare i codec audio e video [2]
• VoIP codecs [3]
• Archivio di codec audio e video in italiano [4]

Note
[1] http:/ / www. codecpackguide. com/
[2] http:/ / www. free-codecs. com
[3] http:/ / www. en. voipforo. com/ codec/ codecs. php
[4] http:/ / www. codecdivx. it
Codifica di canale 290

Codifica di canale
In telecomunicazioni il termine codifica di canale designa, in una trasmissione digitale, l'insieme di tecniche volte a
garantire il più possibile la trasmissione ottimale, ovvero l'integrità dei dati, di un messaggio attraverso un canale con
rumore che introduce errori nella trasmissione. Nella fattispecie si tratta di tecniche che introducono ridondanza in
un flusso informativo digitale utilizzata poi per la rilevazione e/o la correzione dell'errore a valle in ricezione.
L'elemento in trasmissione deputato alla codifica di canale è detto codificatore di canale, quello complementare in
ricezione è detto decodificatore di canale. Il prezzo che si paga per l'uso queste tecniche è la riduzione di efficienza
di trasmissione di dati utili (Goodput) data l'introduzione di ridondanza e la necessità di una banda maggiore per la
trasmissione a parità di velocità di trasmissione. L'operazione di codifica di canale fa uso di conoscenze proprie della
Teoria dei codici.

Modalità di scambio delle informazioni e dialogo dei protocolli


Le informazioni vengono scambiate in modalità:
• simplex, il messaggio viaggia in una sola direzione
• half-duplex, i messaggi viaggiano in entrambe le direzioni, ma alternativamente
• full-duplex, i messaggi vengono scambiati in entrambe le direzioni anche contemporaneamente.
I protocolli comunicano tra loro usando le discipline One Way,Two Way Alternate o Two Way Simultaneous.

Codici di controllo e correzione


A seconda del tipo di messaggio da trasmettere si sceglierà il tipo di controllo degli errori e, eventualmente, di
correzione (infatti, nell'invio es.: di fotogrammi video in videoconferenza non sarà richiesto che arrivino integri tutti
i dati; al contrario, es.: trasmissione FTP, sarà imperativo garantire l'arrivo corretto di tutti i dati). Di seguito sono
brevemente introdotte le due modalità di codifica più usate: si distinguono codici a rilevazione d'errore e codici a
rilevazione e correzione d'errore.

Valutazione di un Codice
Le prestazioni di un codice vengono misurate in:
• capacità di rivelazione: numero massimo di errori che esso riesce a rivelare in una parola di codice.
• capacità di correzione: numero massimo di errori che esso riesce a correggere in una parola di codice. Questa è
sempre minore della capacità di rilevazione; di conseguenza in un codice a rilevazione/correzione non tutti gli
errori vengono eliminati: tipicamente si riesce a ridurre il BER fino a valori dell'ordine di 10^-6.
• code rate: è il rapporto (minore di 1) fra la lunghezza totale della parola di codice (n) e bit di messaggio (k),
, con N-K pari alla ridondanza introdotta. Rappresenta una misura in termini di efficienza del codice:

tanto più tale rapporto è basso ciò tanto più N-K è alto, tanto più si introduce ridondanza e il codice di canale è
efficiente, ma diminuisce l'efficienza di trasmissione dei dati utili ed aumenta la necessità di banda per la
trasmissione.
In particolare se il codificatore di canale riceverà in ingresso un flusso di bit con tasso pari a Rs, esso dovrà garantire
in uscita un ritmo di emissione almeno pari a quello di ingresso per evitare perdita di informazione; poiché di fatto
esso introduce della ridondanza di bit il flusso in uscita dovrà avere un bit-rate complessivo Rc più alto di quello di
ingresso per garantire la suddetta condizione.
Codifica di canale 291

ARQ (Automatic Repeat-reQuest)


È un'entità alla pari del ricevitore, che svolge solo il compito di rivelare un errore (ma non di correggerlo). I
pacchetti corrotti vengono scartati e viene richiesta la loro ritrasmissione. Questa può essere richiesta attraverso 3
diversi protocolli:
• Stop and wait: il mittente invia un messaggio e attende dal destinatario una conferma positiva (ACK), negativa
(NACK) o un comando; se scade il tempo di attesa (time-out) per uno di questi tre, il mittente provvederà a
rispedire il pacchetto e il destinatario si incaricherà di scartare eventuali repliche. Nel caso in cui si verificasse un
errore nella trasmissione del segnale di conferma (ACK), il mittente provvederà a rinviare il pacchetto; il
destinatario riceverà in questo modo una copia del pacchetto già ricevuto, credendo che gli sia pervenuto un
nuovo pacchetto. Per ovviare a questo problema si può procedere numerando i pacchetti trasmessi, ovvero
inserendo un bit di conteggio.
• Go Back N: il mittente dispone di un buffer dove immagazzina N pacchetti da spedire, man mano che riceve la
conferma ACK svuota il buffer e lo riempie con nuovi pacchetti; nell'eventualità di pacchetti persi o danneggiati e
scartati avviene il reinvio del blocco di pacchetti interessati. I pacchetti ricevuti dal destinatario dopo quello
scartato vengono eliminati.
• Selective Repeat: in questo caso anche il destinatario dispone di un buffer dove memorizzare i pacchetti ricevuti
dopo quello/quelli scartati; quando i pacchetti interessati vengono correttamente ricevuti, entrambi i buffer
vengono svuotati (mittente) o i pacchetti contenuti salvati (destinatario).
Questi protocolli si utilizzano quando non si è in presenza di una comunicazione real-time che non può permettersi i
tempi di latenza di una ritrasmissione necessitando quindi di codici a rilevazione e correzione.

FEC (Forward Error Correction)


FEC (acronimo di Forward Error Correction) è un sistema di correzione d'errore attraverso il quale si protegge
l'immagine, in caso di momentaneo abbassamento di segnale, in modo da mantenere una buona qualità. Viene
aggiunta ridondanza ai dati relativi alle immagini tv per permettere di effettuare in ricezione una efficace correzione
degli errori ricevuti. Senza questo sistema ogni informazione persa avrebbe un riscontro sui singoli elementi di una
immagine tv. Grazie al FEC si possono tollerare bene anche errori di grande entità. Solitamente un ricevitore digitale
chiede l'impostazione del FEC in accordo con quello trasmesso dall'emittente. Vi sono anche ricevitori che invece
non richiedono di impostare il FEC in quanto sono in grado di individuare automaticamente quale rapporto
utilizzare. I FEC maggiormente utilizzati sono 2/3 e 3/4. Più il FEC si avvicina all'unità, e minore è la protezione del
segnale, ma maggiore è il symbol rate, e quindi la capacità di trasporto di segnali complessiva. Il rapporto numerico
(ad esempio 2/3 o 7/8) indica che da due simboli originari, ne sono generati tre (o da 7 ne vengono generati 8); il
simbolo aggiuntivo serve per la protezione. È teoricamente possibile (e sarebbe conveniente per ottenere una
maggior protezione) aggiungere simboli a volontà (ad esempio usare un FEC di 2/6), ma si perderebbe l'incremento
di efficienza ottenuto cambiando il metodo di modulazione.

Tipologie di codici
Esistono varie tipologie di codici, principalmente divisibili in codici a blocchi (o lineari, come quello di Hamming) e
codici convoluzionali.
Nel primo caso, codici a blocchi, tutti i blocchi-dati sono legati tra loro da sequenze aggiunte ai pacchetti e
distinguibili tra loro; nel secondo caso, invece, ai pacchetti viene aggiunta una certa ridondanza Q e i pacchetti,
sebbene non distinguibili, sono comunque tra loro legati.
Codifica di canale 292

Voci correlate
• Codifica convoluzionale

Codice convoluzionale
Nelle telecomunicazioni, un codice convoluzionale è un tipo di codice per la correzione d'errore nel quale
• ogni simbolo d'informazione a m bit (ogni stringa a m bit) da codificare è trasformato in un simbolo a n bit, dove
m/n è il rapporto (rate) del codice (n ≥ m) e
• la trasformazione è una funzione degli ultimi k simboli d'informazione, dove k è la lunghezza dei vincoli
(constraint length) del codice.

Dove si usano i codici convoluzionali


I codici convoluzionali si usano estesamente in numerose applicazioni allo scopo di ottenere un trasferimento di dati
affidabile, comprese il video digitale, la radio, la telefonia mobile e le comunicazioni via satellite. Questi codici sono
spesso implementati in concatenazione con un codice per le decisioni rigide (hard-decision code), particolarmente
quello di Reed-Solomon. Anteriormente ai codici Turbo, tali costruzioni erano le più efficienti, avvicinandosi
moltissimo al limite di Shannon.

Codifica convoluzionale
Per codificare convoluzionalmente i dati, si inizia con k registri di memoria, ognuno contenente 1 bit di input. A
meno che non sia altrimenti specificato, tutti i registri di memoria iniziano con un valore di 0. Il codificatore ha n
sommatori modulo 2 (un sommatore modulo 2 può essere implementato con una singola porta XOR booleana, dove
la logica è: 0+0 = 0, 0+1 = 1, 1+0 = 1, 1+1 = 0), e n polinomi generatori — uno per ciascun sommatore (vedi figura
sotto). Un bit d'ingresso m1 è immesso nel registro più a sinistra. Usando i polinomi generatori e i valori esistenti nei
rimanenti registri, il codificatore fornisce come risultato n bit. Ora sposta i bit di tutti i valori di registro a destra (m1
si muove verso m0, m0 si muove verso m-1) e attende il prossimo bit d'ingresso. Se non ci sono bit d'ingresso
rimanenti, il codificatore continua a fornire risultati fino quando tutti i registri sono ritornati allo stato zero.
La figura di sotto è un codificatore di rapporto 1/3 (m/n) con lunghezza dei vincoli (k) di 3. I polinomi generatori
sono G1 = (1,1,1), G2 = (0,1,1) e G3 = (1,0,1). Perciò, i bit di uscita sono calcolati (modulo 2) come segue:
n1 = m1 + m0 + m-1
n2 = m0 + m-1
n3 = m1 + m-1.
Codice convoluzionale 293

Fig. 1. Codificatore convoluzionale non ricorsivo,


non sistematico di rapporto 1/3 con lunghezza dei
vincoli 3

Codici ricorsivi e non ricorsivi


Il codificatore sulla figura di sopra è un codificatore non ricorsivo. Ecco un esempio di uno ricorsivo:

Fig. 2. Codificatore convoluzionale ricorsivo, sistematico di rapporto 1/2 con lunghezza dei
vincoli 4

Si può vedere che anche l'ingresso (input) codificato è incluso nella sequenza in uscita (output) (si guardi l'output 2).
Tali codici sono definiti sistematici; altrimenti il codice è chiamato non sistematico.
I codici ricorsivi sono sempre ssitematici e, per converso, i codici non rcorsivi somo non sistematici. Non è un
requisito rigido, ma una prassi comune.
Codice convoluzionale 294

Risposta impulsiva, funzione di trasferimento e lunghezza dei vincoli


Un codificatore convoluzionale è così chiamato perché esegue una convoluzione del flusso in ingresso con le
risposte impulsive del codificatore:

dove è una sequenza d'ingresso, è una sequenza proveniente dall'uscita e è una risposta impulsiva per
l'uscita .
Un codificatore convoluzionale è un sistema dinamico lineare tempo invariante discreto. Ogni uscita di un
codificatore può essere descritta dalla propria funzione di trasferimento, che è strettamente legata a un polinomio
generatore. Una risposta impulsiva è connessa a una funzione di trasferimento attraverso la trasformata zeta.
Le funzioni di trasferimento per il primo codificatore (non ricorsivo) sono:



Le funzioni di trasferimento per il secondo codificatore (ricorsivo) sono:


Si definisca by

dove, per qualsiasi funzione razionale ,


.
Allora è il massimo dei gradi polinomiali del , e la lunghezza dei vincoli è definita come
. Ad esempio, nel primo caso sopra riportato la lunghezza dei vincoli è 3, e nel secondo è 4.

Diagramma a griglia
Un codificatore convoluzionale è una macchina a stati finiti. Un codificatore con n celle binarie avrà 2n stati.
S'immagini che il codificatore (mostrato in Fig. 1, sopra) abbia '1' nella cella di memoria sinistra (m0), e '0' in quella
destra (m-1). (m1 non è realmente una cella di memoria perché rappresenta un valore corrente). Designeremo tale
stato come "10". Secondo un bit d'ingresso il codificatore al prossimo turno può convertire o allo stato "01" o allo
stato "11". Si può vedere che non tutte le transizioni sono possibili (ad es., un codificatore non può convertire dallo
stato "10" a "00" o anche rimanere nello stato "10").
Tutte le possibili transizioni possono essere mostrate nel modo seguente:

Fig. 3. Un diagramma a griglia (trellis diagram) per il codificatore nella Fig. 1. Un percorso
attraverso la griglia è mostrato come una linea rossa. Le linee intere indicano le transizioni
dove l'ingresso è uno "0" e le linee spezzate dove l'ingresso è un "1".
Codice convoluzionale 295

Un'effettiva sequenza codificata può essere rappresentata come un percorso su questo grafico. Nell'esempio un
percorso valido è mostrato in rosso.
Questo diagramma a griglia o a traliccio (trellis diagram) ci fornisce un'idea sulla decodifica: se una sequenza
ricevuta non si adatta a questo grafico, allora è stata ricevuta con errori, e dobbiamo scegliere la sequenza corretta
(che si adatta al grafico) più vicina. Gli algoritmi reali di decodifica sfruttano questa idea.

Distanza libera e distribuzione dell'errore


La distanza libera (d) è la distanza minima di Hamming tra differenti sequenze codificate. La capacità correttiva (t)
di un codice convoluzionale è il numero di errori che possono essere corretti dal codice stesso. Essa può essere
calcolata come

Poiché un codice convoluzionale non usa blocchi, elaborando inveve un flusso di bit continuo, il valore di t si applica
a una quantità di errori localizzati relativamente l'uno vicino all'altro. Cioè, gruppi multipli di errori t possono
solitamente essere aggiustati quando sono relativamente distanti.
La distanza libera può essere interpretata come la distanza minima di una "scarica" errata all'uscita di un
decodificatore convoluzionale. Il fatto che gli errori appaino come "scariche" dovrebbe essere tenuto in
considerazione quando si progetta un codice concatenato con un codice convoluzionale interno. La soluzione
popolare per questo problema è di "interfogliare" (interleave) i dati prima della codifica convoluzionale, in modo che
il codice del blocco esterno (solitamente il Reed-Solomon) possa correggere la maggior parte degli errori.

Decodifica dei codici convoluzionali


Esistono parecchi algoritmi per decodificare i codici convoluzionali. Per valori relativamente piccoli di k, è
universalmente utilizzato l'algoritmo di Viterbi in quanto fornisce una prestazione a massima verosimiglianza ed è
altamente parallelizzabile. I decodificatori di Viterbi sono quindi facili da implementare nell'hardware VLSI e nel
software su CPU con serie di istruzioni SIMD.
I codici con la lunghezza dei vincoli più lunga sono decodificati in maniera più pratica con uno qualsiasi dei vari
algoritmi di decodifica sequenziale, dei quali l'algoritmo di Fano è quello meglio conosciuto. Diversamente dalla
decodifica di Viterbi, la decodifica sequenziale non soddisfa la massima verosimiglianza ma la sua complessità
aumenta solo leggermente con la lunghezza dei vincoli, consentendo l'uso di codici forti, con lunghezza dei vincoli
lunga. Tali codici furono usati nel programma Pioneer dei primi anni 1970 su Giove e Saturno, ma diedero vita a
codici più brevi, decodificati con Viterbi, solitamente concatentati con grandi codici di correzione d'errore di
Reed-Solomon che rendono più ripida la curva complessiva della percentuale di errore per bit e producono
percentuali di errore residuo non rilevato estremamente basse.
Sia gli algoritmi di Viterbi che quelli di decodifica sequenziale restituiscono decisioni rigide: i bit che formano la
parola di codice più probabile. Una misura approssimativa di confidenza può essere aggiunta a ogni bit mediante
l'uso dell'algoritmo di Viterbi per l'uscita morbida. Decisioni morbide maximum a posteriori (MAP) per ogni bit
possono essere ottenute utilizzano l'algoritmo BCJR.
Codice convoluzionale 296

Popolari codici convoluzionali


Un codice convoluzionale decodificato con Viterbi particolarmente popolare, usato almeno a partire dal programma
Voyager, ha una lunghezza dei vincoli k di 7 e un rapporto r di 1/2.
• Lunghezze dei vincoli più lunghe producono codici più potenti, ma la complessità dell'algoritmo di Viterbi
aumenta esponenzialmente con le lunghezze dei vincoli, limitando questi codici più potenti alle missioni nello
spazio profondo dove il rendimento extra vale facilmente l'accresciuta complessità del decodificatore.
• Mars Pathfinder, Mars Exploration Rover e la sonda Cassini per Saturno usano una k di 15 e un rapporto r di 1/6;
questo codice esegue circa 2 dB meglio del più semplice codice k=7 a un costo di 256× in termini di complessità
di decodifica (paragonato ai codici della missione Voyager).

Codici convoluzionali perforati


La perforazione (puncturing) è una tecnica usata per ricavare un codice con rapporto m/n da un codice con rapporto
"basilare" 1/2. Si ottiene mediante cancellazione di alcuni bit nell'uscita del codificatore. I bit sono cancellati
secondo una matrice di perforazione. Le seguenti matrici di perforazione sono quelle usate più frequentemente:

rapporto di codice matrice di perforazione distanza libera (per il codice convoluzionale standard NASA con K=7)

1/2 10
(Nessuna prestazione) 1

2/3 6
1 0

1 1

3/4 5
1 0 1

1 1 0

5/6 4
1 0 1 0 1

1 1 0 1 0

7/8 3
1 0 0 0 1 0 1

1 1 1 1 0 1 0

Ad esempio, se volessimo ricavare un codice con rapporto 2/3 usando la matrice appropriata dalla tabella precedente,
dovremmo prendere un'uscita basilare del codificatore e trasmettere ogni secondo bit dal primo ramo e ogni bit dal
secondo. L'ordine specifico di trasmissione è definito dal rispettivo standard di comunicazione.
I codici convoluzionali perforati sono ampiamente usati nelle comunicazioni via satellite, ad esempio nei sistemi
INTELSAT e Digital Video Broadcasting.
I codici convoluzionali perforati sono chiamati in inglese punctured o anche perforated.
Codice convoluzionale 297

Codici turbo: sostituzione dei codici convoluzionali


I semplici codici convoluzionali decodificati con Viterbi stanno ora lasciando spazio ai codici turbo, una nuova
classe di codici convoluzionali brevi iterati che si avvicinano strettamente ai limiti eroici imposti dal teorema di
Shannon, con una complessità di decodifica molto minore dell'algoritmo di Viterbi sui lunghi codici convoluzionali
che sarebbero richiesti per la stessa esecuzione. La concatenazione con un codice algebrico esterno (ad es., quello di
Reed-Solomon) solleva la questione dei livelli minimi di errore o error floors insiti nei progetti dei codici turbo.

Bibliografia
• Questo articolo incorpora materiale di pubblico dominio tratto dal documento Federal Standard 1037C [1] della
General Services Administration del Governo federale degli Stati Uniti d'America

Voci correlate
• Codice convoluzionale quantistico

Collegamenti esterni
• Sandro Bellini. Teoria dell'informazione e codici [2] (PDF). Politecnico di Milano. URL consultato il 26 gennaio 2011.
• (EN) Tutorial sulla codifica e decodifica convoluzionale [3]
• (EN) Il libro di testo in linea: Information Theory, Inference, and Learning Algorithms ("Teoria dell'informazione,
inferenza e algoritmi di apprendimento") [4], di David MacKay, discute i codici convoluzionali nel Capitolo 48.
• (EN) La pagina degli Error Correcting Codes (ECC) ("Codici di correzione d'errore") [5]

Note
[1] http:/ / www. its. bldrdoc. gov/ fs-1037/ fs-1037c. htm
[2] http:/ / scienze-como. uninsubria. it/ previtali/ Bellini-TeoriaInfoCodiciNote. pdf
[3] http:/ / complextoreal. com/ chapters/ convo. pdf
[4] http:/ / www. inference. phy. cam. ac. uk/ mackay/ itila/
[5] http:/ / www. eccpage. com/
Compressione dei dati 298

Compressione dei dati


La compressione dati è una tecnica utilizzata in ambito informatico e telecomunicazionistico per la riduzione della
quantità di bit necessari alla rappresentazione in forma digitale di un'informazione.
La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la sua
memorizzazione, sia per ridurre l'occupazione di banda necessaria in una generica trasmissione dati digitale come ad
esempio una trasmissione televisiva digitale. Nelle trasmissioni digitali tale compressione dell'informazione è
operata all'interno della cosiddetta codifica di sorgente in modo da eliminare la ridondanza e ottenere un'alta
efficienza del codice di sorgente.
Le varie tecniche di compressione organizzano in modo più efficiente i dati, spesso perdendo una parte
dell'informazione originale, al fine di ottenere una rappresentazione dell'informazione più compatta quindi
comportante minori risorse per la sua memorizzazione e trasmissione. Come controparte la compressione dati
necessita però di potenza di calcolo per le operazioni di compressione e decompressione, spesso anche elevata se tali
operazioni devono essere eseguite in tempo reale.

Tipologie di compressione dati


Le tecniche di compressione dati si dividono in due grandi categorie:
• compressione dati lossy: comprime i dati attraverso un processo con perdita d'informazione che sfrutta le
ridondanze nell'utilizzo dei dati;
• compressione dati lossless: comprime i dati attraverso un processo senza perdita d'informazione che sfrutta le
ridondanze nella codifica del dato.
Le tecniche senza perdita (lossless) consentono di preservare l'informazione originale in ogni sua parte. È l'unica
via possibile quando si devono comprimere file di testo, programmi, documenti, database, schemi elettrici ecc. Un
esempio è il formato ZIP, il quale consente di archiviare o trasmettere uno o più file risparmiando sulle risorse
necessarie (spazio su disco o tempo di trasmissione). Al momento in cui vengono recuperati i file dallo ZIP
(decompressione) questi risultano indistinguibili dagli originali.
Un altro esempio di caso in cui viene usata la compressione senza perdita è quello delle immagini non fotografiche,
come gli schemi, i disegni o le icone. Per questo scopo esistono formati come il GIF o il più recente PNG.
L'immagine compressa con uno di questi formati mantiene esattamente l'aspetto originale fino al dettaglio più
insignificante.
D'altro canto, le tecniche con perdita di informazione (lossy) permettono anche delle compressioni molto spinte,
quindi un grande risparmio di risorse, a discapito però della qualità dell'immagine o dell'audio che si è voluto
comprimere. Sì perché generalmente queste tecniche si usano per comprimere i file multimediali. Pur mantenendo
minima la perdita di qualità, il risparmio rispetto ad una compressione lossless sulla stessa informazione è sempre
decisamente apprezzabile.
Le informazioni multimediali come audio o video, in origine sono troppo grandi per essere agevolmente trasmesse o
memorizzate, quindi si preferisce avere una piccola riduzione della qualità ma nel contempo file molto più leggeri.
Alcuni esempi sono: la compressione di immagini in formato JPEG, largamente usata in fotografia digitale e sul
Web, la compressione video in formato XviD oppure la compressione audio in formato MP3.
Compressione dei dati 299

Bibliografia
• Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D.. Telecomunicazioni per l'ingegneria
gestionale. Codifica di sorgente. Mezzi di trasmissione. Collegamenti. Pitagora Editrice, 2004, ISBN
88-371-1561-X

Collegamenti esterni
• Maximum Compression [1]

Note
[1] http:/ / www. maximumcompression. com/

Compressione dati lossy


La compressione dati con perdita, anche chiamata compressione dati lossy, è una classe di algoritmi di
compressione dati che porta alla perdita di parte dell'informazione originale durante la fase di
compressione/decompressione dei dati che la rappresentano.
Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello di
precisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita di
informazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in genere
tendono a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo un
brano audio secondo la codifica dell'MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre le
dimensioni dei file senza compromettere in modo sostanziale la qualità dell'informazione.
La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet,
nell'ambito dello streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti multimediali,
ecc.
Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una sua
apertura e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore non
permetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe far
perdere ulteriori informazioni, ma ingrandendo le dimensioni del file.

Esempi
Esempio di immagine compressa con l'algoritmo JPEG standard a diverse qualità:

Qualità 100% - 87,7 kB Qualità 90% - 30,2 kB Qualità 50% - 6,7 kB Qualità 10% - 3,2 kB

Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.
Compressione dati lossy 300

Compressione dati

Audio
• ADPCM

Musica e suoni
• AAC
• MPC o Musepack
• MP3
• Ogg Vorbis (non ristretto da brevetti)
• VQF
• WMA
• AC3

Voce
• GSM 06.10
• Ogg Speex (non ristretto da brevetti)

Foto (immagini ferme)


• JPEG
• JPEG 2000

Video (immagini in movimento)


• MPEG-1
• MPEG-2
• MPEG-4
• Ogg Theora (non ristretto da brevetti)
• DivX
• XviD
• 3GPP
• WMV

Voci correlate
• Compressione dati lossless
• Compressione dati
• Codec
Compressione dati lossless 301

Compressione dati lossless


La compressione dati lossless (compressione dati senza perdita), è una classe di algoritmi di compressione dati
che non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/decompressione
dei dati stessi.
Un esempio di questo tipo di compressione è dato dai formati Zip, Gzip, Bzip2, Rar, 7z. I file per cui non è
accettabile una perdita di informazione, come i testi o i programmi, utilizzano questo metodo. Per le immagini
fotografiche generalmente non si usano algoritmi lossless in quanto sarebbero veramente poco efficienti, ma per le
immagini che contengano ampie aree con colori puri spesso la compressione lossless non solo è applicabile, ma
anche conveniente (GIF, PNG, MNG, TIFF con compressione LZW, ZIP o RLE).

Problemi della compressione lossless


Gli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input diminuisca di
dimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che non diminuiranno di
dimensione quando elaborati dall'algoritmo. Questo è facilmente verificabile con della matematica elementare:
• Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
• Si supponga (per assurdo), che esista un algoritmo di compressione che trasformi ogni file in un file più corto
distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere reversibile senza perdita di dati.)
• Si considerino l'insieme dei file con lunghezza massima di N bit. Questo set ha 1 + 2 + 4 + ... + 2N = 2N+1-1
elementi, se si include il file di lunghezza zero.
• Ora considerando l'insieme dei file con N-1 bit, vi sono 1 + 2 + 4 + ... + 2N-1 = 2N-1 file che vi appartengono,
sempre considerando anche il file di lunghezza zero.
• Tale numero di elementi è più piccolo di 2N+1-1. Non è possibile collegare in modo univoco gli elementi di un
insieme più grande (i file da comprimere) con gli elementi di un insieme più piccolo (i file dopo la compressione).
• Questa contraddizione implica che l'ipotesi originale (che un algoritmo di compressione renda tutti i file più
piccoli) sia errata.
Si può notare che la differenza di dimensione è così elevata che non fa alcuna differenza se si considerano file di
dimensione esattamente N come insieme dei file da comprimere: tale insieme è comunque di dimensioni maggiori
(2N) dell'insieme dei file compressi.
Una dimostrazione anche più semplice (ma equivalente) è la seguente:
1. Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
2. Si supponga (per assurdo), che esista un algoritmo di compressione C che trasformi ogni file di lunghezza
maggiore di 1 in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere
reversibile senza perdita di dati.)
3. Dato un qualunque file F di lunghezza L(F)=N, si applichi C a questo file, ottenendo il file C(F)
4. Si ripeta il passo precedente applicando C a C(F) e si continui in questo modo: per l'ipotesi al punto (2), si ha:

L(F)=N>L(C(F)) > L(C2(F)) > ...

e quindi:

L(C(F))<= N-1
L(C2(F))<= N-2
L(Ck(F))<= N-k

Dopo al massimo N iterazioni, si deve avere L(CN-1(F))=1, perché ogni iterazione deve diminuire la lunghezza di
almeno un bit: questo procedimento non dipende dal valore di N. Dalle nostre ipotesi consegue quindi che
Compressione dati lossless 302

esisterebbero due soli file distinti (quello contente il bit 0 e quello contenente il bit 1). Questo è evidentemente falso,
quindi l'ipotesi è falsa.
Quindi, ogni algoritmo di compressione che rende alcuni file più piccoli, deve necessariamente rendere altri file più
grandi o lasciarli di lunghezza invariata.
Nell'uso pratico, si considerano buoni gli algoritmi di compressione che comprimono effettivamente la maggior parte
dei formati più comuni: questo non corrisponde necessariamente ad una misura di bontá in senso teorico (che misura
la distanza media, misurata su tutti i file possibili, tra la lunghezza ottenuta e il numero di bit di entropia contenuti
nel file, che, per un teorema di Claude Shannon, è il limite di comprimibilitá teorico). Inversamente, un algoritmo
teoricamente buono potrebbe non avere applicabilitá pratica (ad esempio perché non riduce formati di uso comune).
In realtà, molti applicativi che utilizzano la compressione lossless prevedono di lasciare invariati gli insiemi di dati la
cui dimensione sia aumentata dopo la compressione. Ovviamente, il flag che indica che questo gruppo di dati non va
processato dall'algoritmo aumenta la dimensione effettiva necessaria a memorizzare il gruppo di dati, ma permette di
evitare un ulteriore spreco di spazio e di tempo necessario alla compressione/decompressione.

Qualità della compressione e velocità


In generale, non vi è un rapporto di proporzionalità indiretta tra qualità della compressione ottenibile da un algoritmo
e la sua velocità di esecuzione.
Prendiamo ad esempio la seguente stringa di dati:

005555550055555500555555005555550055555500555555

La stringa richiede 48 caratteri, ma è immediatamente disponibile all'utilizzo. Un algoritmo di compressione lossless


potrebbe essere "cifra-numero di ripetizioni". La stringa, utilizzando questo algoritmo, diviene quindi:

025602560256025602560256

È chiaro che i dati non sono più direttamente disponibili ma occorre svolgere un passaggio intermedio
(decompressione).
Poiché, dato uno stesso archivio dati, la decompressione è solitamente molto più frequente della compressione molti
algoritmi sono fortemente asimmetrici: il tempo richiesto per la compressione è sostanzialmente superiore a quello
richiesto per la decompressione. Questo accade anche nei riguardi delle richieste di memoria e di capacità di calcolo.

Tecniche di compressione
Esistono diversi algoritmi di compressione. Tra i più noti:
• Huffman
• Codifica aritmetica (o "compressione aritmetica")
• Lempel-Ziv-Welch (LZW)
• LZ77
• LZ78
• LZMA
• Deflate - tecnica mista: LZ77 e Huffman
• Prediction by Partial Matching (PPM)
• Trasformata di Burrows-Wheeler - (BWT)
Compressione dati lossless 303

Programmi generici per la compressione


Tra i tanti programmi di compressione molti usano un algoritmo tra quelli elencati sopra, mentre alcuni ne hanno uno
proprio:
• Arj - algoritmo proprio
• Gzip - usa Deflate
• PKZIP - usa Deflate
• WinZip - usa Deflate
• WinRar - algoritmo proprio
• Bzip2 - usa la trasformata di Burrows-Wheeler
• 7-Zip - usa LZMA

Formati ed algoritmi

Audio
• Apple Lossless - ALAC (Apple Lossless Audio Codec)
• Direct Stream Transfer - DST
• FLAC - Free Lossless Audio Codec
• LA - Lossless Audio (il miglior rapporto di compressione)
• Meridian Lossless Packing - MLP
• APE Monkey's Audio
• RealPlayer - RealAudio Lossless
• Shorten - SHN
• TTA - True Audio Lossless
• WavPack - WavPack lossless
• WMA - comprende anche una variante lossless

Immagini
• ABO - Adaptive Binary Optimization
• GIF - Lempel-Ziv-Welch (LZW) per immagini da 2 a 256 colori
• HD Photo - Contempla un metodo di compressione lossless
• ILBM – Compressione RLE lossless per immagini IFF dei computer Amiga
• JPEG - comprende una variante lossless JPEG-LS en:Lossless JPEG (poco utilizzata)
• JPEG 2000 - comprende un metodo di compressione lossless
• JBIG2 - comprende una compressione lossless di immagini in bianco e nero
• OptiPNG - Metodo di compressione lossless in formato PNG
• PNG Portable Network Graphics - usa una variante di Deflate
• Qbit Lossless Codec - Dedicato alla compressione intra-frame
• RLE Run-length encoding algoritmo usato nei formati TGA, BMP, TIFF
• FAX Gruppo 3 (1D) e Gruppo 4 (2D) - algoritmo per immagini bianco e nero usato dai FAX e dal formato TIFF
• TIFF (Tagged Image File Format) - permette di scegliere tra diversi algoritmi sia lossless (tra cui LZW e RLE) o
lossy (JPEG)
• WMPhoto - Contempla un meodo di compressione lossless
Compressione dati lossless 304

Video
• Huffyuv [1]
• CorePNG [2]
• MSU Lossless Video Codec [3]
• Sheervideo [4]
• LCL [5]
• Qbit Lossless Codec [6]
• Animation codec en:Animation codec
• Lagarith [7]
• H.264/MPEG-4 AVC
• Motion JPEG2000 comprende anche una variante lossless

Voci correlate
• Compressione dati lossy
• Compressione dati

Note
[1] http:/ / neuron2. net/ www. math. berkeley. edu/ benrg/ huffyuv. html
[2] http:/ / corepng. corecodec. org/
[3] http:/ / compression. ru/ video/ ls-codec/ index_en. html
[4] http:/ / www. bitjazz. com/ it/ products/ sheervideo/ index. php
[5] http:/ / translate. google. com/ translate?u=http%3A%2F%2Fwww. geocities. co. jp%2FPlaytown-Denei%2F2837%2FLRC. htm&
langpair=ja%7Cen& hl=en& safe=off& c2coff=1& ie=UTF-8& oe=UTF-8& prev=%2Flanguage_tools
[6] http:/ / www. qbit. com
[7] http:/ / lags. leetcode. net/ codec. html
Fonti e autori delle voci 305

Fonti e autori delle voci


Musica elettronica  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38747954  Autori:: .anaconda, .jhc., Acusma, Aldo cairo, Anna Maria Marinuzzi, Armi e ritagli, Aurorasogna82,
BlackMew9z, Breus, Cagej, Cotton, Crimsonpol, Dferg, Doctor Who, DrFredEdison, DrPePPeR, Elettronik84, Eumolpo, Felyx, Fgwiki, Fleshammer, Gac, Gce, Giulyfree, Gliu, GordonF,
GuidoCavalieri, Guidomac, Hellis, Ipsedixit, Jobbe7, Kimi95, Larry Yuma, Lenore, Lodewijck, Lollus, Luisa, M7, Magnum2008, Maltaser, Marc.soave, Marco Scardella, Marcok,
Marcuscalabresus, Mercy, Moloch981, Moongateclimber, Phantomas, Quandary, Riorosso, Sakkaccio, Sanremofilo, Sbisolo, Senpai, StefanoMagrassi, Streetspirit, Superchilum, Ticket
2010081310004741, Treefingers, Triph, Valerio79, ^musaz, 95 Modifiche anonime

Musica concreta  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38781729  Autori:: .jhc., Acusma, Alfio66, Anassibia, Ary29, Basilicofresco, Berto77, Biopresto, Bultro, Frazac, Ipsedixit,
Joe123, Mats 90, NuM3tal95, Philo85, Pracchia-78, Silent Bob, Tiziana Crispino, ^musaz, 8 Modifiche anonime

Musica digitale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38834845  Autori:: %Pier%, Archiegoodwinit, Ary29, Avesan, Guam, Hellis, Marcok, MetalMessiah, MikyT, Moloch981,
Mtt, No2, Nosferatu, Piddu, Tanonero, Tenebroso, Torsolo, 22 Modifiche anonime

Musica liquida  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38174980  Autori:: Black Shadow, Dome, El bandito, Hellis, LoStrangolatore, Marko86, No2, Paolippe, Sanremofilo, Vituzzu,
Webwizard, 13 Modifiche anonime

Musica sperimentale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38838137  Autori:: Breus, Goth warrior30, Marko86, RockPoetry, Tener, 21 Modifiche anonime

Arte acusmatica  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37524624  Autori:: .jhc., Acusma, Bultro, Enrico968, Eumolpo, No2, Paginazero, Piddu, RiccardoP1983, Ylebru, 6
Modifiche anonime

Musica elettroacustica  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37072114  Autori:: .jhc., Acusma, Afnecors, Ipsedixit, Nicola 91 ba, No2, Pipep, RaminusFalcon, 18 Modifiche
anonime

Vibrazione  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38664938  Autori:: A7N8X, Adriano Pellegri, Alien life form, Assianir, CaesarLittleGoods, Caracalla, Carlomorino, Discanto,
Foggy81, Formica rufa, Ft1, Gliu, Henrykus, Ilmacchia, Ita01, M.Salva, Marius, Mattia Luigi Nappi, Mattte, Maurizio.Cattaneo, No2, Paperoastro, Robin root, Sbisolo, Tino 032, Tridim,
Vituzzu, 23 Modifiche anonime

Onda (fisica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38326654  Autori:: %Pier%, -mf-, Alfio, Ancem, AttoRenato, Aushulz, Avesan, Barbaking, Basilicofresco, Berto, Bultro, Buzz
lightyear, Cruccone, DanGarb, Derfel74, Dr Zimbu, Franztanz, Fstefani, Gianluigi, Helios, Jacopo Werther, Jak3x, LukeWiller, Lurkos, Massimiliano Lincetto, Mauro S., Mox83, Nase,
Nspiemonte, Otrebla86, Panairjdde, Patafisik, Pokipsy76, Poldo328, Quatar, Restu20, Salvatore Ingala, Samu111, Sandman, Snowdog, Starwars, Tantalas, Tener, Tridim, Wanblee, Ylebru,
^musaz, 50 Modifiche anonime

Frequenza  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38327243  Autori:: Alberto da Calvairate, Assianir, Avesan, Berto, Biopresto, Blakwolf, Bultro, Cassioli, Ernesthedandy, F.
Cosoleto, Filos96, Formica rufa, Franco, Gianluigi, Hashar, LaudatoSi, Lukius, M7, Maurizio.Cattaneo, Numbo3, Rdocb, Rojelio, Simone, Snowdog, Suisui, Template namespace initialisation
script, Tener, Tom Riddle, Tomi, Tridim, Viames, Ylebru, ^musaz, 18 Modifiche anonime

Lunghezza d'onda  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38899706  Autori:: Avesan, Beta16, Drumfire, Emj antonin, Eumolpo, Felyx, Gabriele85, Gianluigi, Gigi r87, Govoch,
Harlock81, KaeZar, Llorenzi, Lukino24, Mitchan, Nick, Nihil, Phantomas, Poweruser, Restu20, Rubberick, Snowdog, StWA, Suisui, Tener, Tridim, Ylebru, Ziounclesi, ^musaz, 19 Modifiche
anonime

Periodo (fisica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38328345  Autori:: Avesan, Bethnim, Fabio.gastone, Harlock81, Marcus89, Marko86, Tener, ^musaz, 4 Modifiche anonime

Ampiezza  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38328334  Autori:: ARTE, Dana, Guam, Luisa, M7, MM, Sbisolo, Simo Sirius, Tener, TierrayLibertad, ^musaz, 2 Modifiche
anonime

Acustica  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38367487  Autori:: .mau., Adfc, Alien life form, Anisia Sila, Aushulz, Avesan, Basilero, Biopresto, Caracalla, Ciampix, Contezero,
Cridanfra, DanGarb, Elmex1871, F l a n k e r, Fireblues, Franvito, Gwenaeth, Helios, Iso84, Jalo, Larry Yuma, Lcm, Libertariodemi, Lilja, Luciodem, M&M987, M7, MapiVanPelt, Marius,
Melos, Miliziano, Nelloufo, No2, Oloferne, Omino di carta, Paginazero, Paola79, Patafisik, Pavelius, Phantomas, Pipep, Rdocb, Retaggio, Snowdog, Starwars, Stoppia, Tizianol, Ubaldopernigo,
Viames, 75 Modifiche anonime

Psicoacustica  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37990779  Autori:: AttoRenato, Cls-classic, Crypto, Formica rufa, Giacomo Ritucci, Giodegas, Jalo, Lucas, Lucio Di Madaura,
Marcuscalabresus, Mtt, Nickpalms, No2, Optaylon, Redeemed, Truman Burbank, Velucchi, Wares, 38 Modifiche anonime

Orecchio  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38733731  Autori:: .jhc., Andrea Monaco, Antonio la trippa, Archaeodontosaurus, Axlwolf, Azrael555, Buggia, Cesalpino, Crypto,
Dedda71, Demart81, Eumolpa, Eustace Bagge, Fabio.gastone, Filippo Giovannetti, Filnik, FollowTheMedia, Formica rufa, Guidomac, Gwenaeth, Lingtft, Luigi.Vampa, MapiVanPelt, Maquesta,
Marco Plassio, MarcoRaziel, Panapp, Paolo Di Febbo, Phantomas, Ramatteo, Ryoga87, Sannita, Seics, Shivanarayana, Ticket 2010081310004741, Trixt, Turgon, Wiliam Polidori, 73 Modifiche
anonime

Suono  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38923905  Autori:: Adelchi, Alexander VIII, Alfio, Alien life form, Assianir, Aushulz, BRussell, Biopresto, Caulfield, Contributi utente,
Elwood, Estel, Eumolpo, Filippof, Formica rufa, Francescorussig, Fredericks, Gac, Gianfranco, Gianluigi, Giannib, Henrykus, IndyJr, Iron Bishop, Kibira, Lcm, Luciodem, Lumage, Lusum, M7,
MaiDireChiara, Mauro742, Megalexandros, Microsoikos, Mox83, Oiudeisnemo, Osk, Phantomas, Rael, Rdocb, Retaggio, Ripepette, RobertoD91, Sandrobt, Senpai, SirAdam, Snowdog, Tino
032, Triquetra, Twice25, Viames, Vincenzo161, Z-angel, ^musaz, 118 Modifiche anonime

Segnale acustico  Fonte:: http://it.wikipedia.org/w/index.php?oldid=35331073  Autori:: Auro, Bultro, DanGarb, Elitre, Fonassifrancesco, Giodegas, Luciodem, Piero Montesacro, Sisterold, 1
Modifiche anonime

Segnale elettrico  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38464011  Autori:: Alez, Arge2102, Avesan, Beta16, Cassioli, Cruccone, Gianluigi, Kal-El, Luisa, LukeWiller, Tridim,
Ylebru, 8 Modifiche anonime

Analogico  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38574076  Autori:: ARTE, AttoRenato, Avesan, DonPaolo, Giodegas, Gionnico, Lukius, Marius, Pegua, Snowdog, Ticket
2010081310004741, Toobaz, Viames, 8 Modifiche anonime

Digitale (informatica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38880035  Autori:: Abisys, Absinthe, Alfio, Andrea Monaco, Ary29, Avesan, Buggia, Came88, Camingan, Cyber,
Djdomix, Domenico De Felice, Dylan--86, Frieda, Gac, Giacobino illuminista, Hellis, Herakles29, Kal-El, Lulo, Nemo bis, Probante, Sanremofilo, SignorX, Snowdog, Suisui, Tirinto, Twice25,
Zeus57, 24 Modifiche anonime

Segnale discreto  Fonte:: http://it.wikipedia.org/w/index.php?oldid=32251026  Autori:: AnjaManix, Marius

Quantizzazione (elettronica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36226759  Autori:: -mf-, Banjo, Berto, Broc, Ede, Galessandroni, Kal-El, Marcorasta, Mitchan, Pietrodn,
ReliableBeaver, Rossa1, Vituzzu, Yorick, 27 Modifiche anonime

Bit  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37861535  Autori:: .anaconda, Alfio, Bultro, Camillo, Carlo.milanesi, Clasprea, Contezero, Cruccone, Davide21, Drugonot, EffeX2,
Fiaschi, Formica rufa, Frieda, Ft1, Fufi70, Gianfranco, Guidomac, H3, Hashar, Iskander, Joevinegar, LapoLuchini, Larry Yuma, Lucaviolinik, Mambrucco, Manuela147, Marcuscalabresus,
Melknix, Moongateclimber, Outer root, Paginazero, Pcgenius, Phantomas, Robbie O'Philips, Rojelio, Sassospicco, Sbisolo, Scorp, Smallpox, Snowdog, Suisui, Tailot, Taueres, Theferro,
TierrayLibertad, Tomi, Vaccaricarlo, Vmoscarda, 38 Modifiche anonime

Profondità di bit  Fonte:: http://it.wikipedia.org/w/index.php?oldid=24550676  Autori:: Cerberus108, Marcol-it, 1 Modifiche anonime

Sample and hold  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38878625  Autori:: Alez, Avesan, Devilslord, Lenore, Lulo, Madaki, Mitchan, No2, Saga, Shivanarayana, Svacant, 6
Modifiche anonime
Fonti e autori delle voci 306

Pulse-code modulation  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38278587  Autori:: %Pier%, Ary29, AttoRenato, Avemundi, Banjo, CavalloRazzo, EffeX2, FollowTheMedia, Guam,
Jalo, Jk4u59, Linux2004, Marcol-it, Marcuscalabresus, Mess, Moongateclimber, Nimloth, Pciarl, Rojelio, Rutja76, Vituzzu, ^musaz, 39 Modifiche anonime

Campionamento  Fonte:: http://it.wikipedia.org/w/index.php?oldid=27516950  Autori:: Biopresto, Giangagliardi, Gionnico, Jacopo, Karmine, Luc4, Marius, Paginazero, Piero, Salinger86,
Salvio, Smart, Superchilum, W.visconti, 16 Modifiche anonime

Campionamento (teoria dei segnali)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37768190  Autori:: Avemundi, Chemako0606, EffeX2, Marius, No2, Simobremen, Superchilum, 4
Modifiche anonime

Conversione analogico-digitale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36616782  Autori:: Antonio78, Avesan, Beta16, D@vide, Darth Kule, Ede, Mox83, Taueres, Tridim,
Twice25, 11 Modifiche anonime

Convertitore analogico-digitale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38800109  Autori:: .snoopy., Adert, Alfreddo, Angelorenzi, Antonio78, Brownout, Bultro, Crys0000,
D@vide, Eumolpo, Flavio05, Franc268, Guam, Hellis, Jalo, Lp, Luca Antonelli, Lucasasdelli, Luisa, Marius, Mcg1v3r, Microst, Moneta89, No2, Piero, Pil56, Superfranz83, Tin6789, Tridim,
Zaldo, ^musaz, 50 Modifiche anonime

Frequenza di campionamento  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36611395  Autori:: ARem, AnjaManix, Dadomusic, Ede, Exairetos, Formica rufa, Giodegas, Maxone, Mitchan,
Neq00, Patafisik, Pracchia-78, Seveso, SkedO, Viames, 6 Modifiche anonime

Teorema del campionamento di Nyquist-Shannon  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37937755  Autori:: ARem, Ale868686, AttoRenato, Avesan, Blakwolf, Brownout, Cloj,
Cruccone, Domenico De Felice, Ede, Gattopardo45, Guam, Hellis, Ingdruido, Jalo, Lenore, LoStrangolatore, Luca.F, Luisa, Lupo rosso, Mambrucco, Marcel Bergeret, Nialtas, Paolopan,
Riccardo.metere, Salvatore Ingala, Sarastro, Simone, Snowdog, Svante, Thegeco, Ticket 2010081310004741, Tridim, Verdenex, 38 Modifiche anonime

Convertitore digitale-analogico  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38789105  Autori:: Alleborgo, Angelorenzi, Ary29, Avesan, Barbaking, Giannizx1, Guam, Hellis,
Lucasasdelli, Lulo, Pracchia-78, Sbisolo, Tridim, Veneziano, ^musaz, 24 Modifiche anonime

Modulazione Sigma-Delta  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38568515  Autori:: Eumolpo, Lulo, Phantomas, 4 Modifiche anonime

Aliasing  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37276397  Autori:: Ary29, Avesan, Berto, Domenico De Felice, F l a n k e r, Fafabifiofo, Hellis, Lenore, LoStrangolatore, Marius,
Nemo bis, Nialtas, Piero, Ricce, Simone, Simoz, Tikki, Tridim, W.visconti, Zaldo, 10 Modifiche anonime

Filtro anti-alias  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38171303  Autori:: .anaconda, Domenico De Felice, Jalo, Llorenzi, Microst, Pil56, Pipep, 5 Modifiche anonime

Dithering  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36115618  Autori:: .jhc., ArmandoEdera, Jacklab72, Jalo, Lion-hearted85, Magica, No2, ReliableBeaver, Schianto, 13 Modifiche
anonime

Audio  Fonte:: http://it.wikipedia.org/w/index.php?oldid=35527530  Autori:: %Pier%, Eumolpo, Jalo, Marcok, Mauriziocristofori, Pracchia-78, 64 Modifiche anonime

Audio digitale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=33407106  Autori:: Absinthe, Alfreddo, Ariel, Ede, Elitre, Giovannigobbin, Kelvin, Klaudio, Lilja, Mauro742, Nickanc, Seveso,
27 Modifiche anonime

Clipping (audio)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=27231501  Autori:: AnjaManix, 1 Modifiche anonime

Sintetizzatore  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38936263  Autori:: Afnecors, Alec, Alfreddo, Andreazanini, Ary29, Baruneju, Bitframe, Breus, Brownout, Buggia, Castagnassi,
Civvì, Darnede, DnaX, Ecosimi, Fabrizio bastianini, Gac, GiorgioWiki, Gssdrone1, HIGHLANDER99, Helios, Hellis, Iardo, Jk4u59, Klaudio, Laconvenzione, Larry Yuma, Lebarondesamedi,
Leoman3000, Lucasasdelli, M7, MarKo, Marcol-it, Marius, Matteo.mutinelli, Moroboshi, No2, Oiler, Omino di carta, Pippomone, Plasm, Pracchia-78, Senza nome.txt, Silvio.dellacqua, Simone,
Smallpox, Sonicexenia, Tappoz, Tener, TheJazzDalek, Ticket 2010081310004741, Turgon, Viames, Xeemeex, 71 Modifiche anonime

Sintesi granulare  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38531993  Autori:: A7N8X, Angelo Mascaro, Ape74, Ary29, Avemundi, Carmine Ingaldi, Donn certo, KS, Moberg, No2,
Scarbo74, Senpai, Superzen, Tappoz, Ticket 2010081310004741, Tizianol, 4 Modifiche anonime

Voltage-controlled filter  Fonte:: http://it.wikipedia.org/w/index.php?oldid=23767615  Autori:: Alfreddo, Ary29, Hellis, Lucasasdelli, No2, Torsolo, Twice25

Oscillatore controllato in tensione  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38039141  Autori:: Alleborgo, Ary29, Comt Till, Dismalsheen, Guam, Hellis, Karmine, Lucasasdelli,
Rutja76, Tridim, ^musaz, 5 Modifiche anonime

Amplificatore controllato in tensione  Fonte:: http://it.wikipedia.org/w/index.php?oldid=30396294  Autori:: Alleborgo, Ary29, Avesan, DarwinNE, Exairetos, Francisco83pv, Lucas, Tridim, 4
Modifiche anonime

Campionatore  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38789008  Autori:: Alfreddo, Angelorenzi, Ary29, Aushulz, Baruneju, Biopresto, Cappra, Captivo, Castagnassi, CavalloRazzo,
Domenico Romeo, Frack, Francisco83pv, Generale Lee, Iardo, LuKeys, Lukius, Mats 90, Rokafeller, Sailko, Sbisolo, Sesquipedale, Seveso, Teocrito, Trixt, Viames, 24 Modifiche anonime

Elaborazione numerica dei segnali  Fonte:: http://it.wikipedia.org/w/index.php?oldid=34888012  Autori:: %Pier%, Civvì, EffeX2, Hellis, Lenore, Llorenzi, Marcok, Marius, Mcapdevila,
Paolopan, Senza nome.txt, Snowdog, Stemby, Vizcarra, 6 Modifiche anonime

DSP  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37462968  Autori:: Ary29, Balabiot, Frieda, Giacomo.arru, Giannizx1, Hellis, Lenore, Marco Plassio, Marius, Nikimast85, Nur, Retaggio,
Sassospicco, Sirabder87, Stemby, Ticket 2010081310004741, Wile e coyote 71, 15 Modifiche anonime

Compressione del livello audio  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38939809  Autori:: Alfreddo, Apolide, Francisco83pv, Gig, Hellis, Ianezz, Luca Pilla, Mess, Pracchia-78,
Salvatore Ingala, Seveso, Utaal, 61 Modifiche anonime

Noise gate  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38919489  Autori:: A7N8X, Alfreddo, AnjaManix, Blakwolf, Donner, Fabio.mm, Fidech, Francisco83pv, Gianlu90, Paulatz,
Seveso, Simone, 2 Modifiche anonime

Convoluzione  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38061587  Autori:: .anaconda, Alez, Buggia, Claude, DanGarb, Dexterp37, Djechelon, EffeX2, Esculapio, Franco3450, Jok3r,
Lion-hearted85, Lulo, Madaki, Marius, Piddu, Pil56, Pokipsy76, Pracchia-78, Snowdog, Svante, Ulisse0, Wiso, Ylebru, ^musaz, 21 Modifiche anonime

Riverbero  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38386608  Autori:: Adfc, Alfreddo, Ary29, Bertoldic, GiulioB, Lp, Luisa, Pequod76, Pippomone, Pracchia-78, Ripepette, Sbisolo,
Snowdog, Taueres, Tizianok, Viames, 21 Modifiche anonime

Chorus  Fonte:: http://it.wikipedia.org/w/index.php?oldid=34480265  Autori:: Al Pereira, Alfreddo, Alien life form, Ary29, Lucasasdelli, Moloch981, Moongateclimber, Seveso, Snowdog,
Tizianok, Torsolo, Viames, 1 Modifiche anonime

Flanger  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38121564  Autori:: Alfreddo, Ary29, CavalloRazzo, Giannib, Guam, Iceway, Lucasasdelli, Moloch981, Moongateclimber, Seveso,
Tizianok, Torsolo, Viames, 4 Modifiche anonime

Phaser (musica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=32753568  Autori:: Alfreddo, Ary29, Dispe, Gig, Moongateclimber, PieRRoMaN, 1 Modifiche anonime

Vibrato  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38338802  Autori:: Afnecors, Alfreddo, Arka, Ary29, Biopresto, Lucasasdelli, Marionline, Moloch981, Moongateclimber, Nafutesfera,
Nik berardi, Star840, Tizianok, Torsolo, Viames, 4 Modifiche anonime

Delay  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37226659  Autori:: Alfreddo, Ary29, Hierbascat, Matthew McPumpkin, Moongateclimber, Retaggio, Ticket 2010081310004741,
Tizianok, 9 Modifiche anonime

Pitch shift  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36284082  Autori:: A7N8X, Alfreddo, Ary29, Fabrox, No2, Remotes, Retaggio, Vituzzu, 9 Modifiche anonime
Fonti e autori delle voci 307

Leslie (musica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36901701  Autori:: Alfreddo, And1972, Ares, Ary29, Biopresto, Captivo, Guam, Hammondite.com, Lucasasdelli, M7,
Massimo.medas, Moloch981, Moongateclimber, Nick1915, Salli, Sbisolo, Seveso, Simone Buralli, Torsolo, Viames, 12 Modifiche anonime

Tremolo (musica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=32753527  Autori:: Alfreddo, Amux, Annuale, Ary29, Baglio, Beechs, Biopresto, Bultro, Lucasasdelli, Matra dj,
Moloch981, Moongateclimber, Seveso, Tizianok, Torsolo, Twice25, Viames, 7 Modifiche anonime

Wow and Flutter  Fonte:: http://it.wikipedia.org/w/index.php?oldid=30436057  Autori:: Luckyz, Pino alpino, 3 Modifiche anonime

Filtro comb  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38490909  Autori:: Basilero, Eumolpo, Lenore, No2, Panairjdde, Tappoz, ^musaz, 1 Modifiche anonime

Filtro passa alto  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38490926  Autori:: Andreabont, Avesan, Beta16, F l a n k e r, Giannizx1, Gilduz, Guam, Lp, Marcobombe, No2, Seics,
Sommacal alfonso, Tridim, ^musaz, 23 Modifiche anonime

Filtro elimina banda  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38490915  Autori:: Calabash, Galessandroni, Marcobombe, No2, ^musaz, 3 Modifiche anonime

Filtro passa banda  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38490931  Autori:: Avesan, Beta16, Dmerico, Galessandroni, Loroli, Marcobombe, Senza nome.txt, Sommacal alfonso,
Taueres, Texcarson, TierrayLibertad, Tridim, Zenith, ^musaz, 9 Modifiche anonime

Filtro passa basso  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38490939  Autori:: Aracuano, Avesan, Baruneju, ChemicalBit, Cruccone, Dr Zimbu, Eiena, F l a n k e r, Fredericks, Gliu,
Guam, Hermyt86, Joana, Karmine, Luisa, Marcobombe, Mitchan, No2, Piero, Rojelio, Snowdog, Sommacal alfonso, Tappoz, TierrayLibertad, Tommity, Tridim, Tytoalba, Wanblee, Zenith,
^musaz, 33 Modifiche anonime

Frequenza di taglio  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38324895  Autori:: .anaconda, Al Pereira, Atomicbomberman, DanGarb, Dans, Eta-beta, Gac, Madaki, Sommacal alfonso,
^musaz, 15 Modifiche anonime

Risonanza elettrica  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38326877  Autori:: Andcen, Andreabont, Arcturus4669, Ary29, Aushulz, Avesan, Elnath, Fakk, Filippof, Formica rufa,
M.Costantino, Mauro742, No2, Salvatore Ingala, Sommacal alfonso, Tridim, ^musaz, 18 Modifiche anonime

Inviluppo  Fonte:: http://it.wikipedia.org/w/index.php?oldid=16753570  Autori:: Ary29, Marius, Ylebru

ADSR  Fonte:: http://it.wikipedia.org/w/index.php?oldid=29806521  Autori:: .anaconda, Andreasosio, Balabiot, Bart ryker, Biopresto, Giannib, M7, Rdocb, Snowdog, Tappoz, Viames, 9
Modifiche anonime

Oscillatore a bassa frequenza  Fonte:: http://it.wikipedia.org/w/index.php?oldid=30414482  Autori:: Alfreddo, Alleborgo, Ary29, Baruneju, CavalloRazzo, Hellis, Lucasasdelli,
OrbiliusMagister, Sanremofilo, Torsolo

Modulazione  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38511607  Autori:: Ale.rusconi, Ary29, AttoRenato, Biopresto, Blakwolf, BlueSky, CavalloRazzo, Cemg, D@vide, Daski,
Dolma, Eustace Bagge, Franco58, Frieda, Ft1, Galessandroni, Gattopardo45, GiacomoV, Guam, Guidomac, Gvf, Hce, Hellis, Ik1tzo, Interblok, Leonard Vertighel, MaiDireChiara, Mambrucco,
Marcel Bergeret, Massimiliano Lincetto, Mattia Luigi Nappi, Paulatz, Persiani, Sbisolo, Snowdog, Sommacal alfonso, Suisui, Ticket 2010081310004741, Tomi, Twice25, Umcasira,
Valerio.salerno, Wurblzap, Yoruno, 113 Modifiche anonime

Modulazione di frequenza  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36036538  Autori:: .jhc., Al Pereira, Alfredxz, Brodo, Cassioli, Cruccone, DaniDF1995, EffeX2, Eustace Bagge,
Federico pac, Galessandroni, Gattopardo45, Gvf, Hellis, Jacklab72, Lenore, Luisa, Lusum, M7, Massimiliano Lincetto, Paginazero, PersOnLine, Rojelio, Rutja76, Shaka, Simone, Ticket
2010081310004741, To011, Viscontino, 40 Modifiche anonime

Modulazione a banda laterale singola  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36930129  Autori:: FollowTheMedia, Mir09, No2, Sbisolo, 2 Modifiche anonime

Modulazione di fase  Fonte:: http://it.wikipedia.org/w/index.php?oldid=36338438  Autori:: Al Pereira, AttoRenato, Civvì, Dejudicibus, Fire90, Llorenzi, Massimiliano Lincetto, Paginazero, 11
Modifiche anonime

Modulazione di ampiezza  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38236127  Autori:: Aracuano, Ary29, AttoRenato, Cassioli, Enaud, Enrico, Eustace Bagge, Galessandroni, Guam,
Gvf, Hellis, Lcmzt, M7, Massimiliano Lincetto, Rutja76, Tomfox, 51 Modifiche anonime

Musical Instrument Digital Interface  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38557739  Autori:: Acolleoni, Brzcld, Cotton, Davide, DnaX, Frieda, Giannib, Giulianorock, Gvf,
Hashar, Hellis, Iron Bishop, Licarus, Lornova, Lp, Lucas, Luckyz, Lumage, M7, Marcomandolino, Massimiliano Lincetto, Mitchan, No2, Notturni, Quadrispro, Redsun, Samnispentrorum,
Sesquipedale, Silvio Relandini, Smallpox, Viames, VincenzoX, Vipera, Vlaste, Vuott, Zanzalo, 74 Modifiche anonime

Keyboard Follow  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38870021  Autori:: Alfreddo, Ary29, Frieda, Lucasasdelli, Red devil 666, Sanremofilo, 3 Modifiche anonime

MIDI controller  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38185628  Autori:: Marcomandolino

General MIDI  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37015218  Autori:: Alfreddo, Beta16, Caulfield, Giannib, Larry Yuma, Maxdg, 7 Modifiche anonime

Aftertouch  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38644100  Autori:: Ary29, Eumolpo, Guidomac, Lucasasdelli, Redsun, Torsolo, Twice25, Viames, 6 Modifiche anonime

Informatica  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38911226  Autori:: .anaconda, Ab1, Alberto da Calvairate, Amarvudol, Aphaia, Archenzo, Ary29, AttoRenato, Avesan,
Azrael555, B3t, Blakwolf, Bluemask, Bob4, Brownout, Buzz lightyear, Capagira, Castor II, Caulfield, Civvì, Contezero, Darth Kule, Davide, Davide21, DrAries77, Dread83, Edo, Elborgo,
Enrico granata, Eray, Erinaceus, Estel, Ettorre, FrAnCiS, Francesco.zanasi, Frieda, Ft1, Fvilim, Gac, Gacio, Gagah, Geniale123, Ggenovesi, Giachi, Gian-, Gianluca91, Gianluigi, Gpx,
Grifone87, Guidomac, Halex2000, Helios, Hellis, Homer, Ik1tzo, Ilario, Iron Bishop, Joana, Jobbe7, Kaptain, Kinsha, Klenje, Kormoran, L736E, Lenious, Lornova, Luisa, M7, MapiVanPelt,
Marcok, Margherita, Mariano, Mattygazzo, Maupag, Maurice Carbonaro, Melkor II, Metralla, Michele Bergadano, Microsoikos, MikyT, Nanotube09, Nemo bis, Netsky3, No2, Otets, Patchita,
Phantomas, Pierpao, Pipa11, PippiPalma, Probante, Ramac, RaminusFalcon, Retaggio, Ripepette, Rrronny, Rutja76, SMmoto, Salvatore Ingala, SamZane, Sassospicco, Saturnero, Sbisolo,
Shivanarayana, Simox, Skywolf, Snowdog, Sparazza, Sunrise, Taueres, Template namespace initialisation script, Ticket 2010081310004741, Tiesse, Tomi, Torredibabele, Toto200, Turgon,
Twice25, Vala, Valhalla, Xoen, Ylebru, 208 Modifiche anonime

Hardware  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38168298  Autori:: 57.78.9.xxx, ARTE, Alfio, Ary29, Aushulz, Avesan, Azrael555, Bob4, Brino, Codicorumus, Elettrikko, Filnik,
Fornaro92, Franz Liszt, Frieda, Gacio, Giancarlodessi, Giannib, Gionnico, Hellis, Ipsos, Kibira, Lollus, Marcok, Marcol-it, Marietto2009, Marius, Melos, Nemo bis, Numbo3, Pequod76,
Phantomas, Porta seriale, Puxanto, Rago, Rob18, Roby69m, Rosco, Rs-Solution, Shaka, Simòn, Template namespace initialisation script, Theferro, Twice25, Vulkano, WinstonSmith, 46
Modifiche anonime

Software  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38158282  Autori:: %Pier%, .anaconda, 57.78.9.xxx, A7N8X, Aka-Red, Alec, Alfio, Alfreddo, Alleborgo, Amiltonit, Andrebask,
Argento, ArtAttack, Ary29, Aushulz, Avesan, Azrael555, Barbaking, Blakwolf, Bob4, Brownout, Carlo.milanesi, Ciro07, ColdShine, Comune mortale, Djdomix, Dome, Dommac, Freepenguin,
Freyr, Frieda, Gac, Gacio, Gaetanogambilonghi, GiaGar, Gian Franco, Giannib, Gionnico, Guidomac, Hashar, Hce, Hellis, I'm a friend of "0+0=0", Ilario, LaseriumFloyd, Laurentius, Lornova,
Luca78sv, Lucadideo, Lucas, Lucasilvia, Luisa, M7, MM, MapiVanPelt, Marcel Bergeret, Marietto2009, Massimo Macconi, Mattiacrespi, Mauro Lanari, Melos, MikyT, Mizardellorsa,
Moongateclimber, Nasosansoft, Neperiano, Nikai, No2, Orso della campagna, Phantomas, Pickblack, Pil56, R0tAbLe, Rael, Raffaespo, Roh, Rollopack, Salvatore Ingala, Sannita, Sassospicco,
Senpai, Simòn, Snowdog, Suisui, Tapion 91, Timothy, Trevinci, Wikijens, 121 Modifiche anonime

Word clock  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38180724  Autori:: Absinthe, Ary29, Avesan, Basilero, Gacio, VincenzoX, 2 Modifiche anonime

Scheda audio  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37994425  Autori:: Avesan, Basilero, Buzz lightyear, Buzzbomber, Dread83, Elmex1871, Fiaschi, Gil-Estel2010,
Giovannigobbin, Guam, Lilja, Marco Plassio, Max Null, Phantomas, Phas, Rhystic, Rosco, Ruste96, Salvorapi, Sassospicco, Seveso, Snowdog, 29 Modifiche anonime

Hard disk recording  Fonte:: http://it.wikipedia.org/w/index.php?oldid=35324485  Autori:: Absinthe, Alleborgo, Avemundi, Gac, Gacio, Marlin, Melos, Mentecontorta, Quadrispro, Sbisolo,
Scienze of Alex, Snowdog, Stemby, Torsolo, Viames, 11 Modifiche anonime

Home recording  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38528972  Autori:: Elmex1871, Fataconfetto, Hellis, Hill, Luckyz, Marlin, Quadrispro, Sanremofilo, Simo82, Square87,
Viames, 26 Modifiche anonime
Fonti e autori delle voci 308

Registrazione multitraccia  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38108405  Autori:: Ary29, Formica rufa, Mox83, O--o, Omino di carta

Sequencer  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38838700  Autori:: Alec, Alfreddo, Alleborgo, Ary29, Biopresto, Captivo, Carmine Ingaldi, Djdomix, Eumolpo, Formica rufa,
Frieda, Gssdrone1, Hellis, LuKeys, Maluv, Mir09, Negher, No2, Sbisolo, Smallpox, Square87, Stemby, Torsolo, Viames, VincenzoX, 35 Modifiche anonime

Drum machine  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37994417  Autori:: Alfreddo, Ary29, Baruneju, Iardo, Jack phoenix, Jacopo, Llodi, Mastazi, Moneymaker, Patafisik,
Phantomas, Sbisolo, Sesquipedale, Srell, Vale maio, Viames, 24 Modifiche anonime

Tracker  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37994482  Autori:: Absinthe, Afnecors, Aldo80, Alleborgo, Bultro, Formica rufa, Frack, Mike.lifeguard, Oks, Texcarson, ZaXxon, 29
Modifiche anonime

Musica tracker  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37224762  Autori:: Absinthe, Alec, Bultro, CapPixel, Carmine Ingaldi, Frack, Giannib, LilTrilly, Neq00, Rdocb, Seveso,
Texcarson, TierrayLibertad, Viames, 1 Modifiche anonime

Loop (musica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=34244843  Autori:: Angelorenzi, M&M's86, Piddu, 6 Modifiche anonime

Plugin (musica)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37994431  Autori:: %Pier%, Alfreddo, Ary29, Avesan, Carmine Ingaldi, Hellis, Lordzoster, Marcok, Orion21, Pietrodn, Senza
nome.txt, Sesquipedale, Square87, 6 Modifiche anonime

Virtual Studio Technology  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38266747  Autori:: Cruccone, Fiaschi, Lordzoster, Manuela.venturini, Mtt, Pracchia-78, Stemby, Viames, 11
Modifiche anonime

Virtual Instruments  Fonte:: http://it.wikipedia.org/w/index.php?oldid=11106818  Autori:: Alfreddo, Cinzia, Yerul, 1 Modifiche anonime

Orchestrazione virtuale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37994599  Autori:: Avesan, Manuela.venturini, Stemby, To011, 2 Modifiche anonime

Cog (software)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=35768327  Autori:: Hellis, Stanza237

Podcasting  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38339501  Autori:: .mau., Absinthe, Al Pereira, Asbesto, Brownout, Civvì, Cruccone, Dainobellofico, Dainofico, Davalv,
Easy2say, Elbloggers, Elspad, Fabrymondo, FollowTheMedia, Fredericks, Frieda, Gacio, Gea edizioni d'avanguardia, Guidomac, Hellis, Indie-eye, Jacopo, L0ne, Laiten, Llorenzi, Lolo00, Lox,
Lucas, M7, Marcok, Marcozampini, Misterioso, Paginazero, Pietrodn, Plasson, Pyotr, Retaggio, Santapatata, Sbisolo, Sentruper, Shaka, Simone, Snowdog, Soltanto uno, Square87, TheSneezer,
Turillazzo, Viames, Webmastro, 165 Modifiche anonime

Masterizzazione  Fonte:: http://it.wikipedia.org/w/index.php?oldid=35319020  Autori:: Ary29, Crypto, DarkAp, Favarese-nato, Goozer, Hellis, Kertrin138, Luckyz, Mk1987, Mpitt, No2,
Piracmone, R0tAbLe, Simoz, Ticket 2010081310004741, 17 Modifiche anonime

Microfono  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38565616  Autori:: 5Y, A7N8X, Alec, AnjaManix, Ataxirug, Aushulz, Bencio.O, Beta16, CavalloRazzo, Cruccone, DaniDF1995,
Djdomix, Dodeca, DonPaolo, Elmex1871, Frammco, Frieda, Gian Luca Cavallini, GiulioB, Gorgonauta, Guam, Hellis, Klemen Kocjancic, Lenore, Luciano.comelli, Maddarkham, Marco
Daniele, Marco1958, Massimiliano Lincetto, Micrologus, Nick84, No2, Number 21, Orric, Pullus In Fabula, Senpai, Senza nome.txt, Seveso, Snowdog, TierrayLibertad, Toobaz, Tuttologo93,
Ub, 42 Modifiche anonime

Microfono a condensatore  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38564920  Autori:: Aracuano, Ares, Avesan, Bemoeial, Clod, Frammco, Ggonnell, Guam, Iron Bishop, Lenore,
Marcol-it, Mess, Paginazero, Sbisolo, Seveso, Snowdog, Sonusfaber, 20 Modifiche anonime

Missaggio  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38777962  Autori:: Absinthe, Aqua, Avesan, Biopresto, Brunogff, Filmcommission, Ines, Lautenwerk, No2, OriginalDeca, Rojelio,
Tomi, 7 Modifiche anonime

Mixer (consolle)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38604085  Autori:: Biopresto, Bultro, DaniDF1995, Delpo, Diablo, Fabexplosive, Formica rufa, Gacio, Goz, Grifone87,
Guidomac, Hce, Ico88, Kal-El, LaseriumFloyd, Leoman3000, Lucas, Luisa, Lumage, Marko86, Mats 90, Max20059, Morningfrost, Nick1915, No2, Phantomas, Rojelio, Rosco, Rosnie, Salvatore
Ingala, Seveso, Stefx, Taueres, Tjmoel, Toobaz, 49 Modifiche anonime

VU meter  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38720021  Autori:: DnaX

Preamplificatore  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38715910  Autori:: ARTE, Ary29, Seveso, Toobaz, 12 Modifiche anonime

Compact disc  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38298574  Autori:: .anaconda, A7N8X, Absinthe, Actarux, Alez, Andre86, Ary29, Asdf1234, Basilicofresco, BigEug89,
Biopresto, Brískelly, Bultro, Cantalamessa, Cruscant3, Dudo, Euler, Eumolpo, Fabbosko, Fidech, Foschia, Franz Liszt, Gabstef, Gac, Gig, Giovannigobbin, Golf-ball, Gregorio Spanovitz,
Guidomac, Gvf, Hce, Hellis, Inkub0, Jalo, Jollyroger, KingFanel, L736E, Limonadis, Lorenzo Fratti, LucAndrea, Luca filzi, Lucius, Marco Plassio, Marcok, Marcol-it, Mau db, Melkor II, Mess,
Mikelima, Moliva, Niconico-chan, Nosferatu, Numbo3, Pequod76, Piero, Pietrodn, Piffy, Poweruser, Quatar, Red83, Rojelio, Romero, Rosco, Satrixx, Senza nome.txt, Servator, Sesquipedale,
Simonelobaido, Snowdog, Stefano86, Sumail, SuperPaperoga!, Tino 032, Triquetra, Twice25, Valhalla, Viopare, WOLLY FRANCIS, Wikinoir, Wikit2006, Yoggysot, 97 Modifiche anonime

Digital Audio Tape  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38174652  Autori:: Absinthe, Balabiot, Beta16, Dionis87, Foschia, Hce, Hellis, Lukius, Marcok, Sbisolo, Seveso,
Sonusfaber, Viames, 18 Modifiche anonime

S/PDIF  Fonte:: http://it.wikipedia.org/w/index.php?oldid=30007701  Autori:: Ary29, Avesan, Cyberuly, Fabexplosive, Loox, Morningfrost, Rics1299, Rs-Solution, Seveso, VincenzoX, 8
Modifiche anonime

AES/EBU  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38181676  Autori:: Absinthe, Ary29, Aushulz, Dr Zimbu, Formica rufa, KS, Marcol-it, Morningfrost, No2, Seveso, 25 Modifiche
anonime

ATRAC  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37458344  Autori:: Alfreddo, AnjaManix, Aushulz, Balabiot, Caulfield, Dsoft20, Fire90, Giannib, Hellis, Limonadis, Nur, Relva000,
Seveso, Stonehead, Viva i kronos, 15 Modifiche anonime

Broadcast Wave Format  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38587441  Autori:: Nico96, Seveso, Taueres, Una giornata uggiosa '94, 9 Modifiche anonime

Codice (teoria dell'informazione)  Fonte:: http://it.wikipedia.org/w/index.php?oldid=35979731  Autori:: Aepasto, Alberto da Calvairate, Ary29, Avesan, Beta16, DanGarb, EffeX2, Hellis, Jalo,
Maurice Carbonaro, Megadix, Piddu, Ribollito, Sassospicco, Sbisolo, Svante, Timendum, Trapanator, Tricicco87, W.visconti, 9 Modifiche anonime

Codec  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38175086  Autori:: Al Pereira, Blaxwan, Dommac, Frieda, Gianluca Ciccarelli, Hellis, Perteghella, Sasadoku, Scardovi, Square87,
TheHurricanePower, Wikijens, 6 Modifiche anonime

Codifica di canale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38799423  Autori:: Aaasaf, Abisys, Alberto Orlandini, Brownout, EffeX2, Emilio2005, Eumolpo, Fabio.gastone,
GiacomoV, Giorces, Jimmytk, Luisa, MapiVanPelt, SymlynX, Trixt, 39 Modifiche anonime

Codice convoluzionale  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38918254  Autori:: Chemako0606, Pracchia-78, 1 Modifiche anonime

Compressione dei dati  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38775420  Autori:: %Pier%, Alberto Orlandini, Alfio, Alien life form, Archenzo, Blakwolf, Carlo.milanesi,
Chemako0606, Djdomix, Dommac, EffeX2, Eumolpo, F. Cosoleto, Frieda, Hellis, Ignlig, LaseriumFloyd, Lornova, Lukius, M@ttia, Marcok, Qualc1, Rollopack, Sbisolo, Simpod, Unriccio, 14
Modifiche anonime

Compressione dati lossy  Fonte:: http://it.wikipedia.org/w/index.php?oldid=38173899  Autori:: Ary29, Cruccone, Djdomix, Dommac, Fredericks, Fstefani, Gvf, Hellis, Lox, Marcok, Nosferatu,
Unriccio, Yoggysot, 11 Modifiche anonime

Compressione dati lossless  Fonte:: http://it.wikipedia.org/w/index.php?oldid=37875632  Autori:: 50bbx, Airon90, Alberto Orlandini, Alien life form, Alleborgo, Ary29, Avesan, Baruneju,
CarmineXX, Civvì, Dinwath, Djdomix, Dommac, Fede Reghe, Fmonaco, Gaetano56, Hellis, Kiwi, Laurusnobilis, Leif Erikson, Lox, Nicolap8, No2, Piddu, RoB75, Snowdog, Sylvaticus,
Timendum, Unriccio, Wiso, 30 Modifiche anonime
Fonti, licenze e autori delle immagini 309

Fonti, licenze e autori delle immagini


Immagine:Commons-logo.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg  Licenza: logo  Autori:: User:3247, User:Grunt
Immagine:Wiktionary-ico-de.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png  Licenza: logo  Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000
Immagine:Napster Unique Users.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Napster_Unique_Users.svg  Licenza: Public Domain  Autori:: User Rpresser on en.wikipedia
Immagine:Liquid Oil Projection.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Liquid_Oil_Projection.jpg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: Dominik
from Germany
Immagine:CoverSUONO 404.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:CoverSUONO_404.jpg  Licenza: sconosciuto  Autori:: Paolippe, Trixt
Immagine:Ipod mini 1G.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ipod_mini_1G.jpg  Licenza: Public Domain  Autori:: Ed g2s, SCEhardt, 2 Modifiche anonime
Immagine:Musica liquida1.JPG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Musica_liquida1.JPG  Licenza: Public Domain  Autori:: User:Paolippe
Immagine:Musica liquida2.JPG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Musica_liquida2.JPG  Licenza: Public Domain  Autori:: User:Paolippe
Image:Moodswinger.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Moodswinger.jpg  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori:: User:Tomaat
Immagine:Mass_spring.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Mass_spring.svg  Licenza: sconosciuto  Autori:: Pbroks13, Pieter Kuiper, WikipediaMaster
Immagine:Mass_spring_damper.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Mass_spring_damper.png  Licenza: GNU Free Documentation License  Autori:: M.Salva
Immagine:Damped_Free_Vibration.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Damped_Free_Vibration.png  Licenza: GNU Free Documentation License  Autori:: M.Salva
Immagine:Forced_Vibration_Response.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Forced_Vibration_Response.png  Licenza: GNU Free Documentation License  Autori::
M.Salva
Immagine:Square_wave_frequency_spectrum_animation.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Square_wave_frequency_spectrum_animation.gif  Licenza: GNU Free
Documentation License  Autori:: M.Salva
Immagine:Frequency_response_example.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Frequency_response_example.png  Licenza: GNU Free Documentation License  Autori::
Original uploader was Lzyvzl at en.wikipedia
File:Beating Frequency.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Beating_Frequency.svg  Licenza: Creative Commons Attribution 2.5  Autori:: User:Ahellwig
File:2006-01-14 Surface waves.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:2006-01-14_Surface_waves.jpg  Licenza: GNU Free Documentation License  Autori:: User:Roger
McLassus
File:Onda copia.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Onda_copia.png  Licenza: sconosciuto  Autori:: Otrebla86
Image:Wave motion-i18n-mod.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wave_motion-i18n-mod.svg  Licenza: GNU Free Documentation License  Autori:: Original uploader
was Vargklo at en.wikipedia
File:Simple harmonic motion animation.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Simple_harmonic_motion_animation.gif  Licenza: Public Domain  Autori:: User:Evil_saltine
File:Onda_2.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Onda_2.jpg  Licenza: Public Domain  Autori:: User:Jak3x
File:Wave equation 1D fixed endpoints.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wave_equation_1D_fixed_endpoints.gif  Licenza: Public Domain  Autori:: User:Oleg
Alexandrov
File:Onde electromagnétique.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Onde_electromagnétique.png  Licenza: Free Art License  Autori:: ploufandsplash
File:Standing wave.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif  Licenza: Public Domain  Autori:: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek, Kieff,
Mike.lifeguard, Pieter Kuiper, Ptj
File:Lunghezza d'onda.PNG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Lunghezza_d'onda.PNG  Licenza: sconosciuto  Autori:: User:Harlock81
File:Oscillazione periodica.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Oscillazione_periodica.svg  Licenza: GNU Free Documentation License  Autori:: User:ARTE
Immagine:Pendulum.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Pendulum.svg  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori:: Cantons-de-l'Est, Mormegil,
Tano4595
File:Ear.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ear.jpg  Licenza: Creative Commons Attribution-Sharealike 2.0  Autori:: User:Dbenbenn
File:Ear-anatomy.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ear-anatomy.png  Licenza: GNU Free Documentation License  Autori:: Bemoeial2, Dirk Hünniger, Inductiveload,
JenVan, Matthias M., MichaelFrey, Surachit, 5 Modifiche anonime
Image:Sampled.signal.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Sampled.signal.svg  Licenza: Public Domain  Autori:: User:Petr.adamek, User:Rbj
Image:Digital.signal.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Digital.signal.svg  Licenza: Public Domain  Autori:: User:Petr.adamek, User:Rbj
File:Quantizzazionenonuniforme.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Quantizzazionenonuniforme.gif  Licenza: Creative Commons Attribution 2.0  Autori:: Original
uploader was Yorick at it.wikipedia
File:Sampleandholdcircuit.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Sampleandholdcircuit.png  Licenza: Public Domain  Autori:: User:Devilslord
File:Sampleandholdgraph.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Sampleandholdgraph.png  Licenza: Public Domain  Autori:: User:Devilslord
File:Pcm.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Pcm.svg  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori:: Alejo2083, Glenn, Ktims, 1 Modifiche anonime
Immagine:Convertitore_analogico_digitale.JPG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Convertitore_analogico_digitale.JPG  Licenza: sconosciuto  Autori:: Archaeologo,
D@vide, Red devil 666
File:Ad_wandler.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ad_wandler.jpg  Licenza: GNU Free Documentation License  Autori:: Albedo, Clusternote, Glenn, Joolz
File:Esempio_di_signal_dithering.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Esempio_di_signal_dithering.png  Licenza: sconosciuto  Autori:: Utente:Antonio78
File:Analog signal.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Analog_signal.png  Licenza: GNU Free Documentation License  Autori:: Original uploader was Ivan.Romero at
es.wikipedia
File:Sampled signal.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Sampled_signal.png  Licenza: sconosciuto  Autori:: Original uploader was Ivan.Romero at es.wikipedia
Immagine:Analog signal.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Analog_signal.png  Licenza: GNU Free Documentation License  Autori:: Original uploader was
Ivan.Romero at es.wikipedia
Immagine:Sampled signal.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Sampled_signal.png  Licenza: sconosciuto  Autori:: Original uploader was Ivan.Romero at es.wikipedia
Immagine: Segnale limitato in frequenza.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Segnale_limitato_in_frequenza.jpg  Licenza: sconosciuto  Autori:: Utente:Ede
Immagine: Segnale campionato.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Segnale_campionato.jpg  Licenza: sconosciuto  Autori:: Utente:Ede
Immagine: Segnale campionato 2.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Segnale_campionato_2.jpg  Licenza: sconosciuto  Autori:: Utente:Ede
File:Block Diagram Delta-Sigma svg.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Block_Diagram_Delta-Sigma_svg.png  Licenza: Creative Commons Attribution-Sharealike 3.0
 Autori:: Original uploader was Lulo at it.wikipedia
File:Fig 1a.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Fig_1a.png  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: Lulo
File:Aliasing-plot.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aliasing-plot.png  Licenza: GNU Free Documentation License  Autori:: Berto, Jelte, Karelj, Moxfyre, TommyBee,
WikipediaMaster
Immagine:Dither def 1788.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dither_def_1788.png  Licenza: Public Domain  Autori:: User:Dicklyon
Immagine:Didder def 1707.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Didder_def_1707.png  Licenza: Public Domain  Autori:: User:Dicklyon
Immagine:plot_small.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Plot_small.png  Licenza: sconosciuto  Autori:: Jalo
Immagine:Dithering_example_red_blue.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_example_red_blue.png  Licenza: GNU Free Documentation License  Autori::
User:Jalo
Immagine:Dithering_example_undithered.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_example_undithered.png  Licenza: GNU Free Documentation License  Autori::
Andyzweb, Jamelan, Jorva, Origamiemensch, 1 Modifiche anonime
Fonti, licenze e autori delle immagini 310

Immagine:Dithering_example_undithered_web_palette.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_example_undithered_web_palette.png  Licenza: GNU Free


Documentation License  Autori:: Andyzweb, Jamelan, WikipediaMaster, 1 Modifiche anonime
Immagine:Dithering_example_dithered_web_palette.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_example_dithered_web_palette.png  Licenza: GNU Free
Documentation License  Autori:: Jamelan, WikipediaMaster
Immagine:Dithering_example_dithered_256color.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_example_dithered_256color.png  Licenza: GNU Free Documentation
License  Autori:: Jamelan, WikipediaMaster
Immagine:Dithering_example_undithered_16color.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_example_undithered_16color.png  Licenza: GNU Free Documentation
License  Autori:: Jamelan, WikipediaMaster
Immagine:Dithering_example_dithered_16color.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_example_dithered_16color.png  Licenza: GNU Free Documentation
License  Autori:: Jamelan, WikipediaMaster
Immagine:Dithering_algorithms.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dithering_algorithms.png  Licenza: GNU Free Documentation License  Autori::
User:DemonDeLuxe
File:OB12 synth.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:OB12_synth.jpg  Licenza: Public Domain  Autori:: User:Grapetonix
Image:Teleharmonium1897.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Teleharmonium1897.jpg  Licenza: Public Domain  Autori:: User Chris 73 on en.wikipedia
Image:Mixtur Trautonium.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Mixtur_Trautonium.jpg  Licenza: Creative Commons Attribution 2.5  Autori:: User:MatthiasKabel
File:VCO.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:VCO.jpg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: User:^musaz
File:Akai_1.JPG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Akai_1.JPG  Licenza: sconosciuto  Autori:: -
Immagine:DSP block diagram.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:DSP_block_diagram.svg  Licenza: GNU Free Documentation License  Autori:: Cburnett,
Inductiveload, Kilom691, Ma-Lik, Remember the dot
Image:Audio-level-compresion-diagram-01.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Audio-level-compresion-diagram-01.svg  Licenza: Creative Commons Attribution 2.5
 Autori:: User:Iainf
Image:Compression ratio.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Compression_ratio.svg  Licenza: Public Domain  Autori:: Iain Fergusson
Image:Audio Compression Attack and Release-2.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Audio_Compression_Attack_and_Release-2.svg  Licenza: Creative Commons
Attribution-Sharealike 3.0  Autori:: User:Iainf
Immagine:Compression knee.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Compression_knee.svg  Licenza: Public Domain  Autori:: User:Iainf
Image:Broadband De-essing.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Broadband_De-essing.svg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: User:Iainf
Image:Split De-essing.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Split_De-essing.svg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: User:Iainf
Image:Dynamic EQ De-ess.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dynamic_EQ_De-ess.svg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: User:Iainf
Immagine:Clipping compared to limiting.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Clipping_compared_to_limiting.svg  Licenza: Creative Commons Attribution 3.0  Autori::
User:Iainf
Immagine:Noise Gate Attack Hold Release.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Noise_Gate_Attack_Hold_Release.svg  Licenza: Public Domain  Autori:: User:Iainf
File:Convolution3.PNG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Convolution3.PNG  Licenza: Public Domain  Autori:: Original uploader was w:en:User:EmoteEmote at
en.wikipedia Later version(s) were uploaded by w:en:User:McLoafMcLoaf at en.wikipedia.
Immagine:Wikibooks-logo.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg  Licenza: logo  Autori:: User:Bastique, User:Ramac
Immagine:Ibanez de7.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ibanez_de7.jpg  Licenza: Public Domain  Autori:: Chris Roddy
File:Leslie inside.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Leslie_inside.png  Licenza: Public Domain  Autori:: User:Simone buralli
Immagine:Comb_filter_feedforward.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_feedforward.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Oli Filth
Immagine:Comb_filter_response_ff_pos.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_response_ff_pos.png  Licenza: Creative Commons Attribution-Sharealike 2.5
 Autori:: User:Oli Filth
Immagine:Comb_filter_response_ff_neg.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_response_ff_neg.png  Licenza: Creative Commons Attribution-Sharealike 2.5
 Autori:: User:Oli Filth
Immagine:Comb_filter_pz_ff_pos.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_pz_ff_pos.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Oli Filth
Immagine:Comb_filter_pz_ff_neg.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_pz_ff_neg.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Oli Filth
Immagine:Comb_filter_feedback.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_feedback.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Oli Filth
Immagine:Comb_filter_response_fb_pos.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_response_fb_pos.png  Licenza: Creative Commons Attribution-Sharealike 2.5
 Autori:: User:Oli Filth
Immagine:Comb_filter_response_fb_neg.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_response_fb_neg.png  Licenza: Creative Commons Attribution-Sharealike 2.5
 Autori:: User:Oli Filth
Immagine:Comb_filter_pz_fb_pos.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_pz_fb_pos.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Oli Filth
Immagine:Comb_filter_pz_fb_neg.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Comb_filter_pz_fb_neg.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Oli Filth
File:High pass filter.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:High_pass_filter.png  Licenza: sconosciuto  Autori:: Dcoetzee, Ilmari Karonen, Inductiveload, Omegatron, Paddy,
Vadmium
File:Ideal Band Stop Filter Transfer Function.PNG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ideal_Band_Stop_Filter_Transfer_Function.PNG  Licenza: Public Domain  Autori::
EugeneZelenko, IknowNothing, Inductiveload, Qef
File:Passive_Band-stop_filter_Bode_Plot.PNG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Passive_Band-stop_filter_Bode_Plot.PNG  Licenza: Public Domain  Autori::
User:MichaelFrey
Immagine:Bandwidth.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bandwidth.png  Licenza: GNU Free Documentation License  Autori:: User:Kieff
Immagine:Filtro passivo passa banda.PNG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Filtro_passivo_passa_banda.PNG  Licenza: GNU Free Documentation License  Autori::
Tridim
Immagine:Low pass filter.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Low_pass_filter.png  Licenza: sconosciuto  Autori:: Dcoetzee, Ilmari Karonen, Inductiveload, Omegatron,
Paddy, Vadmium
Immagine:Butterworth response.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Butterworth_response.png  Licenza: sconosciuto  Autori:: AtonX, EugeneZelenko, Glenn,
Krishnavedala, LoopZilla, Omegatron, Paddy, Pieter Kuiper, Stannered, 2 Modifiche anonime
Immagine:ParalleloCL.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:ParalleloCL.png  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: Andreabont
File:Amfm3-en-de.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Amfm3-en-de.gif  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori:: Berserkerus
File:Frequency-modulation.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Frequency-modulation.png  Licenza: Creative Commons Attribution-Sharealike 2.0  Autori:: Dantor,
EugeneZelenko, Glenn, Gregors, Gvf, Joanjoc, WikipediaMaster
Image:Phase Modulation.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Phase_Modulation.png  Licenza: Public Domain  Autori:: Original uploader was Splashtalk at en.wikipedia
File:Modulation d'amplitude figure 2.2.1.1.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Modulation_d'amplitude_figure_2.2.1.1.png  Licenza: sconosciuto  Autori:: Archeologo,
Enaud
File:Portante_12.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Portante_12.png  Licenza: sconosciuto  Autori:: Archeologo, Enaud
Fonti, licenze e autori delle immagini 311

File:Modulation_d'amplitude_figure_2.1.1.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Modulation_d'amplitude_figure_2.1.1.png  Licenza: sconosciuto  Autori:: Archeologo,


Enaud
File:AMgrafico.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:AMgrafico.png  Licenza: sconosciuto  Autori:: Archeologo
File:surmodulation.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Surmodulation.gif  Licenza: sconosciuto  Autori:: Enaud
File:Spettro_am_1.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Spettro_am_1.png  Licenza: sconosciuto  Autori:: Giac83
Immagine:NoteNamesFrequenciesAndMidiNumbers.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:NoteNamesFrequenciesAndMidiNumbers.svg  Licenza: GNU Free
Documentation License  Autori:: Suwatest, Wikipedia-ce, 1 Modifiche anonime
Immagine:Midi_ports_and_cable.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Midi_ports_and_cable.jpg  Licenza: GNU Free Documentation License  Autori:: 1-1111, ChrisJ,
Fulcanelli, TommyBee
File:Turing Machine.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Turing_Machine.png  Licenza: Public Domain  Autori:: Darapti, Porao
Immagine:Wikisource-logo.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikisource-logo.svg  Licenza: logo  Autori:: Nicholas Moreau
Immagine:Wikinews-logo.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikinews-logo.svg  Licenza: logo  Autori:: User:Simon, User:Time3000
Immagine:Wikiquote-logo.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg  Licenza: sconosciuto  Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq,
Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime
Immagine:Interiorofawatercooledcomputer.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Interiorofawatercooledcomputer.png  Licenza: GNU Free Documentation License
 Autori:: User:Syrthiss
File:Personal computer, exploded 4.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Personal_computer,_exploded_4.svg  Licenza: Creative Commons Attribution 2.5  Autori::
Aleator, BMK, Berrucomons, Boivie, Edward, Gustavb, Huhsunqu, J.delanoy, Jon Harald Søby, Kozuch, Lysander89, Mdd, Mhare, Monsterxxl, Origamiemensch, Rocket000, Slovik, Ss181292,
UED77, 22 Modifiche anonime
File:OpenOffice.org Writer.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:OpenOffice.org_Writer.png  Licenza: GNU Lesser General Public License  Autori:: http://hacktolive.org/
File:Categorie software.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Categorie_software.png  Licenza: GNU Free Documentation License  Autori:: Orso della campagna
File:Audigy2zs.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Audigy2zs.png  Licenza: GNU Free Documentation License  Autori:: User:Appaloosa
File:Tascam-16Track.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Tascam-16Track.jpg  Licenza: Public Domain  Autori:: User:Iainf
File:TEAC_2340.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:TEAC_2340.jpg  Licenza: Creative Commons Attribution 2.5  Autori:: Original uploader was Bubba73 at
en.wikipedia
Immagine:Roland TR-808 drum machine.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Roland_TR-808_drum_machine.jpg  Licenza: GNU Free Documentation License  Autori::
Original uploader was Eriq at nl.wikipedia
File:Roland TR-808 drum machine.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Roland_TR-808_drum_machine.jpg  Licenza: GNU Free Documentation License  Autori::
Original uploader was Eriq at nl.wikipedia
File:Linn_LM-1_Drum_Computer.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Linn_LM-1_Drum_Computer.jpg  Licenza: Public Domain  Autori:: Original uploader was
Ekwatts at en.wikipedia
Immagine:Roland TR-909.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Roland_TR-909.jpg  Licenza: GNU Free Documentation License  Autori:: User:Emhoo
File:Modplug Tracker.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Modplug_Tracker.png  Licenza: sconosciuto  Autori:: User:Texcarson
File:Milky Tracker.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Milky_Tracker.png  Licenza: GNU General Public License  Autori:: Screenshot taken by Texcarson
File:Cheesetracker-shot.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cheesetracker-shot.png  Licenza: GNU General Public License  Autori:: Original uploader was Guaka at
en.wikipedia Later version(s) were uploaded by Tene at en.wikipedia.
Immagine:Cog-0.06-icon.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cog-0.06-icon.png  Licenza: GNU General Public License  Autori:: Original uploader was Niamer at
en.wikipedia
Immagine:Cog0.06r391.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cog0.06r391.png  Licenza: GNU General Public License  Autori:: Original uploader was Niamer at
en.wikipedia
File:Feed-icon.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Feed-icon.svg  Licenza: GNU General Public License  Autori:: unnamed (Mozilla Foundation)
File:Podcastlogo.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Podcastlogo.jpg  Licenza: Creative Commons Attribution-Sharealike 2.0  Autori:: Peter Marquardt vom Podcast
lemotox - die Volksentdummung
File:Philips_SBC_MD_110.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Philips_SBC_MD_110.jpg  Licenza: sconosciuto  Autori:: Dmitry G, Elmschrat, FML, GeorgHH, Jmabel,
Martin H., Shoulder-synth, Startaq, 1 Modifiche anonime
File:Coal microphone.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Coal_microphone.jpg  Licenza: Creative Commons Attribution 2.5  Autori:: Antikon, Shoulder-synth, Startaq
File:Oktava319-internal.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Oktava319-internal.jpg  Licenza: GNU Free Documentation License  Autori:: User:Gmaxwell
Image:Polar pattern omnidirectional.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Polar_pattern_omnidirectional.png  Licenza: Creative Commons Attribution-Sharealike 2.5
 Autori:: User:Galak76
Image:Polar pattern subcardioid.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Polar_pattern_subcardioid.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Galak76
Image:Polar pattern cardioid.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Polar_pattern_cardioid.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Galak76
Image:Polar pattern supercardioid.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Polar_pattern_supercardioid.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Galak76
Image:Polar pattern hypercardioid.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Polar_pattern_hypercardioid.png  Licenza: Creative Commons Attribution-Sharealike 2.5
 Autori:: User:Galak76
Image:Polar pattern figure eight.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Polar_pattern_figure_eight.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Galak76
Image:Polar pattern directional.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Polar_pattern_directional.png  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
User:Galak76
Immagine:microfono a condensatore1.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Microfono_a_condensatore1.jpg  Licenza: Creative Commons Attribution-Sharealike 3.0
 Autori:: User:Guam
Image:AKG-C414-front.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:AKG-C414-front.jpg  Licenza: Creative Commons Attribution 2.5  Autori:: User:Iainf
Image:MicrophoneNeumannU89iA.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:MicrophoneNeumannU89iA.jpg  Licenza: Public Domain  Autori:: MG
Image:Neumann_U87.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Neumann_U87.jpg  Licenza: GNU Free Documentation License  Autori:: User:PJ
Image:Oktava319.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Oktava319.jpg  Licenza: GNU Free Documentation License  Autori:: User:Gmaxwell
Image:Oktava319-internal.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Oktava319-internal.jpg  Licenza: GNU Free Documentation License  Autori:: User:Gmaxwell
Image:Ldc-mike.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ldc-mike.jpg  Licenza: GNU Free Documentation License  Autori:: User:Pepre
Image:Oktava319vsshuresm58.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Oktava319vsshuresm58.png  Licenza: GNU Free Documentation License  Autori:: Gmaxwell,
Omegatron, Shoulder-synth, Soulkeeper, Stannered, Startaq, 1 Modifiche anonime
Image:ElektretMicAmp.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:ElektretMicAmp.png  Licenza: Public Domain  Autori:: Shmia, TommyBee, WikipediaMaster
Image:Mic-condenser.PNG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Mic-condenser.PNG  Licenza: GNU Free Documentation License  Autori:: Banco, CLI, Megodenas, Pulsar,
Shoulder-synth, 1 Modifiche anonime
Immagine:Mixing Console Discom2.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Mixing_Console_Discom2.jpg  Licenza: Creative Commons Attribution-Sharealike 2.5  Autori::
Joram van Hartingsveldt
File:Grosses Mischpult 740x495.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Grosses_Mischpult_740x495.jpg  Licenza: GNU Free Documentation License  Autori:: User:mlucan
Fonti, licenze e autori delle immagini 312

File:Mark III radio desk.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Mark_III_radio_desk.jpg  Licenza: GNU Free Documentation License  Autori:: 32bitmaschine, Clusternote,
Cookie, Shoulder-synth, Txo
File:AudioMixer.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:AudioMixer.jpg  Licenza: Public Domain  Autori:: User:Morningfrost
File:Mixer opened.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Mixer_opened.jpg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: User:Fabexplosive
Immagine:VU Meter.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:VU_Meter.jpg  Licenza: Creative Commons Attribution 2.5  Autori:: User:Iainf
File:CD ISO logo.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:CD_ISO_logo.png  Licenza: Public Domain  Autori:: International Organization for Standardization
File:CD autolev crop.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:CD_autolev_crop.jpg  Licenza: GNU Free Documentation License  Autori:: User:Ubern00b
Immagine:Bootable Business Card.JPG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bootable_Business_Card.JPG  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori::
User:Connor401
Immagine:Shaped Data CD.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Shaped_Data_CD.jpg  Licenza: Creative Commons Attribution-Sharealike 3.0  Autori:: User:Wikipit
File:Lettore_CD_lente.JPG  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Lettore_CD_lente.JPG  Licenza: sconosciuto  Autori:: SuperPaperoga!
Image:Interference-colors.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Interference-colors.jpg  Licenza: Creative Commons Attribution-Sharealike 2.1  Autori::
User:Luis_Fernández_García
Image:cd2.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cd2.png  Licenza: sconosciuto  Autori:: User:Fred chessplayer
File:Dat cartridge.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Dat_cartridge.jpg  Licenza: GNU Free Documentation License  Autori:: Gleam, Orgullomoore, Priwo, TommyBee,
WikipediaMaster, Yaoleilei
Immagine:Coaxial television plug.gif  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Coaxial_television_plug.gif  Licenza: GNU Free Documentation License  Autori:: 32bitmaschine,
Andreas -horn- Hornig, Oosoom, Stunteltje
Immagine:TOSLINK.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:TOSLINK.jpg  Licenza: Public Domain  Autori:: User Cyvh on en.wikipedia
File:SPDIF AES EBU protocol colored.svg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:SPDIF_AES_EBU_protocol_colored.svg  Licenza: Creative Commons Attribution-Sharealike
2.5  Autori:: User:Alejo2083
Immagine:Convolutional encoder non-recursive.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Convolutional_encoder_non-recursive.png  Licenza: Public Domain  Autori::
Original uploader was Teridon at en.wikipedia
Immagine:Convolutional encoder recursive.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Convolutional_encoder_recursive.png  Licenza: Public Domain  Autori:: Alexey
Kuznetsov - Ring0
Immagine:Convolutional code trellis diagram.png  Fonte:: http://it.wikipedia.org/w/index.php?title=File:Convolutional_code_trellis_diagram.png  Licenza: Public Domain  Autori:: Alexey
Kuznetsov - Ring0
Immagine:tulipanoJPEG100.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG100.jpg  Licenza: GNU Free Documentation License  Autori:: Coyote83
Immagine:tulipanoJPEG90.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG90.jpg  Licenza: GNU Free Documentation License  Autori:: Coyote83
Immagine:tulipanoJPEG50.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG50.jpg  Licenza: GNU Free Documentation License  Autori:: Coyote83
Immagine:tulipanoJPEG10.jpg  Fonte:: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG10.jpg  Licenza: GNU Free Documentation License  Autori:: Coyote83
Licenza 313

Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/

Potrebbero piacerti anche