Il Vbap è una variante più precisa del panning e può essere usata insieme agli altri algoritmi per la creazione di immagini virtuali. Gli altoparlanti sono trattati come coppie consecutive per ottenere immagini 2D o  come triplette per immagini 3D
Il Vbap è una variante più precisa del panning e può essere usata insieme agli altri algoritmi per la creazione di immagini virtuali. Gli altoparlanti sono trattati come coppie consecutive per ottenere immagini 2D o come triplette per immagini 3D

Negli ultimi anni, il rapido sviluppo delle capacità computazionali, del basso costo del digitale e dell’amplificazione multicanale, ha reso possibile il perfezionamento e la concretizzazione delle tecniche di spazializzazione già teorizzate. Ne sono da esempio le tecniche di HRTF (Head Related Transfer Function) che si sviluppano sulla base della teoria Duplex, ovvero sulla stima del fenomeno della localizzazione spaziale di eventi sonori da parte delle orecchie umane; nonché la riaffermazione dell’audio surround live resa possibile grazie alle tecnologie Ambisonics e WFS.

di Francesco “Holden” Trucchia e Lorenzo Ortolani

Dopo i primi esperimenti sulla stereofonia, partiti dal Théâtrophone francese nel 1881, fino ad arrivare alla stereofonia, grazie al genio di Blumlein, che chiamò inizialmente la sua tecnica stereofonica “binaurale” nel 1931, saltiamo a piè pari negli anni ’60, dove vengono fatte anche le prime sperimentazioni di audio surround nei live grazie ai Pink Floyd (1967) e David Bowie (ne parlammo in una intervista a Buford Jones, fonico di entrambe le band). Mentre la band registrava l’album “Piper at the Gates of Dawn”, un tecnico degli Abbey Road Studios gli fece ascoltare dei missaggi fatti con due diffusori alle spalle. Euforici, chiesero a Bernard Speight di costruire un sistema come quello con cui stavano giocando, per un concerto alla Queen Elizabeth Hall. Speigh costruì non solo i diffusori, ma anche un sistema di quattro reostati collegati, due a due, a un paio di leve in grado di spostare suoni tra sei diversi diffusori. Era nient’altro che un doppio joystick, chiamato a quel tempo Azimuth Co-ordinator. L’audio surround live, però, a causa della difficoltà nell’avere un hotspot  ampio, è andato in disuso, eccetto in casi di effettistica particolare. D’altronde i vari esperimenti, condotti negli anni ’70, per estendere i principi della stereofonia a configurazioni quadrifoniche non ebbero il successo sperato e nessuno dei formati audio quadrifonico codificati (JVC CD4, CBS SQ, Sansui SQ, Nippon Columbia UD4, …) divenne mai uno standard industriale. La prospettiva, però, di conferire all’ascolto riprodotto quella caratteristica naturale del suono tridimensionale in origine, non è mai stata abbandonata. Altri tentativi furono condotti, per applicazioni individuali o con un numero ristretto di ascoltatori. Gli stessi Pink Floyd, nel 1983, per l’album “ Final Cut”, furono i primi ad utilizzare la tecnica di ripresa mediante microfono “holophone”, per ottenere un ascolto, in cuffia, in cui i suoni avvolgevano l’osservatore e la sensazione di realtà era impressionante. Alla registrazione dell’album collaborò Maurizio Maggi che, insieme al padre Umberto Gabriele, avevano appena brevettato tale sistema (brevetto piuttosto controverso, in quanto vengono definite specifiche non differenti dalle HRTF o dalle tecniche di registrazione binaurale), seguendo le teorie dell’italo-argentino Hugo Zucarelli.

nella teoria Ambisonics, Gerzon considerò lo sviluppo del campo acustico intorno ad un centro, in cui è supposto essere l’ascoltatore. Espresse, quindi, il campo in coordinate polari nella forma P (ρ, φ,б) dove alle coordinate cartesiane x, y, z si sostituisce “ρ” che è il raggio ed indica la distanza dal centro e gli angoli azimutale e di elevazione “φ, б”. In questo modo descrisse il campo come somma di funzioni standard, dette armoniche sferiche
Nella teoria Ambisonics, Gerzon considerò lo sviluppo del campo acustico intorno ad un centro, in cui è supposto essere l’ascoltatore. Espresse, quindi, il campo in coordinate polari nella forma P (ρ, φ,б) dove alle coordinate cartesiane x, y, z si sostituisce “ρ” che è il raggio ed indica la distanza dal centro e gli angoli azimutale e di elevazione “φ, б”. In questo modo descrisse il campo come somma di funzioni standard, dette armoniche sferiche

 

I “topoi” del suono e la percezione sonora

Il suono si può descrivere attraverso tre tipologie di spazio (topoi) differenti: lo spazio interno, inteso come rapporto tra le parziali (timbro); lo spazio esterno che è il rapporto tra un suono e l’altro, e lo spazio proiettivo come relazione tra l’evento sonoro ed il luogo in cui accade. Un suono riprodotto, in qualsiasi ambiente, varia in funzione dello spazio. Matematicamente può essere espresso come variazione temporale della pressione acustica e descritto da una funzione del tipo: P(t, x, y, z con t tempo). Solo considerando le quattro variabili, possiamo descrivere un campo acustico come evento che accade in un certo tempo e in un certo volume nello spazio. Le proprietà temporali di un evento sonoro codificano delle proprietà note a tutti come l’altezza e il timbro di un suono, la melodia, l’ armonia e la ritmica, mentre quelle spaziali risultano di più difficile comprensione. Eppure la variazione del suono nello spazio è fortemente influente sull’esperienza dell’ascolto. In termini percettivi, produce in ogni singolo ascoltatore, posizionato in un punto dello spazio, sensazioni come “presenza” di un suono, “direzione di provenienza” e “avvolgimento”. In analogia con la percezione visiva tridimensionale, anche la localizzazione delle sorgenti sonore è quindi fondamentale per l’uomo.

Spazializzazione e audio 3D

Per spazializzazione, in generale, si intende la gestione dello spazio proiettivo, caratterizzato da una propria geometria e dimensioni e descritto attraverso la localizzazione delle sorgenti e dell’ascoltatore e dei loro movimenti. L’obiettivo è indurre nell’ascoltatore una percezione realistica della posizione e movimento delle sorgenti sonore, tenendo conto dell’esperienza soggettiva che egli vive e che ricostruisce partendo proprio da quei segnali acustici che investono l’apparato uditivo. In questo senso, per “audio 3D” si intende l’esperienza di un ascoltatore che riceve i suoni da una molteplicità di direzioni, con l’intento del controllo completo dello spazio uditivo percepito a seguito di quello riprodotto. Sulle caratteristiche di direzione del suono e distanza delle sorgenti, viene quindi tracciata la mappa sonora soggettiva dell’ascoltatore. Inoltre l’implementazione di sistemi computerizzati ha reso possibile un grande margine di libertà nella progettazione delle strutture spaziali virtuali, con un minor sforzo in fase di sviluppo del progetto stesso, in quanto semplicemente con un click si possono modificare istantaneamente le configurazioni di spazializzazione, per valutarne i risultati.

Tecniche di spazializzazione

Tenendo sempre a mente quella “Schizofonia” che si genera, per dirla alla Schafer, effettuando la registrazione con l’intento di ascoltarla poi in un contesto diverso da quello dell’esecuzione originale, sono state sviluppate varie tecniche di spazializzazione, per l’ascolto singolo o multi-utente. In generale, la spazializzazione di sorgenti sonore virtuali si basa su sistemi multicanale di diffusori che possono essere classificati in base alla tecnica usata nelle seguenti tipologie: schemi Percettivi, Ricostruzione del Campo Sonoro e Orchestre di diffusori.

Schemi Percettivi

Ne fanno parte quelle tecniche basate sulla costruzione di immagini virtuali, come il “VBAP, il “Binauralee “ l’Ambiofonia e Transaurale. Il VBAP ( Vector Based Amplitude Panning) si basa su un sistema di panpottaggio a base vattoriale in funzione dell’ampiezza, utilizzando almeno 2 diffusori disposti in conformazione geometrica regolare. Il Binaurale, invece, è un sistema che simula i segnali per i canali uditivi destro e sinistro in funzione della posizione della sorgente virtuale, attraverso una convoluzione con caratteristiche HRTF e/o l’uso di una testa “dummy”, dove i microfoni sono posizionati esattamente nei condotti uditivi. Esistono inoltre sistemi che consentono la variazione della posizione della sorgente virtuale attraverso un sistema di interpolazione. Possiamo inoltre utilizzare un sistema di puntamento per la testa che renda possibile all’ascoltatore rotazioni senza che la sorgente stessa ruoti a sua volta. Infine, il sistema ambiofonico ( transaurale) è un’evoluzione del binaurale, che sfrutta lo stesso concetto ma si avvale poi della distribuzione dei segnali su una coppia di diffusori.

Orchestre di diffusori

Questo sistema di spazializzazione fa riferimento alla tecnica in cui le sorgenti o i canali sonori sono indirizzati direttamente ad ogni diffusore senza l’impiego di nessun algoritmo di codifica. Per citarne alcune applicazioni, possiamo ricordare l’Acousmonium del GRM (Group Recherche Musical) e il più recente Beast (Birmingham ElectroAcoustic Sound Theatre). I segnali possono essere generati da una serie di strumentazioni elettroniche come amplificatori, radio, sintetizzatori, circuiti elettronici e strumenti elettrici distribuiti in uno spazio fisico, dove ogni sorgente è riprodotta dal proprio diffusore, con un proprio suono definito.

Ricostruzione del Campo Sonoro

La ricostruzione dell’intero campo sonoro si può realizzare attraverso la tecnica Ambisonics , che nel caso del AOS (Ambisonico di Ordine Superiore) diventa una caso particolare di Olofonia. Il sistema rende possibile la spazializzazione dei campi sonori attraverso sistemi multi-diffusore, sfruttando la sua scomposizione in armoniche sferiche o cilindriche, per restituire una risposta 3D o 2D, in funzione dell’ordine ambisonico desiderato. Spesso, infatti, si tiene conto solamente del fronte d’onda piano (non sferico) che rappresenta solo la direzione della sorgente considerata, tralasciando l’informazione relativa alla sua distanza. Il concetto dell’Olofonia sta anche alla base anche della Wave Field Synthesis (WFS) o tecnica di Sintesi a Campo D’onda, capace di ricostruire fedelmente il campo sonoro sul piano orizzontale per poter posizionare varie sorgenti virtuali nello spazio con grande precisione.

Membrane di un microfono Soundfield, con le quattro capsule poste in configurazione tetraedrica
Membrane di un microfono Soundfield, con le quattro capsule poste in configurazione tetraedrica

Ambisonics

Il sistema Ambisonico, sviluppato da Michael Gerzon negli anni ’70 all’Università di Oxford, pur riscuotendo poco successo all’epoca rispetto ai sistemi quadrifonici, è stato il primo che di fatto si è focalizzato sulla riproduzione dell’intero campo sonoro piuttosto che alla creazione di sorgenti spettrali isolate, introducendo i sistemi perifonici. Rimane uno dei più completi sistemi di microfonaggio e riproduzione sonora esistenti in quanto permette di conservare tutte le informazioni relative alla spazialità del suono e consente una decodifica del segnale diversa a seconda del numero di altoparlanti utilizzati per la riproduzione. Per la registrazione viene utilizzato un microfono omnidirezionale posto nel centro e tre microfoni con diagramma polare a 8 disposti secondo le tre direzioni dello spazio. Storicamente il tipo di microfono utilizzato è il Soundfield, in grado di registrare informazioni sonore relative alle tre direzioni dello spazio. I segnali estratti da questo microfono sono quattro: X,Y,Z (figura 8, uno per ogni asse dello spazio) e W (ominidirezionale). Per poter gestire questi segnali è necessaria un’unità di controllo che permetta di manipolarli e miscelarli nella maniera desiderata. Si fa riferimento ai 4 segnali prelevati dal microfono come A-Format mentre, dopo essere passati attraverso l’unità di controllo, i segnali vengono identificati come B-Format. L’azione principale svolta dall’unità di controllo è quella di rimediare alle differenze di tempo tra i vari segnali. Nella maggior parte dei sistemi ambisonici di primo ordine la riproduzione dell’intera sfera perifonica avviene su una disposizione surround di almeno 4 diffusori, posti ai vertici di un tetraedro regolare. Ora bisogna concentrarsi, ma non useremo formule: intendendo il suono come una funzione del tipo P (t,x,y,z,) in un volume di spazio xyz nel tempo t, Gerzon teorizzò la decomposizione del Campo Acustico in varie funzioni standard, dette armoniche sferiche, considerando la posizione dell’ascoltatore come il centro attorno a cui si sviluppa il campo sonoro, descrivendolo quindi in coordinate polari nella forma P (ρ, φ,б) dove alle coordinate cartesiane x, y, z si sostituisce “ρ” che è il raggio ed indica la distanza dal centro e gli angoli azimutale e di elevazione “φ, б”. Il campo sonoro può quindi essere descritto come la somma di N funzioni standard An (ρ, φ,б) pesate su altrettanti coefficienti Pn (t), cioè i segnali audio che codificano il sistema. Le armoniche sferiche rappresentano quindi funzioni del solo spazio. In un codifica Ambsonics del primo ordine tali funzioni sono 4 ed hanno le forme di una sfera (W) e di 3 sfere accoppiate ( X,Y,Z), orientate secondo i tre assi cartesiani. I quattro segnali audio ad esse associati ( W, X, Y, Z) costituiscono, così, il sopracitato B-Format. Il numero delle armoniche N, ovvero il numero dei canali Ambisonics, può di fatto essere aumentato a 9 ( Ambisonics di secondo ordine) o a 16 ( Ambisonics di terzo ordine), a seconda del grado di precisione desiderato. Questo sistema di registrazione/riproduzione può essere interpretato come un’estensione tridimensionale della tecnica Mid/Side: il canale W trasporta informazioni per tutte le direzioni dello spazio, mentre X, Y e Z gestiscono informazioni direzionali relative agli assi a cui sono associati. Inoltre dal momento che il canale Z restituisce informazioni soltanto relative all’elevazione e non dipendenti dall’angolo orizzontale, nel caso di una configurazione orizzontale viene omesso, riducendo così il numero di canali richiesti a tre. Il sistema dunque si presta perfettamente come approccio per una quadrifonia orizzontale. Il numero M dei diffusori impiegati può essere variabile, ma dipendente dal grado di precisione voluto. Stabilita una configurazione spaziale di diffusori regolare, la decodifica consiste nell’estrarre, dagli N canali Ambisonics codificati, gli M canali da distribuire al sistema di altoparlanti affinché al suo centro si riproducano le armoniche codificate. Tali formule derivano dalle soluzioni dell’equazione dell’onda in coordinate cilindriche per le due dimensioni o in coordinate sferiche per le tre. In ogni caso se si vuole ottenere un effetto 2D il numero dei diffusori da impiegare è quattro, per un effetto 3D è otto, considerando sempre l’ascoltatore al centro di un cubo con i diffusori posizionati in prossimità degli otto vertici. La particolarità dell’Ambisonics è che si serve di un formato fisico che contiene informazioni indipendenti dal sistema di registrazione/riproduzione che si va ad utilizzare. Inoltre, considerando che le onde sonore siano piane e che il punto di ascolto sia localizzato al centro del sistema di coordinate, le formule si semplificano ulteriormente e le infinite serie di informazioni possono essere troncate e ricalcolate su un numero finito di componenti. Un segnale viene dunque codificato moltiplicandolo con le prime “N” armoniche sferiche in un sistema 3D e cilindriche in uno 2D.

Nell’impossibilità di poter usare quattro microfoni coincidenti, Gerzon dispose quattro capsule con direttività cardioide poste sulle facce di un tetraedro. La conversione dei segnali delle capsule ( A-Format) tramite una serie di somme e sottrazioni genera i segnali Ambisonics del 1°ordine ( B-Format)
Nell’impossibilità di poter usare quattro microfoni coincidenti, Gerzon dispose quattro capsule con direttività cardioide poste sulle facce di un tetraedro. La conversione dei segnali delle capsule ( A-Format) tramite una serie di somme e sottrazioni genera i segnali Ambisonics del 1°ordine ( B-Format)

Ambisonico di Ordine Superiore (AOS)

È un’estensione dell’approccio ambisonico, basato sulla decomposizione del campo sonoro in una serie di funzioni armoniche sferiche. Questo sistema richiede un numero maggiore di diffusori, di canali per la trasmissione e la registrazione, ma offre la possibilità di estendere la risoluzione spettrale e migliorare il punto d’ascolto ideale, allargandolo in maniera sensibile. Uno dei maggiori vantaggi che offre è il fatto di poter incrementare o regredire il sistema da un livello più alto ad un livello più basso, e viceversa. Un altro fattore importante, che determina la compatibilità tra vari sistemi ed ordini, è rappresentato dal fatto che la codifica è assolutamente separata dalla decodifica, con maggiore grado di libertà nella configurazione del sistema di diffusori da impiegare. Migliora anche la riproduzione alle basse frequenze, distribuita su un’area maggiore rispetto ad un sistema ambisonico di ordine primo, e un’accurata riproduzione alle alte frequenze, almeno al centro del campo sonoro.

utilizzando molti diffusori disposti sui vertici di un tetraedro regolare, un sistema Ambisonics elevato a un grado di ordine superiore diventa un caso particolare di Olofonia proiettando l'immagine acustica che si compone al suo centro.
Utilizzando molti diffusori disposti sui vertici di un tetraedro regolare, un sistema Ambisonics elevato a un grado di ordine superiore diventa un caso particolare di Olofonia proiettando l’immagine acustica che si compone al suo centro.

WFS – Wave Field Synthesis

Questa tecnica di spazializzazione sonora consente la completa riproduzione del campo sonoro originale sul piano orizzontale. Il sistema non tiene conto di nessun effetto psicoacustico, ma si basa sul concetto teorico che ogni campo sonoro può essere ricostruito da una ridistribuzione di sorgenti secondarie su una superficie chiusa che circonda l’ascoltatore. Queste sorgenti secondarie consistono in una serie di distribuzioni di monopoli e dipoli, in accordo con il principio di Huygens secondo cui il fronte d’onda primario viene ricostruito dall’inviluppo di fronti d’onda secondari disposti su quello dell’onda della sorgente primaria. Analiticamente questa tecnica sfrutta l’integrale di Kirchhoff-Helmholtz che con Rayleigh, nell’Ottocento, normalizzarono matematicamente il principio sopraindicato. Le sorgenti secondarie possono anche trovarsi su linee chiuse arbitrarie, previo l’inserimento di opportuni ritardi legati al tempo di percorrenza che le separa dalla primaria. Nel 1988 l’olandese Berkhout ebbe l’intuizione di utilizzare gli altoparlanti come sorgenti secondarie di Huygens, per poter ricostruire interi campi sonori arbitrari da una certa linea o superficie in avanti. Da qui la possibilità di ricostruire, entro un certo perimetro, ogni sorgente virtuale che è responsabile del campo sonoro stesso, posta al di fuori di tale perimetro e che lo attraversa. Solitamente l’utilizzo di tale tecnica è implementata su un piano bidimensionale e si realizza tramite l’uso di array orizzontali di diffusori, come a formare una cornice perimetrale. Di fatto, considerando un numero discreto di sorgenti sonore (è impossibile ad ora realizzare dei diffusori audio di dimensioni infinitesimali), la formula che deriva dall’integrale di Kirchhoff-Helmholtz diventa una somma finita di versioni ritardate dell’onda di pressione sonora nella posizione di quella sorgente, moltiplicato per un coefficiente d’ampiezza. L’approssimazione nell’utilizzo di questi array introduce ovviamente degli errori nel campo sonoro riprodotto. Il fatto che un array è costituito da una serie finita di diffusori (discreti) significa che non è in grado di riprodurre le caratteristiche spaziali dell’onda alle alte frequenze oltre alla frequenza di campionamento fs = c/2D, dove D rappresenta la distanza tra i diffusori. Ciò determina che la distanza minima dell’ascoltatore dal sistema di diffusori deve essere almeno il doppio della distanza tra due diffusori consecutivi. Il sistema WFS gode di caratteristiche uniche per quanto riguarda la spazializzazione. Il campo sonoro viene, infatti, ricreato in modo corretto in quasi l’intera area circondata dai diffusori. A differenza delle altre tecniche, invece di caratterizzarsi per un punto d’ascolto ideale, la WFS crea un’ area d’ascolto ideale, dove più ascoltatori possono ricevere correttamente le informazioni spaziali di una o più sorgenti sonore. Un altro pregio di questo sistema è che quando un ascoltatore si muove all’interno dell’area d’ascolto le sorgenti restano comunque stazionarie e ci si può muovere tra esse ed avvicinarsi a zone differenti del campo. L’esperienza che ne risulta per l’ascoltatore è quindi altamente realistica.

In accordo con il principio di Huygens, la tecnica Wave Field Synthesis genera una sorgente virtuale ricostruendo le onde sonore, che nella realtà si propagano concentricamente, sostituendole con  "fronti sonori" curvati. Il fronte d’onda primario viene dunque ricostruito dall’inviluppo dei fronti d’onda secondari che possono seguire la curvatura del fronte principale o essere disposti su una linea retta, previo l’inserimento di opportuni ritardi rispetto al fronte principale. I numerosi diffusori non riproducono immagini spettrali isolate ma lavorano in simbiosi per generare l'intero campo sonoro.
In accordo con il principio di Huygens, la tecnica Wave Field Synthesis genera una sorgente virtuale ricostruendo le onde sonore, che nella realtà si propagano concentricamente, sostituendole con “fronti sonori” curvati. Il fronte d’onda primario viene dunque ricostruito dall’inviluppo dei fronti d’onda secondari che possono seguire la curvatura del fronte principale o essere disposti su una linea retta, previo l’inserimento di opportuni ritardi rispetto al fronte principale. I numerosi diffusori non riproducono immagini spettrali isolate ma lavorano in simbiosi per generare l’intero campo sonoro.

“Focus in source”

Nella teoria WFS le sorgenti virtuali da riprodurre sono considerate esterne alla superficie dell’ascolto. E’ comunque possibile riprodurre sorgenti virtuali all’interno della superficie stessa, utilizzando il principio dell’inversione temporale: essenzialmente un campo ondulatorio convergente è un campo temporalmente inverso. In altre parole, magari più comprensibili, per primo, viene creata una sorgente virtuale nella posizione focalizzata designata, mentre il campo ondulatorio viene ricreato dietro l’array di diffusori; in seguito, le funzioni che pilotano i diffusori saranno invertite temporalmente. Da questo si ottiene un campo ondulatorio che converge verso la posizione della sorgente sonora virtuale per poi divergere e generare il campo desiderato. Queste tipologie di sorgenti sono definite come sorgenti virtuali focalizzate. Le sorgenti focalizzate non possono essere renderizzate correttamente per gli ascoltatori in tutta l’area d’ascolto. Per poter evocare la percezione di una sorgente virtuale all’interno di tale area, possiamo riprodurre il campo ondulatorio che convergere in una determinata direzione, verso il punto focale. Come conseguenza della casualità, il campo ondulatorio diverge dopo aver oltrepassato il punto focale. Un ascoltatore posizionato nella “parte divergente” del campo ondulatorio percepisce una sorgente virtuale nella posizione dove si trova il punto focale, mentre un ascoltatore posizionato nella “parte convergente” del campo si troverà confuso a causa dei fattori contraddittori di localizzazione. In pratica, in un punto dello spazio, identificato come sorgente o “fuoco”, si crea una particolare interferenza, grazie sempre all’uso dei ritardi, con valori questa volta complementari, come fossero degli anticipi rispetto ai tempi di percorrenza del suono tra il punto di fuoco e gli altoparlanti stessi. Quello che si crea è una sensazione uditiva di crescita del livello acustico per chi si avvicina al punto di “fuoco”, come se lì si trovasse realmente una sorgente sonora, come se fosse, ad esempio, una persona invisibile che vi parla di fronte, o di lato, o da dietro. In generale la scena sonora virtuale ricreata è di tipo “oggettivo” su un’area di ascolto estesa, in cui tutti gli ascoltatori sono immersi nello stesso campo, che varia da punto a punto, ma in modo coerente rispetto al campo acustico riprodotto. Un ascoltatore, cioè, posto a destra sentirà una sorgente virtuale centrale alla sua sinistra, mentre un altro posto a sinistra la sentirà alla sua destra. Ne risultano applicazioni efficaci molto varie, da spettacoli live, composizioni “spazio-musicali” ed installazioni audio-video, in cui il problema della profondità delle sorgenti viene risolto in quanto si percepisce il suono non direttamente dagli altoparlanti, ma da posizioni poste dietro o davanti ad essi. La WFS offre quindi soluzioni più gestibili ed efficienti rispetto alle normali tecniche surround dove, a seconda della posizione d’ascolto, si possono avvertire direzioni dei suoni errate anche a causa del numero esiguo di diffusori impiegati. Le ultime ricerche e sviluppi di tale tecnica sono volte allo sviluppo di sistemi che integrano anche la componente verticale del suono, per rendere totale la percezione di avvolgimento, da parte dell’ascoltatore.

una delle possibili applicazioni della WFS è quella della “focalizzazione”, ovvero la tecnica di posizionare una sorgente virtuale non dietro le sorgenti, ma tre esse e gli ascoltatori. In Fig.A un posizionamento standard delle sorgenti dietro l’array, mentre in Fig.B si realizza la “focalizzazione” della sorgente tra l’array e la zona d’ascolto.
una delle possibili applicazioni della WFS è quella della “focalizzazione”, ovvero la tecnica di posizionare una sorgente virtuale non dietro le sorgenti, ma tre esse e gli ascoltatori. In Fig.A un posizionamento standard delle sorgenti dietro l’array, mentre in Fig.B si realizza la “focalizzazione” della sorgente tra l’array e la zona d’ascolto.

Conclusioni

Le tecniche di spazializzazione basate sull’immagine virtuale sono efficienti ma imprecise in quanto dipendono molto dalla posizione dell’ascoltatore. In questo senso, l’ Ambisonic, in grado di creare un’immagine 3D , risulta più robusta rispetto alla posizione dell’ascoltatore; permette, inoltre, di avere N sorgenti, per M canali di uscita, codificati nell’ordine desiderato. Ma la tecnica WFS, seppur necessita di un numero elevato di diffusori, risulta essere la codifica più precisa che si possa avere di uno spazio sonoro, in quanto non dipende dalla posizione dell’ascoltatore e non si avvale di criteri psico-acustici, ma tiene conto soltanto dei fenomeni fisici legati ai ritardi dei segnali codificati, rispetto al fronte d’onda originale da riprodurre.