Akusmatik Sound System
NOVITA' - Disponibile manuale in italiano del Synth
RAVE-O-LUTION 309.




LA Musica Acusmatica


Scarica/Leggi il fiLe in PDF

"Acusmatica" non è una di quelle parole che si incontrano nella vita di tutti i giorni. Acusmatiche erano le lezioni di Pitagora, che i suoi discepoli ascoltavano celato da una tenda, senza vederlo restituendo "all'udito la totale responsabilità di una percezione che normalmente si appoggia ad altre testimonianze sensibili", come scriveva il pioniere Pierre Schaffer nel suo "Traité des objets musicaux". L'acusmatica, insomma, isola il suono dal contesto visivo e si propone come fenomeno di per se stesso.
Musica acusmatica: musica delle macchine, generata da mezzi elettronici, ma soprattutto musica assoluta, che si riduce al puro fenomeno sonoro, in un processo di sottrazione che la allontana dal contatto con gli altri sensi, primo fra tutti quello visivo. Acusmatiche erano le lezioni di Pitagora, quando nascosto dietro una tenda sollecitava gli allievi alla massima attenzione verso la parola, lasciando all'udito la piena responsabilità della percezione.
Musica acusmatica , musica prodotta in studio sintetizzando ed elaborando i suoni con mezzi analogici o digitali e/o manipolando suoni concreti, registrata su supporto e diffusa mediante impianto di riproduzione-amplificazione senza presenza di esecutori dal vivo. Con quasi 60 anni di storia "ufficiale" , la musica acusmatica è un vero e proprio nuovo medium musicale le cui peculiarità tecniche di fruizione collettiva sono state individuate con chiarezza nella seconda metà degli anni '70: suono diffuso mediante dispositivi di "proiezione", altoparlanti disseminati nello spazio del "concerto", sotto la direzione di un musicista-interprete alla consolle. Schematicamente si potrebbe dire che la proiezione acusmatica sta al concerto come il cinema sta al teatro: una nuova pratica musicale che necessita di sperimentazione, ricerca, spazi e vita autonoma. La consolle è il cuore del dispositivo di proiezione sonora: ogni traccia del supporto sul quale è fissata l'opera elettronica, è affidata ad un certo numero di canali del mixer. Ad esempio, nel caso di una composizione bifonica, la prima traccia sarà in uscita su 12 canali e la seconda su altri 12. In tal modo l'interprete acusmatico potrà controllare 12 coppie di altoparlanti (scelti con caratteristiche diverse ad es. contrabbassi, bassi, medi, alti ecc.. come se si dovesse allestire un coro o un'orchestra acustica) operando sui cursori della consolle. [interpretazione acusmatica] L'interesse crescente per la ri-creazione di opere acusmatiche in "concerto" reclama la definizione di un nuovo mestiere di interprete: il direttore di un "orchestra di altoparlanti". Egli può agire sui cursori della consolle di proiezione anche con l'ausilio di "figure" di spazializzazione, può scegliere la qualità e il numero degli altoparlanti, il loro posizionamento in sala, filtraggi e interventi sul suono...

Composizione acusmatica e proiezione del suono: un 'ritorno al futuro' per la musica elettronica
Franco Degrassi

    Dopo la fase pionieristica della prima meta' del secolo scorso, in cui i nuovi strumenti nati dal controllo dell'elettricita' sono usati dai compositori prevalentemente con approccio tradizionale in ambito orchestrale, la musica elettronica nasce dopo la guerra come musica radiofonica. La dimensione della fruizione e' acusmatica, cioe' si tratta di suoni dei quali non si intravede alcuna sorgente ( cosi come nella pratica acusmatica di Pitagora che teneva lezioni ai suoi discepoli nascosto da una tenda ). La pratica dei dj nasce in ambito " colto" proprio in quegli anni attraverso le sperimentazioni sui supporti dell'epoca, dischi e poi nastri, da parte di musicisti francesi come Pierre Scheffer e Pierre Henry. I materiali di base provengono da registrazioni in dotazione alla radio, isolati-analizzati-manipolati ( anche la pratica dello scratch nasce allora ) come veri e propri "oggetti sonori" sono mixati-ibridati-montati in nuovi modelli di composizione che non fanno piu' uso di partiture scritte e di note ( cioe' di suoni ad altezza detrminata prodotti da strumenti acustici ) ma di catene di eventi sonori. Alla pratica musicale basata sull'oralita' ed a quella basata sulla notazione scritta si aggiunge la pratica musicale basata sulla produzione e conservazione di suoni su supporto mediante tecnologie elettroacustiche. La musica fissata su disco o nastro non perdeva, in ogni caso, nelle esperienze maturate nello stesso periodo, la possibilita' di essere "materiale fluido" soggetto ad atti performativi di esecuzione nonostante l'apparente rigidita' del supporto : dalle esperienze di remix, anch'esse non nate in ambito popular, alla creazione di "orchestre di altoparlanti" ( acousmonium ) per la "proiezione del suono". La fruizione di musica mediante un acousmonium sta all'ascolto privato di musica riprodotta come la televisione sta al cinema. Il pubblico e' situato in una sala nella quale sono dispersi decine di altoparlanti di varie caratteristiche ed e' letteralmente immerso nel suono. Alla consolle un interprete gestisce la proiezione del suono nello spazio e da' un taglio assolutamente personale alla diffusione dellle composizioni. Mediante tali orchestre il gesto interpretativo rientra nella pratica musicale e il fare musica con le nuove tecnologie, da atto casalingo individuale sia pur sempre piu' diffuso diventa' atto collettivo di ascolto. Situazione acusmatica per eccellenza in cui in un ambiente a luci basse o addirittura al buio l'ascolto diventa attento, totalmente coinvolgente, vero antidoto (sia pur parziale) contro un mondo in cui i suoni sono vomitati continuamente , come tappezzerie sonore per ascoltatori disattenti, piu' bisognosi di "analgesici sonori" che di fruizione artistica



Pierre Schaeffer e la ricerca musicale

Da Biblio-net.com Musica Classica


De Musica
L'ascolto cieco
Di Beatrice Lasio
16 Mar 2004, 11:10

Pierre Schaeffer: ingegnere, artista radiofonico, compositore, teorico, scrittore, inventore. Nel 1948, con l'aiuto di alcuni collaboratori al Club d'essai della Radiodiffusione francese, compone dei brani musicali originali e conia un termine generico per definire la natura di questi pezzi: musica concreta. Ciò che Schaeffer ha cominciato a sperimentare è comporre musica sfruttando i mezzi di registrazione e riproduzione sonora in ogni fase del lavoro di creazione. L'idea è quella di selezionare il materiale tra i suoni esistenti (frammenti di musica tradizionale e rumori registrati), esaminarne le caratteristiche e trasformarlo, così da scoprire qualità sonore a cui l'orecchio non è abituato. La costruzione musicale avviene fissando definitivamente gli eventi sonori ricavati su un supporto ed è destinata all'ascolto attraverso gli altoparlanti. L'aggettivo "concreto", con cui Schaeffer qualifica la sua musica, si riferisce all'utilizzo di materiali preesistenti, ma soprattutto indica una tendenza compositiva che non intende partire da disegni prestabiliti, bensì dall'esame dei suoni e dal carattere della loro combinazione. Questo modo di procedere, concreto appunto, si oppone a quello astratto della musica strumentale. Una prospettiva nuova, la cui scoperta ripaga Schaeffer dei limti delle apparecchiature a disposizione: pesanti da manipolare e difficili da controllare, incapaci di fornire effettivamente i suoni desiderati. L'esperienza radiofonica, l'invenzione della musica concreta, i nuovi problemi legati alla diffusione di musica per supporto nello spazio della sala da concerto, le difficoltà e i successi che l'avventura compositiva intrapresa stanno via via portando, e poi lo scontro/incontro con la musica elettronica tedesca e con le varie tendenze dell'avanguardia musicale occidentale: tutto ciò inevitabilmente significa, per Schaeffer e le équipes di scienziati e musicisti che negli anni si costituiscono attorno a lui, un lungo e intenso lavoro di indagine e riflessione sul suono e sulla musica. Col Traité des objets musicaux, fitto volume pubblicato nel 1966, vengono formalizzati i risultati di questa lunga fase di ricerca. La trasformazione accelerata dell'arte musicale, nell'epoca della sua riproducibilità tecnica, porta inevitabilmente ad ampliare l'orizzonte, a generalizzare: non si dovrebbe considerare "musica" solo quella occidentale tradizionale, e neanche solo quella occidentale. È un'idea "universale" di musica che apre alla novità. Da questo punto di vista, se è vero che la musica è un linguaggio, se il suo funzionamento può essere rintracciato nei principi della linguistica, non sembra sufficiente considerare solo il suo aspetto di "sistema di regole da cui ricavare la competenza per esprimersi", poiché in tal modo la si priva della parte di vitalità libera e innovatrice propria del linguaggio. Se la musica ha una langue, occorre restituirle la parole. Le esperienze degli ultimi vent'anni, della musica concreta, elettronica, sperimentale, elettroacustica, ma anche le pratiche musicali delle tradizioni extraeuropee, hanno rivelato l'inadeguatezza della notazione occidentale che si apprende col solfeggio ed è impiegata da secoli per comporre, interpretare, analizzare. Essa è in grado di considerare solo alcuni aspetti dell'organizzazione sonora e musicale e può riferire tali aspetti solo ai suoni prodotti dagli strumenti dell'orchestra. Questa associazione suono-segno, unita all'abitudine dell'ascolto "dal vivo", porta inevitabilmente a confondere il suono con la sua fonte, come fossero la stessa cosa. L'avvento della radio e degli altri mezzi di riproduzione sonora hanno generato una nuova condizione di ricezione: ascoltiamo dei suoni che sono lontani dalla loro fonte originaria. Tale condizione potrebbe divenire acusmatica, potremmo cioè sviluppare un nuovo tipo di ascolto che concentri l'attenzione esclusivamente sul suono, che consideri il suono in se stesso, in un tipo di ascolto che è intendere. Il lavoro in studio porta necessariamente a considerare in modo diverso lo strumento musicale e il materiale compositivo. Non è più possibile considerarli una sola cosa. Il suono è registrato con un microfono, perde la sua natura evanescente per fissarsi definitivamente su un supporto. E questo suono si trasforma allorché viene cambiato il microfono, il tipo di supporto, l'apparecchio riproduttore, l'altoparlante. E non vuole essere lo stesso suono quando si sottopone a trasformazioni intenzionali operate mediante strumenti concepiti per fare questo. Tale realtà implica una ricerca d'équipe che mette in gioco diversi ambiti disciplinari per studiare il suono musicale da diversi punti di vista. Dunque, l'attività musicale è un'attività interdisciplinare. Il suono che riguarda la musica, però, è l'unità di un sistema di comunicazione, una struttura che acquista la sua funzione musicale nel momento in cui si correla con altre strutture allo scopo di costruire l'opera d'arte. Questa unità, qualunque sia la materia sonora che la costituisce e la forma che assume, è l'oggetto sonoro, estrapolato dal contesto dell'opera d'arte e quindi privato del suo valore musicale, oppure, al contrario, preesistente alla musica. L'oggetto sonoro non è un fenomeno naturale, né un prodotto culturale. È, a metà strada, una struttura che percepiamo. La percezione implica un ritorno all'origine, all'oggetto stesso, all'insieme di dati che l'attività intenzionale della coscienza raccoglie per formare l'esperienza e dunque la conoscenza. L'oggetto sonoro in quanto percezione non esiste al di fuori dell'attività percettiva, e quest'ultima è inevitabilmente condizionata dall'esperienza vissuta. Perciò, volendo provare a stabilire dei criteri di identificazione dell'oggetto sonoro che tendono verso l'universale, occorrerebbe sottoporre a una riflessione critica, "mettere tra parentesi", i pregiudizi con i quali ci si pone di fronte a tale oggetto sonoro. L'ascolto ridotto, che corrisponde all'"epochè" (messa in parentesi, riduzione) di Husserl, potrebbe liberare il suono dalla sua causa e dal suo senso, affinché lo si possa considerare in se stesso. L'oggetto sonoro è il frutto dell'ascolto ridotto, l'attività percettiva liberata da pregiudizi e conoscenze. L'oggetto sonoro si rivela quando l'ascolto è epurato da ogni riferimento esterno a ciò che percepiamo e siamo intenzionati a conoscere. L'oggetto sonoro esiste nell' ascolto cieco, quando si vive un'esperienza acusmatica.

Una certa musica per supporto

    Nel 1956, con Haut Voltage di Pierre Henry e Gesang der Junglinge di Karlheinz Stockhausen, si cominciarono a mescolare suoni catturati col microfono e suoni di sintesi. Per designare tali composizioni miste, agli inizi degli anni '60 si impiegò sistematicamente il termine "musica elettroacustica", che fa riferimento agli strumenti utilizzati. In tal senso, qualunque musica, "colta" o "popolare", realizzata con l'elettricità, la registrazione e la sintesi, da ascoltare con un sistema di diffusione del suono, può definirsi musica elettroacustica, sia essa per supporto analogico o digitale, per strumento e supporto oppure live electronics. Nell'ambito della musica "colta", l'espressione "musica elettroacustica" risulta efficace quando occorre generalizzare. Generalizzare per parlare, ad esempio, di una dimensione musicale che, in cinquant'anni, ha acquisito un ruolo di primo piano: la dimensione spaziale. Nella musica elettroacustica l'organizzazione di collocazioni, traiettorie, espansioni, riguarda e correla lo spazio "reale" del luogo del concerto e quello "virtuale" creato sul supporto. Tutto ciò grazie all'utilizzo dei dispositivi di diffusione del suono. Sin dal primo concerto di musica concreta, il 18 marzo 1950 alla Ecole Normale de Musique di Parigi, iniziò a svilupparsi nelle menti dei compositori, l'esigenza di far partecipare l'altoparlante alla creazione musicale. Presto si cominciarono a sfruttare le potenzialità estetiche di uno strumento in grado di proiettare il suono per dar vita, nello spazio, a oggetti musicali in movimento. L'altoparlante: uno strumento musicale che, in quanto tale, mette in gioco l' "interpretazione". Negli anni furono realizzati diversi sistemi di proiezione sonora per le creazioni elettroacustiche, fra i quali alcuni, concepiti da Karlheinz Stockhausen, Pierre Henry, Christian Clozier, si proponevano, ognuno nel suo modo particolare, come vere e proprie orchestre di altoparlanti. Il gmebaphone (da cui deriva l'attuale cybernéphone) realizzato nel 1973 in seno al Groupe de Musique Expérimentale de Bourges (GMEB), fu concepito da Christian Clozier per l'esecuzione dal vivo di musica composta su nastro, con l'intenzione di porre l'accento sull'interpretazione "in concerto" della musica elettroacustica. L'interpretazione è ugualmente il principio che guida l'invenzione e l'impiego dell'acousmonium (o orchestra di proiettori sonori), ideato da François Bayle e realizzato l'anno seguente in seno al GRM (il Groupe de Recherches Musicales concepito da Pierre Schaeffer). L'acousmonium è costituito da diversi tipi di altoparlanti, da collocare, secondo disegni arbitrari ma sperimentati, sulla scena o tra il pubblico. Un "direttore", nel distribuire dinamicamente i suoni agli altoparlanti in concerto, interpreta un brano di musica acusmatica. "Musica acusmatica". Così François Bayle definiva, agli inizi degli anni '70 le proprie composizioni realizzate interamente in studio e su supporto. Con questo termine egli intendeva innanzi tutto riferendosi all'ideale ispiratore della sua ricerca, vale a dire quello del "puro ascolto". Oggi, soprattutto in Francia, con "musica acusmatica" o "arte acusmatica" si indica un particolare genere della creazione elettroacustica, ossia una forma di spettacolo che mette in gioco la composizione su supporto e la sua diffusione/interpretazione con un sistema di proiezione sonora. Il senso di quest'arte musicale si rintraccia innanzitutto nel valore attribuito all'aggettivo "acusmatico". Nel Traité del objets musicaux di Pierre Schaeffer, il termine ritorna più volte. Esso deriva dalla tradizionale associazione a Pitagora, e già lo scrittore e poeta Jérôme Peignot, nel 1955, riferendosi alle prime composizioni concrete e alla loro radiodiffusione, aveva utilizzato l'aggettivo "acusmatico" nel tentativo di designare la distanza che separa un suono dalla sua fonte. A p. 150 del Traité del objets musicaux, per esempio, a proposito dell'ascolto musicale si legge che la "situazione acusmatica" rende possibile «l'interrogazione che concerne il suono stesso, le sue qualità propriamente sonore, senza relazione con la sua origine meccanica o un'intenzione altrui […] tale curiosità non scaturisce automaticamente dalla semplice deconnessione del complesso audio-visivo, ma da un'intenzione specifica dell'uditore.» Su queste basi François Bayle elaborò il concetto del "puro ascolto" e ideò l'acousmonium per la diffusione/interpretazione della sua musica acusmatica. E da qui si è sviluppata l'esigenza di definire più chiaramente gli ambiti, di tracciare dei confini, dando un nome a un particolare genere di musica elettroacustica, che valorizza la dimensione spettacolare dell'ascolto attraverso gli altoparlanti. Il 18 giugno 1998, all'auditorium Olivier Messiaen della Maison de Radio France a Parigi, si tenne la prima esecuzione assoluta di Terra Incognita, opera acusmatica di Denis Dufour, commissionata dall'Ina-GRM. Lo spettacolo fu concepito per due coppie stereofoniche indipendenti, per un'interpretazione professionale con due dispositivi di proiezione. L'idea dell'impiego di due acousmonium, spiega l'autore, è nata con l'intenzione di offrire agli ascoltatori uno spettacolo inedito, un'occasione per sperimentare un nuovo tipo di ascolto. C'è nel contempo l'intenzione di mostrare che il compositore di arte acusmatica può non essere l'interprete delle proprie opere, proponendo così l'interpretazione come vera e propria specializzazione professionale. Alla prima di Terra incognita, l'acousmonium Motus fu diretto da Denis Dufour, l'acousmonium dell'Ina- GRM, invece, da Jonathan Prager. Anche in Italia oggi si usa definire "acusmatiche" alcune forme di spettacolo che impiegano la musica fissata su supporto e dei sistemi di diffusione sonora. Questi ultimi, quando non sono le tradizionali coppie di altoparlanti, consistono nelle cosiddette "installazioni", creazioni che si ispirano all'arte del design ma, soprattutto, veri e propri strumenti di elaborazione sonora che partecipano alla creazione musicale elettroacustica. Il CRM (Centro Ricerche Musicali) di Roma, da diversi anni si dedica alla progettazione e alla realizzazione di installazioni, impiegandole per l'ascolto di composizioni fissate su supporto. Una particolare recente proposta del CRM, consiste nell'ascolto attraverso i Planofoni. Questi "piani che trasmettono il suono" consentono una diffusione omogenea e agiscono sul suono sfruttando le particolari caratteristiche dei diversi materiali (carta, plastica, ferro, legno, ecc.) con cui possono essere costruiti. La superficie dei Planofoni può assumere qualunque tipo di forma e può collocarsi variamente nel luogo dell'ascolto, per contribuire con coerenza alla creazione dello spazio musicale.

Note conclusive

    La musica fissata su supporto non offre nulla da guardare con gli occhi. Questa sua particolarità continua a colpirmi molto. Sembra perfetta per l'ascolto domestico, ma credo che non perda il suo fascino neanche nella sala da concerto tradizionale con due altoparlanti frontali. Tanto più che ormai non c'è, a distrarre l'ascolto, l'imbarazzo dello stare seduti, fermi e in silenzio, l'uno accanto all'altro, privati di qualcosa che, protagonista sulla scena, attiri gli sguardi su di sé. Ho sentito dire, poco tempo fa, che la musica per supporto è ormai superata. Questa affermazione mi turba abbastanza. Le mie migliori esperienze di ascoltatrice, quelle con l'acousmonium di Denis Dufour e Jonathan Prager, oppure con le installazioni e la scultura sonora Infinito di Michelangelo Lupone e del CRM, mi inducono a credere che forme di spettacolo del genere siano assolutamente in grado di restituire senso all'ascolto "in concerto" della musica fissata su supporto ("musica acusmatica" preferisco dire, in ogni caso). La musica per supporto, l'arte acusmatica, trova le sue origini nella musica concreta di Pierre Schaeffer. Essa esclude qualunque collegamento diretto tra visivo e uditivo, e i sistemi di proiezione sonora, concepiti per la sua diffusione e interpretazione, nel favorire l'ascolto cieco rendono ogni esperienza d'ascolto unica. L'ascolto cieco, però, sta al di là di qualunque genere. È una capacità che l'individuo sviluppa quando c'è l'intenzione. Dunque, la separazione del suono dalla sua fonte o da altre referenze è un fatto mentale più che fisico. L'idea dell'ascolto cieco ha valore fino a che attribuiamo alla musica, qualunque musica, la funzione di essere ascoltata.

Riferimenti

Pierre Schaeffer, Traité des objets musicaux, Parigi, Éditions du Seuil, 1966. Walter Benjamin, L'opera d'arte nell'epoca della sua riproducibilità tecnica, Torino, Einaudi, 1966 François Delalande, La musique électroacoustique: coupure et continuité, 1996, in Pierre Schaeffer, l'œuvre musicale, testi e documenti raccolti da François Bayle, Parigi, INA.GRM e Librairie Seguier, 1990 Pierre Schaeffer, À la Recherche d'une Musique concrète, in Ina-GRM, La musique électroacoustique, CD-ROM n. 1, Parigi, éditions hyptique, 2000 Denis Dufour, Thomas Brando, A propos du genre acousmatique, in DUFOUR TERRA INCOGNITA, Livre-CD MOTUS/Acousma M199005

Riferimenti

Pierre Schaeffer, Traité des objets musicaux, Parigi, Éditions du Seuil, 1966. Walter Benjamin, L'opera d'arte nell'epoca della sua riproducibilità tecnica, Torino, Einaudi, 1966 François Delalande, La musique électroacoustique: coupure et continuité, 1996, in Pierre Schaeffer, l'œuvre musicale, testi e documenti raccolti da François Bayle, Parigi, INA.GRM e Librairie Seguier, 1990 Pierre Schaeffer, À la Recherche d'une Musique concrète, in Ina-GRM, La musique électroacoustique, CD-ROM n. 1, Parigi, éditions hyptique, 2000 Denis Dufour, Thomas Brando, A propos du genre acousmatique, in DUFOUR TERRA INCOGNITA, Livre-CD MOTUS/Acousma M199005

Link:

http://multiphonie.free.fr/article/schaeffer.htm
http://homestudio.thing.net/revue/content/asr4.html


Composizione acusmatica e proiezione del suono: un 'ritorno al futuro' per la musica elettronica


Franco Degrassi

Dopo la fase pionieristica della prima meta' del secolo scorso, in cui i nuovi strumenti nati dal controllo dell'elettricita' sono usati dai compositori prevalentemente con approccio tradizionale in ambito orchestrale, la musica elettronica nasce dopo la guerra come musica radiofonica. La dimensione della fruizione e' acusmatica, cioe' si tratta di suoni dei quali non si intravede alcuna sorgente ( cosi come nella pratica acusmatica di Pitagora che teneva lezioni ai suoi discepoli nascosto da una tenda ). La pratica dei dj nasce in ambito " colto" proprio in quegli anni attraverso le sperimentazioni sui supporti dell'epoca, dischi e poi nastri, da parte di musicisti francesi come Pierre Scheffer e Pierre Henry. I materiali di base provengono da registrazioni in dotazione alla radio, isolati-analizzati-manipolati ( anche la pratica dello scratch nasce allora ) come veri e propri "oggetti sonori" sono mixati-ibridati-montati in nuovi modelli di composizione che non fanno piu' uso di partiture scritte e di note ( cioe' di suoni ad altezza detrminata prodotti da strumenti acustici ) ma di catene di eventi sonori. Alla pratica musicale basata sull'oralita' ed a quella basata sulla notazione scritta si aggiunge la pratica musicale basata sulla produzione e conservazione di suoni su supporto mediante tecnologie elettroacustiche. La musica fissata su disco o nastro non perdeva, in ogni caso, nelle esperienze maturate nello stesso periodo, la possibilita' di essere "materiale fluido" soggetto ad atti performativi di esecuzione nonostante l'apparente rigidita' del supporto : dalle esperienze di remix, anch'esse non nate in ambito popular, alla creazione di "orchestre di altoparlanti" ( acousmonium ) per la "proiezione del suono". La fruizione di musica mediante un acousmonium sta all'ascolto privato di musica riprodotta come la televisione sta al cinema. Il pubblico e' situato in una sala nella quale sono dispersi decine di altoparlanti di varie caratteristiche ed e' letteralmente immerso nel suono. Alla consolle un interprete gestisce la proiezione del suono nello spazio e da' un taglio assolutamente personale alla diffusione dellle composizioni. Mediante tali orchestre il gesto interpretativo rientra nella pratica musicale e il fare musica con le nuove tecnologie, da atto casalingo individuale sia pur sempre piu' diffuso diventa' atto collettivo di ascolto. Situazione acusmatica per eccellenza in cui in un ambiente a luci basse o addirittura al buio l'ascolto diventa attento, totalmente coinvolgente, vero antidoto (sia pur parziale) contro un mondo in cui i suoni sono vomitati continuamente , come tappezzerie sonore per ascoltatori disattenti, piu' bisognosi di "analgesici sonori" che di fruizione artistica.dialog box

Link:

dialogbox HOME
di.a.log box
dialog_box
di.a.log_box


Sulla musica acusmatica, acustica e sulle interpretazioni della musica digitale


Petri Kuljuntausta

Come compositore quando lavoro nel mio studio il mio obiettivo è quello di creare composizioni dove il materiale sonoro sia organizzato in modo preciso. Nello studio una composizione si chiude e tutto è ben bilanciato. Ma in un secondo livello quando vado a eseguire una composizione mi accorgo che il prodotto dello studio è solo una possibile versione di quell'opera. Come performer live i miei comportamenti cambiano e cerco di trovare nuovi lati (interpretativi) nelle mie composizioni. Sono anche interessato a continuare il processo creativo nella situazione del concerto. Anche se la musica è composta per supporti digitali immodificabili e si propone per essere eseguita in modo lineare (dal punto di inizio alla fine) io faccio talvolta qualcosa di inatteso durante la performance. Mi sento aperto verso le nuove possibilità, e per quanto riguarda la struttura delle mie composizioni sono interessato a realizzare interpretazioni delle mie opere che siano creative anche attraverso delle variazioni. Ho iniziato a lavorare con questa strategia nel 1990 quando ho fatto un concerto con un mio collega. Suonavamo le mie composizioni acusmatiche e facevamo un leggero lavoro di colorizzazione di queste composizioni. All'inizio il mio amico usava un sintetizzatore e io avevo una collezione di suoni concreti e anche dei frammenti delle mie composizioni. Io mi prendevo cura di come le composizioni passassero attraverso il sistema di amplificazione e quando ci sembrava opportuno aggiungevamo qui e là altri suoni. In seguito ho comprato processori di suoni in tempo reale e ho cominciato a manipolare e riciclare in tempo reale durante il concerto i suoni delle composizioni. Creavo alcuni nuovi colori e nuovi strati che aggiungevo durante la performance, tutti i materiali erano sempre presi dalla composizione stessa. Non voglio dire che questo fosse del live-electronic , perché per me queste composizioni erano ancora fondamentalmente composizioni acusmatiche ma in questo caso venivano eseguite su un palco con alcuni elementi opzionali eseguiti dal vivo. Al giorno d'oggi i processori e gli strumenti che abbiamo a disposizione mi offrono le possibilità di cui ho bisogno come performer. Sono interessato a prendere decisioni in tempo reale, a riordinare le particelle pre-composte in una nuova maniera all'interno del contesto della composizione. Io posso manipolare la mia composizione in modo molto leggero, quasi inavvertibile, oppure posso decidere di fare dei gesti più drammatici. Posso campionare in tempo reale la composizione e immediatamente suonare il materiale manipolato con loop, frammentazioni, distorsioni, trasposizioni, letture al contrario. Posso aggiungere degli echi in un punto e dei suoni concreti in un altro e così via... Talvolta quando arrivo a creare qualcosa di molto interessante nei processi in tempo reale posso decidere di fare una dissolvenza dalla composizione originale e restare più a lungo nella nuova texture.

Che dire a proposito delle "regole" della composizione, dobbiamo seguirle strettamente o piuttosto dovremmo fidarci delle nostre orecchie? Lasciatemi citare un esempio storico. Una volta un mio amico mi ha raccontato una storia a proposito di come Karlheinz Stockhausen interpretava la sua musica. Gottfried Michael Koenig ha lavorato per molti anni nello studio elettronico del West Deutsche Rundfunk come assistente di diversi compositori tra cui Stockhausen. Koenig ha detto al mio amico che anche nelle sue composizioni più rigorose del primo periodo (Studies, Gesang der Jünglinge e Kontakte) Stockhausen non restava mai strettamente fedele al testo quando suonava queste composizioni. Non seguiva le indicazioni segnate sulla partitura e invece seguiva le sue orecchie e si prendeva una libertà creativa al momento del concerto. Si lasciava sempre uno spazio per poter interpretare. L'industria musicale ha creato dei nuovi strumenti per la performance live dei Dj e degli artisti di techno e questi sono strumenti meravigliosi anche per i musicisti acusmatici. Il fatto è che le composizioni elettroniche stanno diventando sempre più plastiche in questi anni. La composizione può ancora essere acusmatica ma le particelle non sono messe insieme in modo tradizionale. Tutte queste particelle possono stare nel disco rigido del computer e da lì possiamo prendere degli elementi in tempo reale e possiamo fare tutte le manipolazioni e gli arrangiamenti necessari in tempo reale durante la performance. Questo tipo di composizione è simile a un puzzle . Il pezzo ha la sua identità precomposta e il performer conosce tutti i pezzi del puzzle ma può prendere in tempo reale nel momento nel quale interpreta il pezzo le decisioni definitive, E' ancora musica acusmatica, musica composta ma la differenza sta nel fatto che questo tipo di composizione non è un oggetto stabile è più simile ad un oggetto "liquido"

A partire dai primi anni 90 ho creato diverse composizioni elettroniche per opere d'arte legate ai media (video sperimentali e installazione multimediali in gallerie d'arte) prima di scrivere queste composizioni ho studiato e analizzato il modo nel quale gli elementi visivi aggiungono un elemento addizionale che può dare alla composizione musicale una dimensione inaspettata. Sono molto interessato a queste possibilità. Ho iniziato a collaborare con artisti legati al video e al mondo dei media e sono soddisfatto di quello che accadeva al mio lavoro in ambito visuale. Ma per scopi di puro ascolto , per utilizzarli durante i concerti , ho creato delle versioni acusmatiche di queste composizioni originarimente concepite per stare insieme ad altri media. Quando ascoltate queste composizioni in concerto, senza altri stimoli il punto di partenza è nascosto e liberato da legami e tracce con il visivo. Potete concentrarvi solo sul suono e sull'evoluzione drammatica dell'opera, e la mente è più aperta per fare delle interpretazioni . Nel 1995 ho composto Lux in tenebris, la composizione fu eseguita per la prima volta in una galleria d'arte, senza relazioni con altre opere che stavano nella stessa stanza. Ma alla fine la scelta di fare delle connessioni dipende dall'ascoltatore. L'ascoltatore può decidere di chiudere gli occhi e concentrarsi solo sull'ascolto della musica, o scegliere di guardare l'opera visiva mentre ascolta il pezzo. Così la stessa composizione può trovarsi in un ruolo molto diverso in una galleria e in un concerto.

Ho suonato in molti posti diversi e abbastanza spesso anche in club di techno. In questo contesto ho voluto usare le attrezzature che i club mi possono offrire. Di solito suono dove sono montati i banchi dei Dj quindi sul palco o alle spalle del pubblico. Talvolta uso nelle mie performance qualche elemento extra-musicale: luci o fumo (con la macchina del fumo). Quasi sempre lascio completa libertà ,alla persona che si occupa delle luci, di interpretare e supportare la mia musica con questi elementi non-musicali. Alle prove io suono le mie composizioni e durante questo tempo chi si occupa delle luci può programmare gli apparechi che gestiscono l'automazione delle luci, può programmare i ritmi, i colori e i cambi di luce che avverranno durante la performance. Tutte le sale da concerto sono diverse. E' sempre bello poter suonare in posti dove esiste un buon sistema per la diffusione del suono ma purtroppo la qualità hi-fi non la si raggiunge sempre. Abbastanza spesso musei e gallerei organizzano dei concerti di musica elettronica e questa è in generale una buona cosa. Di solito però questi sono luoghi pensati per le arti visive e in questo tipo di spazio il suono può risultare molto difficile da gestire, alcune frequenze possono essere sorprendentemente spiacevoli. Non è importante quanto sia buona la qualità del sistema di diffusione se lo spazio non è adatto per fare un concerto. L'acustica del luogo può diventare un problema serio ma la mia filosofia è che è meglio suonare che non suonare. Cerco quindi di fare il possibile anche se lo spazio non è soddisfacente dal punto di vista acustico. La questione principale è come eliminare le frequenze negative. E' però sempre utile ricordarsi i due diversi aspetti della composizione musicale: 1) il livello astratto, il mondo ideale dell'opera (interno alla composizione) 2) il livello concreto (la vita reale), la situazione di performance (il mondo esterno alla composizione) Nel 2003 ho aiutato Phil Niblock in un suo concerto. Prima della prova ero abbastanza nervoso perché lui è abbastanza conosciuto per la sua esigenza nei confronti della qualità del suono. Ma è stato bello vedere come fosse invece simpatico e rilassato e non ho ascoltato reclami legati all'acustica della sala, o al sistema affittato di amplificazione o in merito all'attrezzatura video che ha smesso di funzionare durante le prove (e alla fine ho prestato io il mio videoregistratore personale). Tre ore di concerto sono andate bene, il pubblico era felice e anche l'artista...Se la musica è buona, sale imperfette dal punto di vista acustico e piccoli altri difetti non la possono distruggere. Ho fatto alcuni concerti dove ho suonato musica a un volume estremamente basso, In questi concerti il pubblico stava molto calmo e si concentrava sull'ascolto più profondamente per riuscire a sentire i vari dettagli della musica. Questo tipo di situazione può essere noioso per alcuni ma di solito le relazioni alla fine del concerto erano positive.
In altri concerti ho suonato musica a volume molto forte. Tutto dipende dal contesto, e da quello che devo suonare. Come nella vita reale c'è spazio per suoni delicati ma anche per suoni forti.


Link:

Petri Kuljuntausta



Riflessioni sull'esecuzione di musica acusmatica


Giovanni Cospito


    Nella pratica della preparazione, dell'allestimento e della esecuzione in concerto di musica acusmatica, credo che i momenti principali di lavoro siano: la lettura del testo compositivo, la ricognizione dello spazio in cui avverrà l'esecuzione, il disegno dello strumento d'esecuzione, l'interfaccia esecutiva che si decide di adottare. Se prescindiamo dal testo compositivo, che richiede una riflessione a sè in quanto sostanzialmente costituito da un supporto di memoria sonora che richiede proprie strategie d'analisi e propri modelli di rappresentazione, il lavoro successivo consiste di una serie concreta di adattamenti che condizionano il risultato finale dell'esecuzione, sia che si consideri quest'ultima una semplice messa in rilievo degli elementi presenti nel testo, sia che la si consideri come un'autonoma elaborazione (interpretazione) e creazione di valore aggiunto sul testo e nel rispetto del testo. In breve, si tratta di adattare lo strumento rispetto allo spazio, adattare i risultati della lettura interpretativa del testo rispetto allo strumento ed allo spazio, adattare e scegliere il modello di controllo esecutivo rispetto al testo, allo strumento ed allo spazio. Questo complesso e articolato processo, insieme alla lettura interpretativa del testo, rappresentano il territorio in cui agisce l'esecutore. Questo territorio d'azione è stato spesso semplificato mettendo in rilievo ed elencando un certo numero di parametri di base sui quali l'esecuzione viene di volta in volta costruita, per esempio : le variazioni di dinamica e le proiezioni spaziali nei termini di livelli di profondità e mobilità dei suoni. Credo che strutturalmente, nei termini in cui si è anche storicamente definita la pratica esecutiva di musica acusmatica, l'intervento dell'esecutore-interprete sia molto più complesso e incisivo e si tratta proprio di una condizione strutturale se gli elementi del processo di preparazione e allestimento di una esecuzione sono quelli elencati in precedenza. Vanno quindi, in qualche modo analizzati gli ambiti specifici e le connessioni fra gli elementi della catena testo-spazio-strumento-interfaccia per l'esecuzione-interpretazione in concerto di musica acusmatica. Vorrei comunque premettere che la qualità esecutiva di tutta la musica che passa attraverso strumenti elettroacustici, i modelli di diffusione sonora, gli stessi modelli di fruizione, costituiscono oggi un punto nevralgico non solo per la produzione di musica acusmatica, ma anche per il pensiero, la ricerca e la produzione musicale in generale. Il fattore induttivo determinante che ha portato agli attuali modelli acusmatici di diffusione per la musica su supporto, è stata la ricerca di compensazione in senso sonoro, di una deprivazione visiva gesto-suono tipica della musica su supporto, tenendo conto del fatto che l'associazione gesto-suono è tutt'ora fortemente radicata nella nostra tradizione di cultura dell'ascolto. Il referente visivo viene tendenzialmente sostituito-compensato con un sistema sonoro che idealmente ricostruisce una geografia omnidirezionale dell'ascolto mettendo in risalto una specificità della percezione uditiva rispetto a quella visiva, che è la compresenza omnidirezionale dei messaggi sonori. Questa specifica mi permette di dare un senso strutturale a tutti gli elementi del modello di catena precedentemente proposto: testo-spazio-strumento-interfaccia. Le prime considerazioni di un lavoro esecutivo-interpretativo sulla musica acusmatica, riguardano il testo: la sua natura di suoni registrati su un supporto e missati su un certo numero di tracce, le strategie di lettura dello stesso testo, la sua decodifica in termini di elementi, parti e senso, la sua eventuale rappresentazione. Non si tratta di una analisi documentativa o ricostruzione documentata dei processi compositivi che l'autore dell'opera ha usato, ma di una attenta analisi basata sull'evidenza dell'ascolto perché è fondamentalmente all'ascolto che si rivolge il lavoro esecutivo. Questa analisi o lettura d'ascolto è il primo territorio di intervento interpretativo dell'esecutore che arriva ad avere margini molto ampi in opere con forti densità sonore, dove gli elementi rilevati dipendono dalla focalizzazione percettiva soggettiva: mi riferisco, per esempio, ad esercizi d'analisi d'ascolto su opere quali "Continuo" di B. Maderna o "Antony " di D. Wessell. Questi apparenti margini di arbitrarietà non inficiano l'opera perché in qualsiasi caso gli elementi rilevati le appartengono e ne rivelano i vari punti di vista, come se avessimo a che fare con opere scultoree percorse secondo traettorie diverse, nella dimensione spazio-tempo. Ancora maggiore sono i margini d'azione esecutiva arbitraria, se ci riferiamo alla natura dello strumento che adottiamo ed alle proiezioni spaziali dei suoni. Spesso si giustifica la sostanziale arbitrarietà delle scelte, con motivazioni di tipo funzionale : le proiezioni dei suoni su un sistema di altoparlanti con risposte in frequenza, direzionalità, diffusività e posizioni diverse servono a meglio rilevare gli elementi e i processi del testo. Mi sembra molto più legittimo parlare di una pratica e prassi esecutiva con un proprio esercizio autonomo che si giustifica in rapporto ai suoi autonomi risultati estetici nel rispetto sostanziale del testo. Sarebbe ben altro richiedere esecuzioni rigorosamente filologiche con tutte le problematiche tecnologiche, tecniche e storico-estetiche che queste comporterebbero. La nozione stessa di interprete o interpretazione di un'opera musicale, porta con sè l'idea che la stessa opera è stata trasmessa secondo codici non completamente espliciti rispetto al suo stesso contenuto. I contenuti pur intrinsecamente appartenenti alla sua forma, vanno rilevati al di là dei limiti del suoi codici di trasmissione. Credo che questi meccanismi siano in generale estranei alle pratiche delle arti su supporto, dove il codice coincide con l'opera stessa. Questo a conferma dell'idea che le esecuzioni di musica elettroacustica su sistemi acusmatici, vanno affrontate in ragione di una propria autonomia di pratica artistica, estetica e fruitiva dove la creatività viene esercitata e stimolata a partire da un testo preesistente.

Link:




ERIC LEONARDSON


Ho incontrato Eric a Chicago mentre ero là a suonare. Ha fatto parte della mia Orchestra, e mi ha dato più di una mano ospitandomi, prestandomi una batteria, scarrozzandomi qua e là per suonare, presentandomi ad altri musicisti ed audioartisti, portandomi alle feste e al bowling e mostrandomi lo strumento che ha costruito da solo, la Springboard. Persona tanto seria sul lavoro quanto divertente nel privato, ha accettato di rispondere a questa serie di domande che cercavano di scavare nei suoi pensieri lasciandolo libero di improvvisare. Io sono felice che l'abbia fatto, e vi propongo la traduzione di questa chiacchierata.

J: Un'introduzione breve e allegra su te e la tua musica.

E: Sono un artista che costruisce e usa suoni che possono essere recepiti come arte, musica o rumore tra le altre cose. Ho iniziato a farlo più di venti anni fa, quando ero uno studente di arte visuale. Penso che la connessione tra la mia attività odierna, relativamente al mio passato come artista visuale, sia basata sul mio interesse nei suoni registrati come materiale per fare arte, per fare arte viva invece di oggetti d'arte statici. Adesso lavoro un sacco sia come improvvisatore che come compositore elettroacustico o acusmatico [acousmatic, ndT], radio-artista e sound designer. Ho anche descritto me stesso come inventore di strumenti, ma non ho molte invenzioni strumentali da mostrarti, solo la Springboard il mio studio personale. Questi sono i miei strumenti.

J: Cos'è un compositore acusmatico??

E: Come la musica concreta, una composizione acusmatica esiste solamente in forma registrata piuttosto che in notazione. Non ha bisogno di essere eseguita dal vivo perché il compositore la completa in studio usando registrazioni di suoni, e al giorno d'oggi anche tecnologie legate ai computer. Necessita solo di essere suonata attraverso degli altoparlanti. Ho sentito per la prima volta questo termine usato dai compositori elettroacustici canadesi.

J: Un'altra descrizione profonda e interessante della tua Springboard, se puoi.

E: Volevo creare suoni nuovi e inusuali che non fossero puramente elettronici o concreti. Sono arrivato alle molle perché erano usate da tempo per creare riverberi artificiali, ed erano sensibili alle vibrazioni. La Springboard inizia semplicemente come un modo per amplificare con un microfono a contatto una molla suonata con l'archetto. Ho comprato due grandi viti con occhielli e una molla in una mesticheria. La tavola era semplicemente un pezzo di legno di scarto che stava in giro nel mio studio. Il microfono a contatto è stato comprato in un negozio di avanzi per pochi dollari, e amplifica la tavola a un livello veramente alto. Questo mi ha portato ad attaccare altri oggetti. Ero affascinato dai suoi suoni e ho continuato a lavorarci sopra, modificandola e esibendomi dal vivo. Non avevo programmato di farci uno strumento, ma è come si è evoluta la cosa.

J: Quanto pensi che i microfoni a contatto abbiano influenzato la produzione di tutti questi nuovi strumenti costruiti con pezzi di scarto? I miei amici Cock ESP attualmente suonano concerti usando soltanto un paio di microfoni a contatto inseriti in 6 pedali di distorsione, cosa che gli permette di avere un'enorme quantità di rumore, possono spostarsi e recitare, e (non ultimo) girare il mondo con un'apparecchiatura molto piccola e leggera.

E: Bè, le deboli vibrazioni di molti oggetti solidi non sarebbero udibili senza un microfono a contatto. Permette di avere così tanti più materiali e oggetti disponibili per un'esplorazione sonora, siano essi scarti o no. Per me è interessante perché questo fatto allarga la definizione di uno strumento. Quello che fanno i tuoi amici Cock ESP mi fa pensare non solo a usare oggetti già pronti disponibili e materiali specifici del luogo della performance, ma anche ad amplificare il luogo della performance stesso: il palco, i pavimenti, le finestre… Se pensi a una stanza come a un risuonatore acustico, come un'improvvisazione libera, ogni concerto sarà unico e determinato da quel luogo. E così la stanza può essere usata come uno strumento temporaneo. Dopo aver suonato, talvolta le persone mi chiedono perché ho fatto questa "cosa". Per me è una domanda strana, perché immagino, o voglio sperare, che i suoi suoni e il modo in cui li uso rendano il motivo autoevidente. Ma suppongo che la domanda meriti di essere risposta perché uso spazzatura e cose veramente banali e insignificanti per produrre suoni che toccano la gente in modi inattesi. Se uno non ha familiarità con la storia dell'arte dell'avanguardia e di quella non occidentale, o con gli strumenti "popolari", gli sembrerà assurdo, forse persino minaccioso. O forse le persone si domandano perché mi piacciano questi suoni, o perché li suoni nel modo in cui lo faccio. So di persone sorprese come lo sono stato io la prima volta: come può una cosa così comune e brutta creare suoni così intriganti? Io spiego di solito che i percussionisti hanno usato oggetti quotidiani per trarne suoni interessanti per un lungo periodo. Generalmente non c'è tempo per mettersi a discutere sulle implicazioni filosofiche. Richiede tecnica e pratica. Ho suonato la batteria molto tempo fa e sto suonando la Springboard da 6 anni. Così ho imparato cosa mi permettono di fare gli oggetti o i materiali che ho selezionato per la Springboard. Più un oggetto produce potenziale più io ci lavorerò. E' un processo fisico, non diverso dall'apprendere come raggiungere una "bella voce" o una certa tecnica con uno strumento tradizionale, tranne che questi oggetti non sono progettati per la musica. Imparare ad usarla è stato all'inizio un lungo processo di prove ed errori. Questo significa che ho dovuto rapportarmici nei suoi propri termini: imparare tecniche speciali; come controllare un archetto da violino e successivamente da violoncello. Ho modificato delle spazzole per avere il giusto suono percussivo, e ho imparato ad usare le mie dita per tamburellarci sopra. E quando ho assimilato questi materiali e tecniche, ho aggiunto nuovi oggetti, riposizionato altri, rotti alcuni e fatto a meno di altri. Quindi nei primi tempi la Springboard è cambiata molto. Sto divagando troppo? Se non ti dispiace continuo. Penso che quest'esperienza mi riconnetta al piacere fisico di disegnare, cosa che ho interrotto molto tempo fa. Ho imparato una nuova parola l'altro giorno, "haptic", che significa comprendere o comunicare col tatto piuttosto che con la vista, o con qualche altro senso. Posso sentire la penna e la sua pressione sulla carta attraverso la mia mano. E' la stessa cosa con uno strumento acustico. Le azioni della tua mano o qualsiasi parte tu usi per suonare, ti fa vibrare immediatamente e tu puoi sentire il materiale che risponde. Non è soltanto nelle orecchie. Potresti dire che la mia esperienza con la Springboard mi ha insegnato come tenere qualcosa nella mia mano e sentire il suo carattere sonoro generale.

J: Che influenza ha uno strumento autocostruito sul tuo modo di suonare? E pensi che qualcuno possa suonare uno strumento costruito da un'altra persona con la stessa comprensione profonda? (Più o meno sto chiedendo: qual è la relazione tra il costruttore e il musicista, se non è la stessa persona?)

E: La Springboard ha decisamente influenzato il mio modo di suonare. Non posso suonarla come un tamburo. Se colpisco la Springboard con una bacchetta da batteria lei produce un suono molto forte [loud, ndT] e non interessante. Diversamente dagli strumenti elettronici che usavo prima della sua invenzione, non ha tastiere, bottoni, display a cristalli liquidi, e recentemente, solo una manopola invece di dozzine. In altre parole, sono stato sgravato dalle costrizioni delle interfacce degli strumenti musicali standardizzati, che ne hanno bisogno per essere programmati, complicati percorsi del segnale, accordature eccetera. Non c'era un repertorio standard a influenzarmi. La Springboard non ha storia e non era preziosa. Così non dovevo preoccuparmi se facevo un suono sbagliato o danneggiavo lo strumento.

J: Questo per me è interessante. Ho visto nella tua collezione di dischi un album di Hans Reichel, conosciuto nel mondo come l'inventore del daxophone, in cui suonava un'operetta per solo daxophone. Ho molti altri suoi dischi, e quello è stato strano da ascoltare perché ha cercato di riportare i suoni del suo strumento indietro, verso la musica "vecchia". Io penso che un nuovo strumento dovrebbe essere esplorato per la sua possibilità di creare nuove musiche. (Che ne pensi?) (Stavo anche pensando alle prime performance col theremin, cercando di raggiungere la perfetta intonazione per suonare melodie della musica classica eccetera.)

E: Non penso che ci sia necessariamente qualcosa di sbagliato con le cose vecchie, ma sono d'accordo con te. Ho costruito un nuovo strumento per esplorare suoni che erano nuovi per me. E questi suoni mi hanno permesso di fare un tipo di musica che non avevo mai fatto prima in termini della sua forma, struttura, timbri, ritmi eccetera. Ma non sono nemmeno un purista, e quindi dell'operetta di Hans Reichel apprezzo l'humour perverso, e sono sicuro che lui è completamente conscio della sua ironia. Quando ascolti e guardi quei nastri di Theremin e Clara Rockmore che suonano musica classica sul theremin è kitsch, puro e semplice. La Springboard ha anche cambiato il mio modo di suonare per l'ovvio motivo che questi suoni mi hanno messo di fronte a sfide musicali, compositive ed estetiche. Alcune erano più facili di altre. Questi suoni ti fanno essere più cosciente delle tue inclinazioni e gusti, e anche delle tue abilità fisiche. Ho passato anni a lavorare con queste cose. Penso che questo sia il motivo per cui non ho costruito un sacco di strumenti. Già solo questo ha così tanto che ho ancora bisogno di controllare. Il che porta ad un punto importante. Non ho costruito la Springboard con un suono predeterminato nella mia mente, come una particolare scala o intonazione, o per migliorare dei progetti preesistenti. Ho solo voluto scoprire come suonava una molla amplificata. In effetti, non intendevo fare uno strumento. E' solo come si è evoluto. Riguardo la seconda parte della tua domanda, se il costruttore è anche il suonatore lui o lei avranno sempre una conoscenza più intima delle possibilità sonore dello strumento. Il costruttore ha questo vantaggio inizialmente, ma questo non significa che qualcun altro non possa imparare quali sono queste possibilità, e persino sorpassare la conoscenza del costruttore. Dipende tutto da quanto tempo uno vuole spendere suonando lo strumento. Comunque, fare il tuo strumento dona un più profondo senso di soddisfazione che suonare uno che è fatto da qualcun altro, specialmente uno prodotto in serie. E quindi penso che è più vero che il costruttore è anche il miglior suonatore dello strumento.

J: La mentalità e l'attitudine improvvisativa normalmente permette a persone molto diverse di lavorare insieme. Pensi che questo "linguaggio" possa essere considerato adesso troppo vecchio o esaurito?

E: Se lo pensi come un linguaggio e non come uno stile, l'improvvisazione non può esaurirsi. E' elementare per le azioni umane. Attitudini e stili cambieranno sempre, e cambiano per seguire i bisogni della gente. La gente invecchia, e le loro idee diventano esauste, ma anche le idee e le persone si rinnovano. Il mio amico Jack Wright dice che pensa l'improvvisazione come una relazione in suoni tra persone e ambiente circostante. Io comprendo la parte dell'equazione data dalle persone, e sono intrigato dalla parte dell'ambiente circostante. Potrei aggiungere che l'improvvisazione è un modo di lavorare, un metodo. Per me è sinonimo di processo creativo, sia esso applicato all'arte o ad ogni altra forma di attività umana. Jack dice anche che siamo ben connessi nella maggior parte di questo suonare, e che quando non lo siamo lo sappiamo. Questo per me è vero. Può essere deludente quando non sono "in connessione", perché questa relazione dipende dalla fiducia sia nei miei compagni di improvvisazione che in me. Quando improvviso con persone con cui non ho mai suonato prima, in una performance pubblica, sento di prendermi un grande rischio. E' un test per le tue abilità di capire il temperamento o lo stile di un'altra persona in un attimo. Devo essere un artista e un critico senza pensare. Devo rispondere ai miei errori o interpretazioni sbagliate immediatamente, senza rammarico o riflessione, e andare avanti. L'improvvisazione riguarda il fare senza tempo per pensare. Sto ricevendo e trasmettendo istantaneamente. La mia azione è fisica mentre il mio ascolto e interpretazione avvengono in un livello precognitivo. Potrei dire di più, ma forse sto diventando pedante adesso.

J: C'è qualche tipo di suono che senti più adeguato per dialogare con la Springboard? Voglio dire, voce, chitarra, batteria, synth… o dipende solo da chi è l'altra persona?

E: Ho suonato con ogni tipo di strumentista, tranne con un pianista, e non penso che ci sia un suono, acustico o elettronico, con cui la Springboard non possa lavorare. La mia relazione con un musicista amico fa la differenza. Il mio strumento può fare cose che gli strumenti tradizionali non possono fare e viceversa. Ha le sue limitazioni e i suoi pregi unici. Quindi è sempre importante che chiunque suoni con me ascolti profondamente e apertamente le nostre affinità e differenze. Questo si può applicare non solo alle caratteristiche fisiche dei suoni stessi, ma anche al modo in cui le stiamo usando. Alcuni improvvisatori sono interessati ad una interazione musicale modellata o addirittura mimante un dialogo verbale, altri non lo sono affatto.


Jacopo Andreini

    Registrazioni in cui l'uomo fa solo da spettatore, o quasi, in cui i suoni reali (soprattutto acqua) vengono lasciati fluire — perdonate l'evidenza del verbo — coi loro tempi, sovrapponendosi ad altri amplificati e/o processati elettronicamente. Vasi di ceramica (di Creta e da olive proveniente dalla Turchia, se per voi hanno un suono diverso), pezzi di metallo, pioggia, aeroplani, mosche, ronzoni, tutto preso e stratificato con ritmi da colonna sonora, per un ascolto sicuramente coinvolgente, ma imbastardito (male, per i miei gusti, poi chissà…) da sciabordate di synth armonizzato. Si sente pesante la mano della storia, della tradizione e della conservazione della musica elettroacustica e concreta, poche storie, quindi gli appassionati adoreranno questo disco, presentato in una veste ricercata e dal sound perfetto, come se si trattasse di storicizzare il compositore (e magari questo è l'intento) che propone materiali risalenti a quasi venti anni fa come all'anno scorso dal suono e dalla coerenza invidiabile (salvo Sea Flight che esagera con la violenza e i synth, e inserisce una cornamusa sul finale, e fa assomigliare il tutto a una specie di pezzo con tempesta e quiete successiva a rappacificare gli animi). Oppure dalla monotematicità deprecabile (salvo l'altra parte del brano Tides, Pools and Currents, che suona possente e strutturato e quindi "giovanile", anche se dubito che questa famiglia di musicisti/compositori ami sentirsi "giovane"). I bicchieri ogni giorno di più sono a metà, a voi stabilire se pieni o vuoti. (3 1/2)



L'area MicaMoca



Una collaborazione inedita di tre delle più importanti personalità creative delle scena musicale ultraminimal - Ryoji Ikeda, Carsten Nicolai e Mika Vainio - ha inaugurato, con installazioni site specific di luci e suoni, il progetto di riqualificazione radicale dell'area sede storica della fabbrica di macchine per caffè Faema, nel quartiere Lambrate a Milano. L'area MicaMoca, una superficie di 20.000 mq in cui si alternano volumi e spazi aperti, diventerà un luogo dove coesisteranno attività diverse.
I suoi spazi verranno infatti occupati da case editrici, showroom di industrie di arredamento, studi professionali, gallerie d'arte, librerie e un ristorante. Le aree comuni, in parte destinate a verde, ospiteranno opere permanenti di artisti contemporanei appositamente progettate per Micamoca.
La sensibilità e apertura verso i più attuali movimenti dell'arte contemporanea internazionale è testimoniata dalla mostra d'inaugurazione. Ryoji Ikeda, Carsten Nicolai (dj Noto) e Mika Vainio (Pan Sonic) sono dj's che provengono dalla scena musicale post-techno e appartengono alla rave e club culture.
Img 004 La loro ricerca musicale è accomunata da un progressivo allontanamento dalla matrice techno per arrivare a un ultraminimalismo elettronico, a proposito del quale si è parlato anche di post-music.
La progressiva scarnificazione a cui sottopongono il suono, che costituisce un'esperienza percettiva contemporaneamente al limite dell'udibilità e di grande intensità sonosomestetica (tutto il corpo è orecchio), porta la loro musica a contatto con il suo altro, la non-musica, secondo suggestioni di Cage. Quindi il silenzio, ma anche la luce, lo spazio. La musica elettronica
acusmatica esce dai clubs, diventa non-performativa e crea un design sonoro e luminoso che trova spazio in ambienti museali. La sound art è stato il tema di alcune importanti mostre svoltesi nel 2000, a cui hanno preso parte con varie collaborazioni Ikeda, Noto e Vainio: Sound Art- Sound as Media presso l'ICC di Tokio, Audible Light presso il Museum of Modern Art di Oxford, Sonic Boom presso la Haywaed Gallery a Londra. Fuorviante ci sembra quindi l'idea curatoriale (Luca Cerizza, Daniela Cascella) che dà il titolo alla mostra di MicaMoca riferendosi a una delle
prime composizioni elettroniche di Luciano Berio, Perspectives (1957). Img 005 Ci sembra un'operazione culturale che crea confusione accostare esiti artistici che appartengono all'area minimalista, concettuale, zen e si richiamano a
McLuhan o a Buckminster Fuller (il codice è il messaggio), alle ricerche di musica elettronica di Berio, Maderna e Nono che portarono alla fondazione dello Studio di Fonologia della Rai di Corso Sempione. Inoltre gli interventi realizzati a MicaMoca non hanno una complessità architettonica, ma sono afferenti piuttosto al design (sound design, light design, landscape design, web design) e alla ambient art e ricordano piuttosto certe tematiche del World Soundscape Project di Robert Murray Shafer.
Ben più appropriato, circostanziato e rigoroso, era invece ad esempio il progetto del musicista e scrittore David Toop, curatore di Sonic Boom, autore del testo "Ocean of sound", che individua nella crisi della musica techno il terreno da cui nascono queste esperienze di sound art, e paragona l'attività di curatore di mostre a quella di campionatura e riconfigurazione di materiale esistente tipica del djing, secondo un'estetica pienamente postmoderna.
Per MicaMoca Carsten Nicolai ha realizzato due interventi. Il primo è un lungo murale di circa 32 metri di lunghezza e 4 di altezza dove le rappresentazioni grafiche di tre onde sinusoidali di frequenze diverse si intersecano ritmicamente. E' chiaramente un intervento minimal concettuale che evoca suggestivamente almeno due momenti della storia delle tecnologie sonore, in cui il suono è stato tradotto in una rappresentazione grafica: l'invenzione del fonografo a cilindri di Thomas Edison e l'invenzione della modulazione di frequenza, fondamentalmente ad opera di John Chowning, idea che sta alla base del sintetizzatore: la produzione di onde sinusoidali, cioè prive di armonici, permette di comporre il suono e di creare timbri inediti. Il secondo intervento è una "stanza sospesa" a cui si giunge dopo un percorso ascensionale, che ha un carattere preparatorio spirituale. Nella stanza un'installazione di luci e suoni, Lichtsinus, indaga le possibilità di combinazione che derivano da un semplice intervallo sonoro sincronizzato con due luci che si accendo e spengono. E' una riflessione sulla natura binaria del digitale che da una semplice combinazione 01, acceso-spento, apre un'infinità di possibili varianti. Il digitale è anche la riduzione a identità dell'eterogeneo, dell'impulso sonoro e di quello luminoso.
Ikeda ha creato Spectra: il pubblico è invitato a togliersi le scarpe per percorrere un lungo corridoio smaltato di bianco. Il tragitto è scandito dai suoni provenienti da sei altoparlanti posti sulla parete di sinistra e conduce a una stanza interamente bianca inondata da una luce accecante e da un suono continuo. Jim O'Rourke ha così commentato l'ultimo album di Ikeda :Matrix: "fucking brillant". Mika Vainio ha posizionato tre grandi orologi a lancette appesi a una parete bianca. Il suono prodotto dalle lancette dei minuti è amplificato e processato in modo da creare un'onda di suoni bassi e leggermente sfasati che riempe e svuota lo spazio.

Girolamo De Simone, classe 1964, compositore e musicologo, è considerato uno degli esponenti di rilievo delle nuove avanguardie europee. Il suo percorso artistico si associa a quello di Eugenio Fels, con il quale ha studiato pianoforte, Riccardo Risaliti e lo scomparso Luciano Cilio, uno dei più interessanti musicisti degli anni Settanta. Affiancando ai convenzionali strumenti musicali l'uso di nuove tecnologie, dal computer alla elettroacustica, elabora un nuovo e personale linguaggio di sperimentazione. All'attività di interprete, con recital in Italia e all'estero, De Simone affianca quella di compositore e teorico delle musiche di frontiera, pubblicando libri e saggi, e fondando 1994, con un gruppo di critici e compositori di rilievo nazionale, la rivista di musiche contemporanee "Konsequenz", che gode del patrocinio del ministero dei Beni e le Attività culturali. Alla rivista si affianca "Konsequenz project", per la produzione di dischi, concerti ed eventi multimediali. Porta la sua firma la colonna sonora del film "Guerra" di Pippo Delbono, vincitore nel 2004 del David di Donatello.

Domanda. Qual è lo spazio per i nuovi linguaggi musicali a Napoli e in Campania?
Risposta. La nozione di "concerto pubblico" mi pare profondamente in crisi, e molto critica anche qui a Napoli. Non a caso la progettazione di nuove strutture per la musica - penso all' Auditorium della Musica di Roma, dove ho suonato a dicembre, per Musica Experimento - o la sonorizzazione di luoghi non pensati per la musica, ma che dalla musica possono prendere in prestito un significato ulteriore, non convenzionale, sta avendo la meglio sulle programmazioni tradizionali dei teatri d'opera, francamente datate. Sono molto di moda i "concerti a tema", dove si propone un programma legato ad una singola progettualità. O quelli che vengono proposti in luoghi inusuali, ad esempio giardini.
D. Esiste, quindi, un nuovo modo di porsi nei confronti della musica contemporanea?
R. Un'esperienza interessante viene dall'acusmatica, vale a dire tutta quella musica di cui non si vede la fonte di provenienza: quella dei supermercati, dei megastore, di certe aziende che la usano, come si faceva con le celebri mucche di Baricco, per aumentare la produttività e il buon umore. Insomma una musica-da-caffè: svolge la medesima funzione di depistamento, straniamento, nuova direzionalità di senso. Moltissima produzione di frontiera è pensata per finalità non concertistiche o in generale non convenzionali. Se penso, ad esempio, alla musica di Ludovico Einaudi, che sta avendo molto successo, si tratta di una musica "radiogenica", ideata apposta per "funzionare" quando viene trasmessa in radio. Dal può invece risultare noiosa.
D. Le colonne sonore possono essere emblematiche di questo rapporto tra musica, spazio e arti visive?
R. Molte colonne sonore utilizzano un codice scritto (e pubblicato) che è nato al tempo del cinema muto, dall'esigenza di accompagnare la proiezione e "suggerire", istigare, provocare reazioni nel pubblico: si possono pilotare pianto, ilarità, malinconia. Personalmente ho seguito una strada differente, arrivando a comporre una "musica per immagini'" sorta di metacategoria che allude alle immagini interiori, dalle quali promanano poi quelle visive. Alcuni di questi miei brani sono stati utilizzati per il film "Guerra" di Pippo Delbono, che ha vinto il David di Donatello. Una ulteriore frontiera è rappresentata dalla Net art, inventata da Pietro Grossi negli anni Ottanta che la chiamò Home art per la sua attitudine "domestica". Oggi può usare modeste basi Midi e realizzare una piccola opera d'arte visualizzabile solo attraverso Internet, dalla effimera durata di un anno: quanto vale il pagamento di un dominio ad hoc.
D. Dove si sperimenta, a Napoli e in Campania, il linguaggio nusicale?
R. Non esiste un luogo deputato alla ricerca tecnologica o di nuove forme musicali. A Napoli l'Istituto universitaro Suor Orsola Benincasa mi ha affidato il laboratorio sulla Sperimentazione musicale nella scuola, attuando gli obiettivi della legge 124/1999. Se però alludiamo alla nozione di sperimentale come ad un qualcosa di nuovo, di tecnologicamente o esteticamente agguerrito, allora bisogna ammettere che nin Italia la situazione è piuttosto deludente. Quanto è riuscito in Francia con l'Ircam di Pierre Boulez o in alcune università americane, da noi c'è da registrare l'esperienza dello Studio di Fonologia di Milano, con Luciano Berio, Bruno Maderna e Pietro Grossi, il decano dell'elettronica italiana, che attivò la prima cattedra di elettronica nei conservatori. Oggi questi corsi sono tenuti da docenti bravi e ascoltati anche all'estero, come Elio Martusciello e Agostino Di Scipio.
D. Come spiega la scarsa attenzione del mondo accademico verso questo tipo di sperimentazione?
R. Il luogo in cui si fa reale ricerca e reale produzione artistica, di fatto, risiede al di fuori degli spazi istituzionali, e si mostra spesso legato a percorsi individuali liberi da etichette di scuola, un processo che affonda nella prassi del fare piuttosto che del formarsi. Ciò non vuol dire che qualcosa in più possa immaginarsi nelle accademie, nei conservatori, nei luoghi della formazione istituzionale. L'attuale processo di riforma di queste strutture sembra però monopolizzare la loro attività attuale, legandone il destino ad una sorta di caos legislativo in cui si intraprende senza aver fondi e si progetta con attenzione il contenitore senza aver pensato ai contenuti. Hans Kelsen, il teorico della teoria pura del diritto, sarebbe felice di questo: strutture normative del tutto vuote, puri paradigmi.
D. Come si avvicinano i giovani a questo tipo di musica?
R. Chi vuole acquisire un linguaggio "border", di frontiera, potrebbe soltanto scegliere tra due o tre proposte annuali, che naturalmente ricadono in un calderone indifferenziato di offerta, come sta accadendo per il Maggio dei monumenti. Perciò quello che succede, e non solo qui a Napoli, è che grazie alla massificazione dei mezzi elettronici e dei software musicali, anche chi non abbia speciali competenze musicali può farsi una piccola colonna sonora dei propri filmini digitali, o realizzare una ninnananna rap per il proprio figlio, o mettere su una garage band. Proprio "Garage" si chiama l'ultimo software Macintosh che permette veramente a chiunque di comporre da sé la musica che preferisce. Del resto mentre digitiamo al computer un correttore automatico si mette di mezzo e ci scrive le parole correttamente, e chi fa una tesi di laurea non deve far altro che digitare le parole chiave in Google.
Il Bach del futuro verrà fuori dall'uso domestico del computer

Nuove forme in italia di etero genio - no ©

Img 008 "Al di là di alcuni aspetti marginali relativi alle differenti tecniche e logiche dispiegate dai diversi dispositivi tecnologici disponibili negli anni '70 (uno su tutti, il sistema analogico di ieri e quello digitale di oggi), credo che una differenza fondamentale con l'elettronica odierna la giochi l'intero paradigma tecnologico. Se da un lato si utilizzava la macchina ancora con un fare un po' ingenuo che emulava spesso procedure, tecniche, comportamenti che anni di storia avevano formalizzato nei confronti dello strumento tradizionale, dall'altro lo sviluppo tecnologico sembrava garantire possibilità infinite (penso al 'suono organizzato' di Varèse). Quindi, da una parte la macchina utilizzata come un qualsiasi altro strumento, e dall'altro la consapevolezza di avere tra le mani un meta-strumento, almeno in potenza... lo sviluppo tecnologico in breve avrebbe soddisfatto qualsiasi esigenza. La Kosmiche Musik in parte simboleggia anche questa aspettativa, il cosmo come metafora del potere che si spinge oltre l'infinito, la possibilità di viaggiare attraverso le stelle e mondi lontani, così, semplicemente... come normalmente lo si fa in auto, attraversando paesini e borghi in una tiepida Umbria primaverile. Non è proprio la stessa cosa... c'è anelito, estasi... d'accordo, è pur sempre un viaggio interstellare, ma non è più uno spazio nemico che ci tiene imprigionati sulla terra. Lo so... una specie di romanticismo (nessun senso dispregiativo) che apparteneva solo a questa particolare area di musica elettronica e non di certo alla musica elettronica 'colta' (con senso dispregiativo), ma l'intero paradigma rimaneva lo stesso. Dunque, la macchina come corpo unico, ideologia benefica e salvifica, strumento docile e misterioso. Oggi, escluso pochi illusi, una buona parte dei musicisti ha smascherato il discorso tecnocratico, fatto di pura mistificazione, provando a minare l'idolo. Corpo della macchina frammentato, parcellizzato, divorato, ognuno utilizza un piccolo pezzo, senza ideologie, ma solo per ristabilire il proprio percorso. Le piccole macchine finalmente vengono comprese nel proprio funzionamento ed utilizzate per configurare nuovi viaggi, nuove scoperte. Il numero di dispositivi elettronici usati o addirittura creati oggi dai musicisti è veramente impressionante e ovviamente altrettanto stimolante. Anche la musica vive di questa ricchezza, che si apre così ad ogni possibile orizzonte. Non si tratta più di conoscere perfettamente la macchina per fare tutto quello che si può fare, ma di imparare quelle poche cose che servono per individuare un cammino... e ricordarsi che fuori c'è il sole. La grande macchina non ci assicura il nostro controllo su di essa, ma piuttosto il suo controllo su di noi. Tutto questo è vero per le versioni più eterodosse dell'elettronica, ma nei grandi centri di ricerca l'illusione è ancora grande, anche se però qualcosa comincia già a scricchiolare. Insomma, se con la parola 'elettronica' c'eravamo abituati a pensare ad un sistema matematico ed inumano che si sarebbe sviluppato all'infinito, allora credo che siamo passati dalla musica elettronica a quella elettro-elettronica, dove l'elettricità come campo di forza ed energia (presente anche nel nostro corpo e nella nostra mente) riacquista la sua centralità. Una musica elettro-elettronica usa i suoi strumenti come un bambino usa i suoi giocattoli… per costruire il mondo con l'energia del suo corpo e della sua fantasia." (Elio Martusciello)

S'è andata formando, in Italia, una scena dalla fisionomia musicale e geografica incerta ma i cui adepti possiedono una stessa predisposizione a sperimentare - o a giocare, ché non fa molta differenza - utilizzando congegni elettronici. Tale scena va a rinverdire una tradizione che, seppur poco nutrita, ha rivestito grande importanza nel panorama musicale internazionale. Pensiamo a un movimento importante come il Futurismo, alle sperimentazioni accademiche dei vari Berio, Nono e Maderna e a un risvolto popolare come fu il progressive dei '70, con Franco Battiato in testa a tessere le fila. Senza dimenticare che MEV ha fatto base per anni nella capitale del Bel Paese, tanto da poter essere considerato un frutto di casa nostra. E senza dimenticare casi isolati come Pankow, Maurizio Bianchi, Eraldo Bernocchi, Starfuckers, Giancarlo Toniutti, Albert Mayr, Luca Miti, Francesco Michi, Gigi Masin, Mirko Sabatini e Vincenzo Vasi… che, nei loro generi, si sono comunque elevati sopra la media. Ce n'è abbastanza, insomma, per non stupirsi di quest'impennata che coinvolge un cospicuo numero di musicisti e sta facendo parlare di se ben oltre il limite dei confini nazionali. Si tratta quindi di un fenomeno che non potevamo dispensarci dall'indagare; lo abbiamo fatto montando insieme impressioni dei musicisti con nostre considerazioni, scheletrici ritratti dei protagonisti principali con una discografia di base e, consapevoli di fare cosa gradita a molti lettori, con le loro playlist (chiaramente relative al 2001). Da queste ultime risulta che per i musicisti della nuova scena elettronica italiana il disco dell'anno è "Endless Summer" di Fennesz seguito da Sagor & Swing "Orgelfarger", Oren Ambarchi "Suspension" e Lionel Marchetti "Knud - Un nom de serpent"; fra i più apprezzati ci sarebbero anche i Radiohead e i Coil, ma le segnalazioni che li riguardano non si sono concentrate su un unico disco. Buona lettura.

discrepanze

"Mi sembra che sia cambiato molto in questi ultimi anni. Soprattutto é cambiato l'approccio di molti musicisti: sembra che finalmente ci siamo accorti che esiste un mondo al di là delle Alpi con cui é obbligatorio confrontarsi, scambiare idee e materiali. Tu m', Renato Rinaldi, Domenico Sciajno, Alessandro Bosetti, Logoplasm, Andrea Belfi, Martusciello (non solo Maurizio, anche Elio, il cui lavoro, seppur meno pubblicato, é davvero eccezionale), Valerio Tricoli e tanti altri....si tratta di musicisti della mia generazione che stanno producendo ottime cose e creando un ottimo clima di collaborazione. Sinceramente sono abbastanza ottimista ...anche se non vedo in giro molte etichette." (Giuseppe Ielasi)

"Con Domenico Sciajno, dopo l'uscita del disco su Erstwhile, tra la fine del 2001 e l'inizio del 2002 abbiamo fatto una trentina di concerti in giro per il mondo, ma nessuno di questi in Italia. Le ragioni possono essere davvero tante. Scarsa cultura musicale, ma la verità é che da noi queste cose, in generale, non interessano. Soprattutto non interessa ascoltare cose diverse da quelle che si conoscono già. Scarsa cultura musicale vuol dire anche incapacità di concentrarsi sulla musica, di considerarla non solo intrattenimento, e parlo sia dei dischi che dei concerti. Come è possibile che in Italia non si riesca a suonare a bassi volumi senza essere coperti dai rumori e dalle chiacchiere? Come è possibile che centri sociali e altre organizzazioni alternative, all'estero molto attivi, siano così conservatori? Mancanza di fondi: in quasi tutti i paesi europei (non negli Stati Uniti) anche le piccole organizzazioni che si occupano di aspetti marginali della cultura hanno accesso a finanziamenti. Per noi é davvero difficile riuscire ad avere aiuti per organizzare concerti/rassegne/installazioni. Questo non significa che non si possa lavorare comunque. Negli ultimi cinque anni di concerti ne ho organizzati parecchi, e non sono assolutamente il solo ad averlo fatto. Ora però inizio a credere che non ne valga la pena. Le persone sono sempre le stesse, e il loro coinvolgimento si limita spesso all'ascolto per un paio d'ore... poi poco o niente, soprattutto nessun interesse alla collaborazione. Probabilmente siamo troppo abituati ad aspettare che le cose ci piovano in testa dall'alto..." (Giuseppe Ielasi)

È davvero il caso di essere ottimisti per quanto riguarda la nuova musica elettronica italiana? Ammesso che si possa parlare di scena, dato che fra i vari musicisti esistono enormi differenze sia per quanto riguarda la musica proposta che per quanto riguarda il loro background, l'ottimismo sembra essere giustificato e gratificato dai fatti. Si tratta di musicisti distanti fra se, sia geograficamente che per le idee, ma che hanno saputo conquistarsi un posto di rilievo nel panorama mondiale della musica elettronica piazzando i loro dischi nei cataloghi di quasi tutte le etichette più interessanti. Diciamo che un movimento così proiettato oltre i confini nazionali non si verificava dagli anni '70, cioè dai tempi del famigerato progressive italiano (l'unico altro fenomeno che siamo stati in grado di esportare in grosse quantità è stata la bella melodia). L'apertura e il riconoscimento in continua crescita che i nostri musicisti ricevono al di là delle Alpi è ulteriormente dimostrato dalla loro partecipazione alle principali manifestazioni europee, dalla tendenza a dedicare intere rassegne alla musica elettronica italiana ("The New Italian Futurists" di Londra a inizio anno e una manifestazione simile che si terrà al Batofar di Parigi a fine anno), dalla presenza di Alessandro Bosetti nel collettivo berlinese Phosphor, dai sempre più numerosi tour intrapresi all'estero dai nostri musicisti, dalle collaborazioni con nomi internazionali di rango, dalla presenza di Giuseppe Ielasi in un lavoro complesso commissionato dall'austriaca Kunst Radio, dal prossimo soundmix di Kim Cascone - per la serie "Intersect" (#7:intonarumori) su label Deadtech/Anechoic - con materiali di Fantasmagramma, Tu m', Domenico Sciajno e Mugen (www.deadtech.net/store.htm)… e, anteprima assoluta, dalla selezione ottenuta da Maurizio Martusciello con la nuova composizione Dissectio (che dovrebbe essere pubblicata da Metamkine) fra i nove finalisti di un concorso elettroacustico in Belgio. Una curiosità significativa riguarda Andrea Belfi: se una rivista schizzinosa come "The Wire" ha pubblicato una recensione del suo CD autoprodotto "Ned N° 2", per giunta positiva, vuol dire che c'è interesse nei confronti dei musicisti italiani e vuol anche dire che questi rispondono a tale interesse con una produzione di alta qualità. Mi sembrano tutti segnali ben precisi e inequivocabili. Purtroppo le cose cambiano, e diventano ben più tristi, se diamo un'occhiata in casa… Come dice Ielasi mancano le etichette, ma mancano pure i locali predisposti al solo ascolto della musica, una situazione che costringe a scegliere fra costosi teatri o ambienti non destinati esclusivamente all'ascolto e quindi problematici. Senza contare le parcelle SIAE che superano di gran lunga quelle dei musicisti stessi. Questa situazione rende estremamente difficile l'organizzazione di concerti destinati a un pubblico ristretto. E il pubblico, per muoversi, ha bisogno di abituarsi, ha bisogno di eventi che si ripetono con costanza. Non so quanta gente c'era al concerto romano di uno sconosciuto Jimi Hendrix - 30? 50 persone? - mentre oggi anche il gruppo rock più sfigato riempie una sala. Così è successo anche per i cicli pisani di musica improvvisata alla fine dei '70, non credo che la prima rassegna abbia raccolto un pubblico enorme mentre le ultime edizioni erano in grado di fare il pienone. Senza contare l'influenza dei media che hanno sempre più potere e non sono certo interessati a promuovere musiche di nicchia. Comunque l'interesse c'è e i ragazzi che si impegnano a sperimentare esprimendo e producendo qualcosa di personale anche, magari non sempre con ottimi risultati ma sicuramente con entusiasmo e volontà… Basta cercare un po' in giro per individuare una ricca sequela di nomi che non sono stati trattati più diffusamente in questo articolo ma che meritano comunque una citazione: Radio Töne (Salvatore Nicosia Tel: 3303633064), Flax Maize (flaxmaize@katamail.com), Törst (adrielia@tin.it - A. Elia Tel. 3478758479 - P. Marcellini Tel. 3687739990), LAB-303 (vdomini@yahoo.com), Xaotik Muzak (notears@softhome.net), Orchestra Vuota (sal@comserv.it), Luca Sigurtà (eelsforfun@yahoo.it), Timbuctu (pinnare@tin.it  roberto.fega@katamail.com), Fhievel (fhievel@noisysoul.com), Giulio Libonati (giulio_li@hotmail.com)…; oppure è il caso di dare un'occhiata al programma del festival che si terrà a fine anno al Batofar di Parigi, quello che abbiamo già citato sopra, per trovarlo infarcito di DJ e di altre invitanti amenità chiamate Allun, Mat-101, Gamers In Exile, D'arcangelo, Wang.inc, Anticracy… e non me ne vogliano quelli che non sono stati citati. 

elettro-elettronica

"L'interesse verso la produzione e l'ascolto di forme alternative di musica nasce dal rifiuto delle limitazioni che i generi e le categorie prestabilite ci impongono." (Alessandro Canova)

"Sinteticamente, inevitabilmente con qualche imprecisione, si può sostenere di trovarsi di fronte ad un brano di musica concreta ogni qualvolta un'opera utilizza unicamente come materiali costitutivi solo eventi sonori registrati da fenomeni acustici naturali come quelli generati dai tuoni, dal mare, dalle voci di una folla, ecc. Oppure di musica elettronica se i materiali costitutivi sono di natura sintetica. Di musica elettroacustica se oltre alla combinazione di entrambi i criteri si utilizza anche uno strumentario live (acustico od elettronico). Di musica acusmatica quando un'opera è costituita da suoni sintetici o concreti, o da entrambi, ma che non prevede l'esecuzione live. Di musica improvvisata se non vi è nessuna partitura o criterio atto a condizionare i musicisti che suonano liberamente. Insomma, credo che attualmente è difficile trovare lavori che rispondano ad uno solo di questi criteri, spesso li comprendono tutti." (Elio Martusciello)

"La difficoltà nel muoversi fra generi musicali diversi va individuata soprattutto in termini di approccio e requisiti tecnici. Va da sé che più si tratta di generi specifici, maggiori sono la dedizione e la specializzazione che il musicista deve conseguire. E non mi riferisco solo ad un discorso tecnico: un buon musicista classico non suonerà mai bene il 'liscio' pur non avendo limiti tecnici...  In ogni caso trovo sterile la vecchia discussione intorno alla classificazione nella musica, personalmente non mi pongo il problema e non faccio discriminazioni o scale di valore fra musica colta, popolare, improvvisata, etnica, ecc. Trovo però pericoloso l'eclettismo dell'interprete mentre trovo stimolante quello del fruitore. Tutti i generi di cui si parla al presente saranno presto una sorta di musica 'classica', cioè materiale che qualcuno continuerà a praticare per scopi fondamentalmente 'museali'. La musica è un fenomeno vivo che prescinde dalle categorizzazioni . E' spontanea manifestazione di sé e di una cultura nonostante le difficoltà interpretative che tali fenomeni procurano ai propri contemporanei. La storia dell'uomo è sempre più vasta, l'acquisire informazioni al fine di interpretare impone schedature e categorizzazioni perché tutto ciò che può sorprendere in quanto nuovo ci spaventa. Questo atteggiamento limita enormemente le nostre possibilità di una percezione creativa, non necessariamente funzionale. Un fenomeno abbastanza interessante e in qualche modo esemplificativo di ciò che intendo è il filone della sperimentazione acustica legata agli strumenti elettronici. Sebbene questo campo sia già in esplorazione dall'inizio del secolo, la notevole accessibilità degli attuali strumenti digitali apre un nuovo scenario. Queste apparecchiature e la loro innegabile influenza nella nostra società stanno fungendo da catalizzatori tra musicisti già dotati di un loro bagaglio (soprattutto compositori, improvvisatori e sound artists) e neofiti. Il risultato è al momento un curioso interregno nel quale non si delineano apertamente dei generi veri e propri. Questo mi piace. Temo però che sia una cosa di cui godere nel breve termine perché presto il mercato ed alcuni musicisti, ognuno per i suoi scopi, avranno bisogno di chiarezza. Quanto più tardi questo avverrà tanto più alta sarà la possibilità che maturi tra musicisti e fruitori una coscienza in grado di distinguere tra ciò che è valido e ciò che non lo è. A prescindere dal genere per me, esiste solamente una divisione tra la musica 'buona' e quella 'non buona'." (Domenico Sciajno)

Partiamo dalle parole (e dai pensieri) dei musicisti, eloquenti seppur non sempre in perfetta sintonia, per capire i cambiamenti intervenuti nella musica elettronica (e di conseguenza nella musica in genere). Cambiamenti che sono perfettamente messi a fuoco da Elio Martusciello quando dice: "… una buona parte dei musicisti ha smascherato il discorso tecnocratico, fatto di pura mistificazione, provando a minare l'idolo". Se è lampante la differenza fra un'elettronica primordiale fatta di sogni e illusioni e un'elettronica contemporanea quanto mai concreta, ancor più logici sono i meccanismi che hanno determinato tale evoluzione: diminuzione dei costi e popolarizzazione dei mezzi elettronici. I due processi evolutivi sono chiaramente inter-dipendenti, l'utilizzazione sempre più diffusa del computer, fin dalla scuola, porta a un abbassamento dei costi e ciò contribuisce a propagarne la diffusione. Possiamo dire che ormai il computer è in quasi in tutti i luoghi di lavoro e in tutte le case. Questa popolarizzazione porta l'elettronica fuori dalle accademie e dall'ambito ristretto della sperimentazione e, di conseguenza, porta il background delle tradizioni popolari all'interno dell'elettronica. Viene quindi a crearsi "…quell'interregno" di cui parla Sciajno, alla cui esistenza contribuiscono non solo elementi accademici come elettroacustica, musica concreta, ecc., ma anche rock, musiche nere, musiche etniche, industrial e via elencando. Un altro elemento determinante proviene dalla sempre maggiore manualità acquisita dai musicisti nei confronti del mezzo elettronico; questa confidenza porta a un utilizzo più particolareggiato e personale, fino ad arrivare a una reinvenzione dello strumento stesso. In questo senso un paragone fra Aphex Twin e Jimi Hendrix, che da sempre ci balena nella capocchia, è tutt'altro che azzardato. Siamo quindi dinanzi a un pout pourrì di forme, a una mescolanza di generi e di tecniche difficilmente definibile o racchiudibile all'interno di una sola parola. In tal senso, mentre le vecchie categorizzazioni appaiono inevitabilmente sbiadite, anche nuove definizioni come glitch (in realtà una tecnica di utilizzo del mezzo elettronico più che un'estetica, verrebbe mai in mente a nessuno di chiamare un genere musicale 'slide'?) e microsuoni sono limitate e limitanti, inadeguate a descrivere un insieme così complesso di intrecci. Meglio allora l'inconsueto elettro-elettronica suggerito da Elio Martusciello.

pop

"…Aphex Twin rappresenta senza dubbio uno dei fenomeni più importanti degli ultimi dieci anni. Tutta la nuova elettronica, specialmente quella votata alla techno commistionata al pop e molto altro..., deve tutto alle sue intuizioni. Ogni album di AT, anche quelli meno riusciti…, contiene paradigmi estetici che hanno anticipato le tendenze da lì avvenire. Molti musicisti sono debitori della sua musica, ma non si avvicinano minimamente alla sua grande forza evocativa: brillantemente giocosa ed in alcuni casi terribilmente drammatica. Il perché di tutto questo è sin troppo difficile da rendere a parole..., ci sono i dischi a testimoniarlo... Ma non solo AT è stato a nostro avviso molto importante, anche altri musicisti esteticamente diversi da lui, come Fennesz, Oval, Vert…, in un contesto parallelo a quello di cui sopra hanno, secondo noi, deciso il futuro della 'sperimentazione elettronica'. Attecchendo anche ad un gusto più 'popular', allontanandosi dalle paludi stagnanti di molta avanguardia, riscoprendo anche la melodia. Siamo sicuri che qualcuno da qualche parte stia inorridendo per questo..." (Tu m')

"L'inserimento della melodia è cambiato ed ha cambiato il piglio dei nostri brani perché la nostra formazione melodica è fondamentalmente 'pop'. Con 'pop' intendiamo una musica popolare, pur con tutte le perplessità e i dubbi che l'uso di tale parola comporta. Comunemente con 'pop' si intende infatti un determinato tipo di armonia differenziato dal rock, dall'hip-hop ecc. ecc.; per esempio ascoltando Bacharach, Brian Wilson e Beatles diciamo: "che bella melodia pop", mentre ascoltando un brano dei Talking Heads, dei Joy Division o degli Autechre determinate armonie meno esplicite danno un'impressione 'un po' meno pop', forse un po' meno fruibili perché si possa parlare di musica popolare; e qui nasce il dubbio al quale ci è difficile rispondere: popolare uguale conosciuto da tutti? In questo senso la forma canzone è lo standard più fruibile, commerciabile, il più diretto per la nostra cultura e il nostro tempo; ciò non significa comunque che consideriamo semplice realizzare una buona canzone 'canonica', i vari Wilson/Van Dyke Parks, Bacharach, Lennon/McCartney, Fagen, O'Rourke, Will Oldham ecc. ecc. ne sono l'esempio." (ENT)

Pur condividendo i dubbi espressi dagli ENT, sembra pur evidente come all'interno dell'elettronica sia oggi presente questa tendenza a fare propria la cultura pop(olare), almeno nel senso in cui il termine viene utilizzato dagli anglosassoni e cioè contrapposto alle espressioni colto od accademico. Ciò deriva - oltre che dalla popolarizzazione di cui abbiamo parlato sopra - dal fatto che il retroterra di buona parte dei musicisti ha origine nel pop: gli ENT e Marco Carcasi (Kar) hanno frequentato gruppi hardcore, Paolo Ippoliti dei Logoplasm, Alessandro Bonino ( Phonk), Andrea Belfi e i Plastic Violence provengono dal punk, Elio Martusciello si è formato con il rock cosmico, Alessandro Canova (Mugen) ha radici hip-hop e trip-hop, Davide Valecchi (aal) ha crossato dalla new wave al nu-metal, senza contare l'influenza avuta sull'elettronica tutta da quei generi nati nelle discoteche - quindi per forza di cose popolari - come techno, drum'n'bass e house. Parlava bene parte del pubblico presente alla manifestazione "Superfici Sonore", tenutasi a Firenze nell'Estate del 2001, quando individuava nell'attitudine dei musicisti la stessa attitudine che sta a fondamento della musica rock. Del rock - e di altra musica suonata su strumenti tradizionali come il jazz - sembra mancare solo la parte spettacolare-scenica, anche se un personaggio come Renato Rinaldi, che è in possesso di una forza comunicativa davvero eccezionale e rara anche in molti gruppi rock, lascia presupporre che tale handicap non è affatto insuperabile. Possiamo inoltre dire, a sostegno delle nostre tesi, che buona parte della musica elettronica italiana (almeno quella che stiamo trattando in questo articolo) ha radici formative più infiltrate nel rock cosmico e nei Pink Floyd, anche se a volte solo di rimbalzo, che non nelle sperimentazioni di Luciano Berio e Luigi Nono (con i quali l'impatto sembra essere avvenuto solo in un secondo momento). Questa tendenza a flirtare con il pop coinvolge anche musicisti che apparentemente sembrano molto lontani da un gusto popular, a testimoniarlo non ci sono soltanto le varie playlist, che pubblichiamo a compiutezza dell'articolo, ma pure fatti concreti come l'arrangiamento trip-hop fatto da Giuseppe Ielasi per Leda Tries With The Peacock, in "La macchina che moltiplica a per tre" di Mélgun, o la melodicità che traspare dal primo CD di Z.E.L.L.E (tendenza che, stando alle ultime dichiarazioni dei due componenti, andrà addirittura ad accentuarsi in un prossimo futuro). 

multimedialità

"In molti movimenti artistici del primo Novecento si è verificata una vera e propria 'attrazione' tra la musica e le altre forme d'arte. Il futurismo stesso come concetto base adottò la 'simultaneità'. Ovvero assemblare in un medesimo istante 'suono', 'luce' e 'movimento'. Luigi Russolo, ad esempio, fu pittore, musicista e inventore di 'strumenti' con le conseguenze che tutti conosciamo. Carlo Carrà, in un articolo su 'Lacerba' del 1913 titolò un suo scritto: 'la pittura dei suoni, rumori, odori'. Questo sta a dimostrare l'interesse intorno al 'suono' non solo da parte dei musicisti stessi ma anche dei letterati, pittori, poeti , ecc... Gli esempi potrebbero continuare, con Cocteau ed il suo rapporto con il 'Gruppo dei sei', oppure E. Pound, che curò perfino un trattato d'armonia. Quindi la musica era veramente alla base degli interessi di tutti quei movimenti artistici. Nel dadaismo le serate del Cabaret Voltaire erano delle vere e proprie situazioni multimediali ante-litteram, dove pittura, teatro, poesia e musica erano una cosa sola, anzi pochi sanno che si suonava qualcosa che in futuro sarà conosciuto come jazz… eravamo intorno al 1917. Conosciuti sono i rapporti tra Cage e Duchamp, Varese e Le Corbusier, Luigi Nono prima con Emilio Vedova e poi con Renzo Piano, lo stesso Schoenberg era anche pittore..., fino ad arrivare, passando per il movimento Fluxus, alla multimedialità di Nam Jun Paik" (Tu m')

La scena elettro-elettronica deve sicuramente molto ai movimenti artistici d'avanguardia nati nella prima metà del '900: innanzi tutto perché le propaggini musicali di quei movimenti rappresentarono davvero una rottura con il passato e inserirono l'utilizzo delle macchine nella musica, in secondo luogo perché la multimedialità tipica di quei movimenti sembra essere trasposta a definire uno dei caratteri più distintivi delle musiche che andiamo trattando. Molti dei musicisti presi in esame hanno frequentato scuole d'arte o sono interessati a forme espressive altre, rispetto alla musica, come la pittura, la scultura, il linguaggio, le arti visive… . Infine c'è il connubio vero e proprio: quello delle performance audio-visive di Domenico Sciajno e dei Fantasmagramma, dei lavori per il teatro di Rinaldi, Ielasi e Tricoli e dei Kar, degli happening inscenati dai Plastic Violence, degli intrecci con Cane CapoVolto (collettivo catanese di cinema sperimentale che fa capo a Alessandro Aiello e Enrico Aresu) da parte di Maurizio Martusciello e dei tu m', delle immagini sonorizzate presenti nella web-label di questi ultimi… fino a quella che sembra essere la forma eccelsa di questa multimedialità, cioè l'installazione o architettura sonora. Un altro elemento da non trascurare è l'influenza esercitata dalla musica e dalle culture orientali, soprattutto giapponesi, in particolare per ciò che concerne la liberazione del suono da significanze varie, e superflue, per ridurlo alla sola essenza di suono con i suoi timbri e colori.

distribuzione

"Si é parlato a non finire della maggiore facilità della diffusione della musica negli ultimi anni, dei vantaggi (chiunque può stampare il proprio disco e mandarlo in giro) e degli svantaggi (quasi nessuno riesce più a dedicare attenzione a quello che ascolta... subito pronti con il prossimo disco da mettere nel lettore....). Bene, per quanto mi riguarda non c'è differenza tra CD o CD-R e la qualità sonora é identica. La facilità di produzione ne fa un mezzo molto comodo ed economico, ma spesso abusato (poco controllo della musica che si manda in giro, poca selezione del materiale e se vuoi anche poca attesa....senza neanche il tempo di lasciarlo sedimentare). E' questo che mi interessa, ascoltare della musica. I Logoplasm sono un ottimo esempio in questo senso (così come lo é il CD-R di Andrea Belfi). L'economicità della produzione del CD é secondo me del tutto relativa (soprattutto per l'Italia) e non tutti si possono permettere di fare uscire un disco ogni due mesi, per cui ben vengano i CD-R." (Giuseppe Ielasi)

"Frans de Waard ha recentemente definito le CD-R labels come 'le cottage industries dei tempi odierni'... ci siamo inizialmente avvicinati al CD-R per motivi economici dato che gestiamo la S'agita con quello che riusciamo a scansare dai nostri lavori regolari, e davvero non è molto. Usando un supporto oramai economicissimo, masterizzandolo e confezionandolo in casa tagliamo sulle spese in maniera netta, così da poter investire la differenza in un'altra uscita, o nell'estetica del packaging. Ovviamente tutto questo va a scapito del tempo, perché per tenere su un'etichetta, per mettere su un CD-R ne serve moltissimo, e siamo costretti a rubarlo ovunque capiti, al sonno, al riposo, alla lettura, all'aria aperta, alla vita. Ma non vediamo il CD-R come una panacea per l'autoproduzione. Certo che i prodotti si presentano meglio, sia auralmente che visivamente, ma questo è merito del computer, che ha massicciamente invaso la vita quotidiana. Le rappresentazioni cambiano: il bianco e nero del collage xerox di una volta è stato sostituito dagli onanismi dei software grafici, chi aveva poco gusto un tempo presenta adesso in maniera meno eye-soring ciò che produce. Le tirature sono aumentate di pari passo al decrescere dei tempi di duplicazione. I software aiutano molti a tirare su dal nulla pezzi, composizioni, intere suite, e forse l'autocritica manca oggi come e più di un tempo." (Logoplasm)

"È successo per caso e per scherzo. Poi ha funzionato. Non ho mai mandato un demo a nessuno: il fatto è che non ho mai pensato alla musica come a una forma di sostentamento, quindi perché venderla? Non dico che ciò non possa succedere, ma non me ne sono mai (pre)occupato. La mia musica nasce in digitale, e lascia il mio hard disk solo per venire caricata sul server. L'idea di doverla distribuire e vendere su un supporto fisico quando chiunque può scaricarsela gratis mi sembra una cavolata. In fondo faccio della musica solo per divertirmi… e devo dire che mi diverto parecchio! " (Alessandro Bonino)

"Per mp3, il discorso é diverso. Mi spiace, ma il suono é proprio pessimo… e non si tratta di frequenze. Lionel Marchetti, parlando di Chion, analizza la 'profondità' del suo suono (in senso prospettico); suono non solo sulla superficie dell'altoparlante, ma 'dietro' l'altoparlante stesso... lontano. Ok, alla maggior parte della musica di oggi (e non solo quella prodotta digitalmente) lo 'spazio' manca del tutto e così il formato mp3 funziona. Sinceramente a me interessa poco (a meno di non concepire un brano espressamente per questo formato, ma in questo caso credo che si debba lavorare tenendo in considerazione ben altri parametri, non ultima la bassa qualità della maggior parte degli impianti stereo collegati ai computer...). Altri discorsi (...la mancanza del supporto...) mi interessano ancora meno." (Giuseppe Ielasi)

"Perché mai dovrei diffondere musica via rete? Non credo ci sia alcuna bellezza o utilità nel farlo. Non ho mai scaricato musica da internet, e tutto quello che riguarda gli mp3 mi procura orrore. Se si potessero ascoltare solo mp3, non ascolterei musica affatto." (Valerio Tricoli)

La diffusione su larga scala del mezzo elettronico non coinvolge solo il modo in cui la musica viene creata, ma anche la produzione dei supporti e la distribuzione. Gli studi domestici sono nettamente in aumento, vengono utilizzati anche da numerosi gruppi rock indipendenti, e con essi si sviluppa la tendenza all'autodistribuzione. Le piccole etichette, spesso gestite dai musicisti stessi, si sono riprodotte a dismisura, e sovente funzionano anche come distributrici delle consorelle - applicando fra se il sistema dello scambio - fino alla creazione di una rete capillare addirittura più efficace ed efficiente di quella creata dalle grandi etichette ('indipendenti' e non). A questo punto entra in gioco il CD-R, un supporto più delicato rispetto al CD prodotto industrialmente - nel secondo c'è probabilmente una patina protettiva che viene aggiunta dopo la registrazione - ma non inferiore ad esso per qualità sonora, che permette di preparare in casa i propri dischi a chiunque sia in possesso di un minimo d'attrezzatura. Inizialmente il CD-R aveva la funzione dei vecchi demotape, ma il suo ruolo è andato cambiando - o meglio altre funzioni si sono aggiunte alla precedente - tanto che sono nate etichette specializzate in CD-R (vedi la S'agita gestita dai Logoplasm). Non solo, anche etichette maggiori come la Staalplaat e la Touch, e musicisti ormai affermati come Philip Jeck e Momus, non disdegnano l'utilizzo di questo supporto creando addirittura sottomarchi specializzati in CD-R. Quello che fino a ieri era il problema maggiore del CD-R, cioè l'aspetto grafico, è in fase di soluzione ed etichette come la portoghese Grain Of Sound, e la stessa S'agita, non hanno nulla da invidiare alle consorelle più ricche. Senza volervi cercare utopici elementi di controcultura o autoproduzione Alternativa, ché i produttori dei supporti utilizzati sono sempre le solite multinazionali, appare comunque chiaro come questo supporto possa rappresentare per il musicista il conseguimento di una salutare autonomia a basso costo. Ma accanto agli aspetti positivi, possibilità per il musicista di gestire tutto il processo creativo e commerciale, vi sono gli aspetti negativi, che si possono riassumere in un ulteriore aumento della produzione con relativo intasamento del mercato. Questo è comunque un fenomeno che ha ormai radici storicizzate - il CD ha rappresentato un aumento della produzione rispetto al vinile e il vinile ha rappresentato lo stesso fenomeno rispetto alle vecchia diffusione diretta tramite concerto - e che al momento sembra inarrestabile. Un freno a ciò può stare solo nella qualità della confezione (e già ci sta pensando anche chi produce a livello industriale attraverso confezioni, spesso limitate alle prime copie, che sono autentiche opere d'arte). La piccola produzione, come inevitabilmente è quella dei CD-R, può giocare anche sull'espediente delle copie numerate che fa di ogni pezzo un oggetto unico. Dato che la tendenza generale del pubblico acquirente, a livello di gruppo omogeneo, sembra ormai orientata all'acquisto di una copia singola dalla quale poi masterizzare, quella delle poche copie, numerate e confezionate con cura, sembra essere una soluzione ottimale. Il problema nasce a questo punto per i veri appassionati che, per paura di non trovare più quel particolare oggetto, sono costretti ad acquistare senza fare troppe riflessioni. Questi sono tutti temi aperti dai quali dipende in parte il futuro di quelle musiche destinate ad un pubblico limitato. Se il CD-R sembra essere ormai un dato acquisito, la distribuzione in rete attraverso le web-label è invece un sistema che trova ancora numerose opposizioni, soprattutto a causa della sua qualità ancora di basso livello. Nonostante ciò è possibile assistere a un proliferare di questo mezzo di diffusione, anche in Italia e da parte di artisti di estrazione diversa come Phonk, tu m', Domenico Sciajno, Mugen, i musicisti legati a "Oltre il Suono"… . Sinceramente trovo che anche questo sia un fenomeno inarrestabile e la contrapposizione netta nei suoi confronti mi fa pensare a coloro che bruciavano le prime fabbriche per contrastare la nascente società industriale. Penso quindi che il fenomeno delle web-label vada, più che rifiutato a priori, analizzato con meticolosità. Innanzi tutto la qualità mi sembra destinata senza dubbio a migliorare, non siamo che alla preistoria, e in ogni caso è possibile riprendere il discorso già fatto sopra: il vinile ha peggiorato la qualità dei concerti, il CD ha peggiorato la qualità del vinile, la distribuzione in rete è destinata a peggiorare la qualità del CD. Ma, a parte ipotetiche società in difesa del vecchio vinile o, in futuro, del vecchio CD (in ogni caso roba da boutique), soprattutto per quanto riguarda la diffusione di massa non vedo altre alternative se non quella di studiare il sistema nei suoi meccanismi e capire come può essere utilizzato creativamente dai musicisti e dagli ascoltatori. Comunque vada quello della rete è, fin da oggi, il metodo più comodo, economico e veloce che hanno i musicisti per far viaggiare la propria musica e farsi conoscere… ma non solo, e se anche un David Grubbs, che proprio sconosciuto non lo è più, accetta di inserire un proprio brano nella web-label curata dai tu m' ci deve essere sotto qualcosa d'altro? La rete potrebbe rappresentare inoltre l'unico strumento in grado di cambiare il rapporto fra musicisti e fruitori, permettendo a questi ultimi di poter accedere all'ascolto della musica, decidendo ciò che più li aggrada, saltando intoppi parassitari quali possono essere la critica, le etichette, i distributori e i commercianti. Tutto sta nel come questo strumento si svilupperà, potrà e saprà essere utilizzato.

ascolti

AA.VV.: "Social Music" (CD+Libro Errant Bodies Press/Fringes)
AA.VV.: "tu M'p3" (http://www.tu-m.com)
AA.VV.: "Beyond The Sound" (CD-R http://www.oltreilsuono.com)
aal: "13" (CD-R S'agita Recordings)
aal: "Dear Dead Days" (CD-R S'agita Recordings)
Alessandro Bosetti / Annette Krebs: "Paper-Paper" (7" Nat Nat)
Andrea Belfi: "NED n° 1" (CD-R Autoprodotto)
Andrea Belfi: "NED n° 2" (CD Chocolate Guns)
ENT: "ENT" (CD-R Autoprodotto)
Fantasmagramma: "ab" (CD Extrasensory)
Giuseppe Ielasi / Domenico Sciajno: "Right After" (CD Erstwhile Records)
G. Ielasi / V. Tricoli: "Omonimo" (MC Freedom From)
G. Ielasi / R. Rinaldi / D. Sciajno / G. Robair: "May 15th" (CD Fringes)
Kar: "p.01" (CD-R Autoprodotto)
Logoplasm: "Limpida caostella del mattino" (CD-R autoprodotto)
Logoplasm: "Ghostscripts" (http://www.aesova.org)
Logoplasm: "Sublime.caos.nel.cuore" (CD-R S'agita Recordings)
Martusciello: "Meta-Harmonies" (CD Staalplaat)
Maurizio Martusciello: "Unsettled Line" (3"CD Metamkine)
Massimo: "Massimo" (CD-R Microwave)
Massimo: "Works For Fals.ch" (http://www.fals.ch)
Massimo: "Minimo" (CD Staalplaat)
Massimo: "Var" (mp3/3"CD Fällt)
Massimo: "Hey Babe, Let Me See Your USB And I'll Show You My FireWire" (3"CD Mego)
Massimo: "Mort Aux Vaches" (CD Staalplaat)
Melgùn: "La macchina che moltiplica a per tre" (CD Fringes)
Alessandro Bosetti / Melgùn: "Pinocchio" (CD Nat Nat)
Metaxu: "Metaxu" (CD Plate Lunch)
Mugen: "770" (CD-R autoprodotto)
Mugen: "Drowning Venice" (http://www.pachinkostudio.com)
Ossatura / Tim Hodgkinson "Dentro" (CD RéR)
Phonk: "brani vari"
Retina.it: "Volcano Wave 1-8" (CD Hefty Records)
R. Rinaldi / A. Bosetti / G. Ielasi: "Oreledigneur" (Fringes)
Domenico Sciajno: "brani vari"
tu m': "Phone Book" (CD-R ReR)
tu m': "01" (CD Cut)
tu m': "Nine Songs" (CD-R Grain Of Sound)
Zelle: "Nth" (CD Line)

gli imprescindibili della nuova musica elettronica italiana (e.g.)

1 Domenico Sciajno: Miserere
Una composizione in tempo reale, straordinaria per forza evocativa e impatto emotivo, che purtroppo è disponibile solo in formato mp3 nel sito del musicista.

2 Martusciello: "Meta-Harmonies" (CD Staalplaat)
Questo strepitoso CD del 1995 rappresenta la sorgente della nuova musica elettro-elettronica italiana e, in quanto tale, reputiamo il suo ascolto assolutamente obbligatorio. Trovatelo o fatevelo prestare senza indugi.

3 Andrea Belfi: "NED n° 2" (CD Chocolate Guns)
"…elettroacustica sopraffina…", queste due parole scritte dall'amico G. Dal Soler servono egregiamente a commentare un CD semplicemente imperdibile, e un nuovo musicista che s'innalza ben al di sopra della media.

4 tu m': "Pre-master Disc for Ambiance Magnetiques" (CD-R n.p.)
Splendido esempio di improvvisazione dalle atmosfere magnetiche, ipnotiche e ricche di spunti ritmico-melodici. Purtroppo, causa motivi economici, il gruppo ha abbandonato l'idea di pubblicare il CD su Ambiance Magnetiques.

5 G. Ielasi / R. Rinaldi / D. Sciajno / G. Robair: "May 15th" (CD Fringes)
Registrazione casalinga del 1998 che inaugura il catalogo Fringes, svela il talento di tre fra i nostri migliori musicisti e, tramite la collaborazione con Gino Robair, si apre verso una logica internazionale. Fondamentale.

6 Logoplasm: "Un libro scritto in automatico…" (CD-R n.p.)
Un CD, stampato privatamente in una trentina di copie da utilizzare come piccolo regalo, che mette totalmente a nudo la tremenda forza poetica della musica architettata dal duo di Ariccia.

7 Mugen: "Drowning Venice" (http://www.pachinkostudio.com)
La dimostrazione più compiuta delle non comuni capacità di questo giovane talento nel mescolare mondi distanti, geograficamente, esteticamente e anagraficamente, purtroppo reperibile solo in rete.

8 Massimo: "Var" (mp3/3"CD Fällt)
La dimostrazione più completa delle diverse anime che convivono nel provocatorio musicista catanese. "Var" è contemporaneamente un immersione nel nonsense, nel glitch, nel noise, nel divertimento...

9 Alessandro Bosetti & Annette Krebs: "Bosetti / Krebs" (CD-R n.p.)
Cosa succede quando due poetiche speculari s'incontrano? Questi duetti di Bosetti con la Krebs rappresentano quanto di meglio tale contingenza può produrre. Confidiamo in una rapida pubblicazione.

10 Phonk: "phonkerie"
Funk + Punk + Barrett = una delle musiche più divertenti ascoltate ultimamente. Se ne avete la possibilità scaricate, altrimenti fate scaricare da amici o invitate il musicista a farvi avere qualche sua birichinata. Non ve ne pentirete.

Etero Genio desidera ringraziare tutti i musicisti trattati per la loro collaborazione




Alla ricerca dell'oggetto sonoro


Pierre Schaeffer


Nell'agosto del 1995, all'età di ottantacinque anni, è scomparso Pierre Schaeffer, uno dei protagonisti di maggior rilievo della sperimentazione musicale degli Cinquanta-Sessanta, creatore della musica concreta e dell'oggetto sonoro, troppo presto dimenticato dal mondo musicale. Vorremmo qui tentare di raccogliere l'importante eredità teorica di Schaeffer, riproponendo un percorso sintetico tra i principali temi del suo libro più importante, il Traité des objets musicaux, che oltre a racchiudere il suo lavoro di musicista, filosofo e sperimentatore, presenta in modo completo la nozione di oggetto sonoro e le basi teoriche della musica concreta.


1. La forza della premessa teorica

Sottolineiamo per prima cosa l'importanza e la forza della premessa teorica di Schaeffer, esplicitata ampiamente nel Traité des objets musicaux ma già presente negli scritti e nell'attività pubblica, radiofonica e musicale dell'autore.

Schaeffer ritiene che la produzione musicale del Novecento ci porti inevitabilmente alla necessità di una revisione, di un ripensamento di tutto il sistema musicale occidentale, polveroso e ormai sclerotizzato, incapace di condurre gli artisti su strade nuove: un sistema che non è più in grado di sfruttare i materiali con i quali è costruito ma è solo capace di riflettere sulla propria sintassi.

Questa crisi profonda del musicale è fortunatamente accompagnata da tre fatti nuovi, che possono portare spunti di riflessione e quindi la possibilità di un rinnovamento: una novità di tipo estetico, una di tipo tecnico e la nascita dell'antropomusicologia.

Per quanto riguarda l'estetica Schaeffer sostiene che assistiamo a una libertà sempre più grande e che questa libertà reclama regole, ma non c'è ancora stata un'operazione che abbia messo ordine in questa nuova estetica.

«Il secondo fatto è l'apparizione di tecniche nuove. Poiché le idee musicali sono prigioniere, più di quello che si creda, dell'apparecchiatura musicale, come le idee scientifiche lo sono dei dispositivi sperimentali. (...) Invece di allargare le possibilità della creazione, come ci saremmo potuti aspettare, le apparecchiature moderne sembrano suscitare degli specialismi, o delle eccentricità al margine della musica vera e propria»[1] .

Il terzo fatto riguarda «una realtà molto antica, in via di estinzione sulla superficie terrestre. Si tratta delle vestigia delle civiltà e delle geografie musicali diverse da quella occidentale. Questo fatto non sembra ancora aver l'importanza che merita presso i nostri contemporanei»[2]. Questi linguaggi, non ancora compresi e decifrati dalla musicologia occidentale che utilizza schemi e sistemi di notazione occidentali inadeguati alla comprensione di una musica diversa, potrebbero darci la chiave di un universalismo musicale.

Le tre impasse della musica occidentale secondo Schaeffer sono quindi l'inadeguatezza del sistema di notazione a rendere conto della generalità del mondo musicale; la scomparsa delle fonti strumentali con l'avvento del nastro magnetico; la nostra ignoranza del linguaggio musicale. Il Traité cerca di rispondere proprio a questi tre punti: tenta di creare una notazione che possa rendere conto della generalità dell'universo sonoro (ossia dei suoni e dei rumori); insegue il miraggio di un ritorno all'importanza dello strumento musicale, non in quanto oggetto o fonte da cui proviene il suono, ma in quanto momento indissolubilmente legato alle scelte del comporre, momento in cui la natura peculiare di un certo strumento musicale interagisce con la volontà creatrice dell'artista; ricerca una definizione di musica che non escluda il problema dell'universalismo del linguaggio musicale.


2. Dalla riflessione sull'ascolto all'oggetto sonoro

Il secondo spunto che vorremmo raccogliere riguarda la riflessione di Schaeffer sull'ascolto. L'autore prende le mosse da uno strumento novecentesco, l'unico veramente nuovo: l'invenzione della registrazione musicale, l'invenzione più rivoluzionaria di tutti i tempi. La possibilità di registrare il suono apre orizzonti mai intravisti prima in tutta la storia della musica, ma le attenzioni dei contemporanei sono invece rivolte all'aspetto tecnico piuttosto che alle applicazioni generali.

La prima cosa che ci deve meravigliare è il fatto che si possa trasformare un campo acustico a tre dimensioni in un segnale meccanico a una dimensione che ci permette comunque, anche se realizzato in modo grossolano, di riconoscere il contenuto semantico del messaggio. Abbiamo per esempio la possibilità - anche nella registrazione più distorta - di riconoscere il timbro di una voce umana o di uno strumento musicale.

Ma esaminiamo più da vicino alcuni aspetti della riproduzione del suono: immaginiamo un'orchestra che suona in una sala. Più tardi, incisa su disco, risuona nel salotto di un ascoltatore cui è stato fatto credere, per ragioni commerciali, che con quell'impianto è come se l'orchestra suonasse nel salotto di casa sua. L'attenzione è puntata sulla fedeltà, e non si è fatto alcun cenno al fatto che la registrazione musicale è una trasformazione, la sostituzione di un campo sonoro a un altro.

Proviamo a chiarire l'equivoco partendo da un paragone che potrebbe essere illuminante per il problema dell'ascolto: tentiamo un confronto tra acustica e ottica. Due grandi differenze separano l'esperienza dei fenomeni luminosi da quella dei fenomeni sonori. Per prima cosa, gli oggetti visivi non sono fonti di luce ma oggetti che vengono illuminati dalla luce. Per il fenomeno sonoro non è così: il suono proviene da una fonte e l'attenzione è tutta rivolta a questa fonte [3]. Il suono è sempre stato legato al fenomeno energetico che lo faceva nascere, tanto da essere confuso con lui. Inoltre questo suono è fugace, evanescente, ed è percepibile da un unico senso, l'udito. L'oggetto visivo invece è un fenomeno più stabile: non può essere confuso con la luce che lo illumina, è percepibile da più sensi, non svanisce. Con la registrazione del suono ci troviamo davanti a un nuovo fenomeno, quello della materializzazione del suono: in questa nuova esperienza il suono non è più evanescente e prende le distanze dalla sua causa, acquista stabilità, può essere sottoposto a manipolazioni.

Ma nemmeno questo avvenimento della registrazione sembra aver spostato l'attenzione dal suono segnale al suono vero e proprio. Inoltre nessuno si è mai posto la domanda più ovvia ma che è anche quella più essenziale: che cosa succede quando ascoltiamo un suono registrato invece di un suono dal vivo? Che cosa è successo al suono durante la registrazione?

Per prima cosa, durante una registrazione ha luogo una trasformazione di uno spazio acustico a quattro dimensioni (tre dimensioni spaziali più l'intensità) in uno spazio a una dimensione (monofonia) o a due dimensioni (stereofonia).

«Supponiamo un solo microfono: è il punto di convergenza di tutti i raggi che arrivano dai punti sonori dello spazio circostante. Dopo le diverse trasformazioni elettroacustiche tutti i punti sonori dello spazio iniziale si troveranno condensati nella membrana dell'altoparlante. Questo spazio è sostituito da un punto sonoro, il quale genererà una nuova ripartizione sonora nel nuovo spazio del luogo d'ascolto»[4] .

La disposizione degli strumenti nello spazio iniziale non è più percepibile nel punto sonoro se non sotto forma di intensità: nell'altoparlante il suono non è più o meno lontano, più o meno a destra o a sinistra, più o meno forte. Questo fenomeno, puramente fisico, va collegato allo spazio soggettivo dell'ascolto: l'ascoltatore diretto, quello che siede davanti all'orchestra in una sala da concerto, ascolta con le sue due orecchie e il suo ascolto è accompagnato anche da altre percezioni concomitanti. L'ascoltatore indiretto, seduto nel suo salotto davanti ad un apparecchio in grado di produrre suoni, ascolta anche lui con le sue due orecchie, ma tutti gli altri fenomeni di contorno sono assenti.

Ci troviamo quindi davanti a due ascolti profondamente diversi di cui vogliamo sottolineare in particolare due aspetti:

a) un aspetto soprattutto fisico: nell'ascolto indiretto appare una riverberazione
apparente non riscontrata nell'ascolto diretto;

b) un aspetto psicologico: la messa in valore nell'ascolto indiretto di suoni
che non avrebbero mai colpito la nostra attenzione durante l'esecuzione dal
vivo e, d'altra parte, la confusione che si crea nel riconoscere gli strumenti
musicali quando non abbiamo la possibilità di osservare gli esecutori.

Vediamo di spiegare meglio che cosa intendiamo con riverberazione apparente: il nostro ascolto è dotato di un potere di localizzazione. Nell'ascolto diretto il suono viene percepito in due modi: viene localizzato dall'ascolto diretto (il suono proviene dalla fonte da cui è emesso), ma a questo si somma il suono riflesso (o suono riverberato) che proviene da tutta la stanza. Il nostro ascolto fa la somma tra suono localizzato e suono riflesso: il suono riflesso aumenta il volume del suono, ma non impedisce all'ascoltatore di identificare la direzione della fonte sonora, e inoltre le riverberazione amalgama e arricchisce i suoni.

Ma se sostituiamo le nostre due orecchie con un microfono, questo capterà indistintamente il suono diretto e quello riflesso, li sommerà e inoltrerà così nell'altoparlante un prodotto che non è stato selezionato come lo sarebbe stato dal vivo.

Proviamo ora a esaminare il secondo aspetto, quello psicologico: in una registrazione sentiamo molte cose che non avevamo sentito nell'ascolto diretto: rumori di fondo, rumori parassiti, errori dell'orchestra, la tosse del vicino, ecc. La macchina ha registrato tutto, le nostre orecchie non lo avevano fatto nella sala da concerto: durante l'ascolto hanno selezionato tra migliaia di informazioni diverse quelle che ritenevano interessanti.

Dopo tutto questo possiamo ancora parlare di fedeltà della registrazione? Dopo le prove che abbiamo appena portato sulla trasformazione che subisce un brano musicale quando viene registrato, pensiamo ancora che il concetto di fedeltà sia corretto? Eppure, la riproduzione ci sembra perfetta.

Come è possibile? La verità, dice Schaeffer, è che i musicisti non hanno orecchio: sono abituati a fare musica, a pensarla, a scriverla, a immaginarsela, ma non sono abituati a rivolgere la loro attenzione all'oggetto sonoro in quanto tale. Schaeffer sostiene che gli unici in grado di ascoltare l'oggetto sonoro sono i tecnici del suono. La registrazione di un brano musicale non è in realtà una riproduzione fedele, ma una ricostruzione: è il risultato di una serie di scelte, di interpretazioni che i dispositivi di registrazione rendono possibili e necessarie. Il tecnico del suono è quello che esegue questa ricostruzione e che deve quindi in continuazione comparare il piano della realtà (il suono diretto) con il piano della riproduzione, in certo senso dunque con il piano della finzione, e per riprodurla deve porsi delle domande su com'è questo suono vero, reale, che deve essere riprodotto artificialmente.

Il discorso di Schaeffer sul potere della registrazione ci porta a considerare il problema dell'oggetto sonoro, problema che emerge grazie alle tecniche di registrazione e alla possibilità di ascoltare un suono senza vederne la fonte. Questa riflessione sul suono in quanto tale non è però appannaggio solo del tecnico del suono - si tratterebbe di un'elite - ma è alla portata di tutti attraverso un'invenzione diffusa in tutte le case del ventesimo secolo: la radio. E per questo nuovo tipo di ascolto che la radio ci propone abbiamo già pronto un nome, un antico neologismo: acusmatica.

Acusmatico era il nome dato ai discepoli di Pitagora che ascoltavano le lezioni del maestro da dietro una tenda, senza vederlo[5]. Questo termine lo possiamo utilizzare per la radio e per la registrazione del suono che «restituiscono all'udito la totale responsabilità di una percezione che normalmente si appoggia ad altre testimonianze sensibili.» [6].

La situazione acusmatica rinnova il modo di intendere: isolando il suono dal complesso audiovisuale di cui faceva inizialmente parte, crea delle condizioni favorevoli per un ascolto che si interessa al suono in se stesso. Una precisazione è necessaria: non si tratta di sapere come un ascolto soggettivo interpreti la realtà, ma l'ascolto stesso diventa il fenomeno da studiare. La domanda che dobbiamo fare a colui che ascolta il suono senza fonte è 'che cosa senti?' e con questa domanda gli chiediamo di descrivere la sua percezione.

Cerchiamo ora di capire quali sono le caratteristiche di un ascolto acusmatico che si verifichi nelle condizioni attuali, ossia che cosa succede quando ci poniamo di fronte a un impianto stereofonico e ascoltiamo i suoni senza poterne vedere la fonte, proprio come i discepoli di Pitagora ascoltavano il maestro nascosti dietro la tenda.

  1. Di norma, anche se non ce ne rendiamo conto, riconosciamo la fonte sonora con l'aiuto della vista: nell'ascolto acusmatico questo soccorso viene meno e confondiamo i timbri dei diversi strumenti, scoprendo che quello che pensavamo di ascoltare, in realtà lo vedevamo.
  2. A forza di ascoltare oggetti sonori le cui cause sono occultate, siamo inevitabilmente portati a disinteressarci delle fonti per rivolgere esclusivamente la nostra attenzione agli oggetti sonori in quanto tali. Il segnale lascia il posto all'oggetto sonoro.
  3. Abbiamo inoltre la possibilità di riascoltare l'oggetto sonoro nelle stesse condizioni fisiche e in questo modo possiamo comprendere meglio la soggettività del nostro ascolto: abbiamo cioè la possibilità di osservarci ascoltare e possiamo studiare come l'oggetto sonoro cambia in funzione della mutata intenzione d'ascolto.
  4. Abbiamo la possibilità di manipolare l'oggetto sonoro attraverso il nostro apparecchio: registrarlo più volte, ascoltarlo con maggiore o minore intensità, dividerlo in pezzi, ecc.

Comincia a delinearsi una definizione di oggetto sonoro: è ogni fenomeno e avvenimento sonoro percepito come un tutto coerente e ascoltato in una situazione acusmatica, indipendentemente dalla sua provenienza e dal suo significato.

Quello che Schaeffer si propone di fare è di mettere tra parentesi ogni riferimento alle cause strumentali e a ogni significato musicale già dato, dunque ogni forma di condizionamento culturale, per consacrarsi esclusivamente all'ascolto. Per lui il magnetofono ha per prima cosa la virtù della tenda di Pitagora: crea dei fenomeni nuovi da osservare, soprattutto crea delle condizioni nuove di osservazione. La nuova tecnica musicale del Novecento legata alle apparecchiature elettroniche serve molto più ad ascoltare i suoni che a produrli.

Abbiamo fornito una seppur vaga definizione di oggetto sonoro ed ora dobbiamo mostrare come si arriva alla percezione di questo misterioso oggetto sonoro. Cerchiamo di costruire un percorso ideale di ascolto:

  1. Il silenzio è rotto da un avvenimento sonoro: io ascolto l'avvenimento, cerco di identificarne la fonte. Il suono è indice di qualcos'altro. Ci troviamo di fronte a un ruolo molto primitivo della percezione: capire qual è la causa di un evento sonoro può aiutarmi a individuare un pericolo o guidarmi in un'azione.
  2. Io capisco, ossia nel suono cerco un contenuto. Metto in atto, in questo modo, un confronto con delle nozioni extrasonore: il suono non è altro che un segno che mi rinvia a un senso. Non ascolto l'oggetto sonoro, ma decodifico un linguaggio.

Ma se io abbandono sia gli indici sia il senso, che cosa rimane? Se noi non accettiamo di dividere l'ascolto in avvenimento e senso, allora posso percepire ciò che costituisce un'unità originale, cioè l'oggetto sonoro che è rappresentato dalla sintesi di percezioni solitamente dissociate.

Si tratta quindi di abbandonare l'atteggiamento naturale e di adottarne uno artificiale: l'ascolto acusmatico che ci guida verso l'ascolto dell'oggetto sonoro si delinea allora come un ascolto ridotto in senso husserliano, un ritorno alle fonti, una liberazione dai condizionamenti derivati dal contesto culturale o dall'abitudine a una certa pratica. La realtà viene ridotta a un campo di dati fenomenologici.


3. Fenomenologia dell'oggetto sonoro

Abbiamo più o meno definito che cos'è l'oggetto sonoro: si tratta ora di trovare i criteri che ci possano aiutare a descrivere e definire l'universo dei suoni. Per adesso abbiamo solo isolato un concetto: tutta la difficoltà sta nel creare la grammatica che ci permetterà di descrivere questo oggetto sonoro.

Secondo Schaeffer alla base della nostra attività percettiva si trova la coppia oggetto/struttura. Per oggetto utilizza una definizione di Husserl tratta da Logica formale e logica trascendentale:

«L'oggetto è il polo d'identità immanente ai singoli vissuti, ed è peraltro anche il polo trascendente nell'identità che li sovrasta» [7].

Per struttura utilizza una definizione tratta dal Vocabulaire technique et critique de la philosophie di Lalande. E' la definizione di forma:

«Le forme sono degli insiemi, che costituiscono unità autonome, manifestano una solidarietà interna e hanno leggi proprie. Ne consegue che il modo di essere di ogni elemento dipende dalla struttura dell'insieme e dalle leggi che la governano. Né psicologicamente né fisiologicamente l'elemento preesiste al tutto».

Si tratta ora di applicare questo concetto di struttura alla musica. Schaeffer ci fornisce tre esempi:

  1. Un esempio classico di forma (o di struttura) è quello della melodia, che non è possibile ridurre alla successione della note che la compongono. Le note possono essere considerate gli elementi costitutivi ma se rivolgo una particolare attenzione alla nota isolata, mi rendo conto che questa può apparirmi a sua volta una struttura, in quanto possiede una sua organizzazione interna. La diversità che esiste tra una melodia e una nota quando vengono considerate in quanto strutture, dipende dal livello di complessità.
  2.  Pensiamo adesso a una macchia di colore che campeggia su un foglio bianco. Trasportiamo la metafora figura-sfondo nel campo musicale: tutte le volte che faccio delle scelte di ascolto, le faccio a partire da un campo molto vasto che è rappresentato da tutto il mondo che mi circonda con i suoi rumori in cui io ritaglio (o circoscrivo) solamente quello che mi interessa. Ma questo binomio figura-sfondo è a sua volta una struttura i cui elementi sono legati indissolubilmente, e non solo: sono in antagonismo. Posso scegliere di ascoltare una conversazione che si svolge con una musica in sottofondo: se ascolto la musica non potrò più ascoltare la conversazione. E questo antagonismo lo ritroviamo anche nella coppia nota/melodia: se ascoltiamo la melodia, non cogliamo le note come fatti isolati e se ci concentriamo sui singoli elementi-note, la melodia si dissolve.
  3. Prendiamo infine un caso molto particolare di melodia, quello della scala musicale. Ascoltiamo una scala, la percepiamo come una melodia. Ma nel caso in cui, per esempio, all'interno di un brano in tonalità di sol maggiore dimentichiamo di eseguire l'alterazione in chiave, percepiamo una stonatura, qualcosa di anomalo all'interno della melodia. La scala musicale è una struttura che condiziona la nostra percezione anche se noi non percepiamo direttamente la scala: è una struttura di riferimento, rappresenta il codice attraverso il quale io ascolto e decodifico la melodia.

Ci troviamo così di fronte a una catena infinita oggetto/struttura che caratterizza tutte le nostre percezioni: ogni oggetto è percepito come oggetto soltanto in un contesto che lo ingloba, in una struttura; ogni struttura è concepita come struttura di oggetti costituenti; ogni oggetto della nostra percezione è contemporaneamente un oggetto percepito come unità in una struttura, ed è struttura in quanto è composta da più oggetti. Questa catena ha però un limite ben definito nel sistema musicale occidentale: la nota è l'oggetto, il più piccolo elemento significativo. Schaeffer si rifiuta di considerare la nota come punto d'arrivo poiché vuole affrontare la catena oggetto/struttura dal punto di vista puramente percettivo e non da quello culturale.

Ma se rifiutiamo la nota, dobbiamo comunque affrontare il problema del reperimento di unità sonore all'interno della totalità del mondo sonoro, di un criterio che ci permetta di segmentare il flusso dei suoni. Schaeffer si rivolge alla linguistica e in particolare alla fonologia.

Come è possibile reperire delle unità sonore all'interno di un discorso? La prima suddivisione a cui pensiamo è quella delle parole che nella nostra lingua ci appare evidentissima. Ma se ascoltiamo una lingua straniera, allora non ci è possibile distinguere una parola dall'altra: la lingua ci appare come un flusso di cui non siamo in grado di cogliere la minima articolazione. Siamo in grado di farlo solo quando possiamo ricorrere al senso. Non saremo in grado nemmeno di cogliere i fonemi, poiché essi sono, proprio come le parole, relativi alla loro funzione nell'insieme del sistema di una lingua.

Come nella lingua i parlanti sono in grado di riconoscere un certo fonema, così i membri di una particolare civiltà musicale sono in grado di riconoscere i tratti pertinenti (quelli che hanno una funzione nella struttura, cioè quei fonemi che vengono riconosciuti perché hanno una funzione rispetto al significato) e di essere sordi a quelli non pertinenti. Schaeffer ricorda, per esempio, come noi non sentiamo il rumore dell'attacco in un suono, che a volte è molto più forte del suono stesso. L'esempio dei fonemi ci conferma così l'insensibilità a delle variazioni acustiche, a volte veramente notevoli.

Cerchiamo ora di applicare questo discorso al nostro problema musicale: i tratti pertinenti saranno quei valori che emergono da più oggetti raggruppati in una struttura e costituiscono gli elementi del discorso musicale astratto; gli altri aspetti, non pertinenti nella struttura musicale ma che costituiscono per così dire la sostanza concreta, prendono il nome di caratteri.

Il valore, naturalmente, comincia a esistere in quanto tale solo nel momento in cui ci sono più oggetti e questi oggetti si differenziano in base alla variazione di una proprietà comune. Questa relazione valore/carattere postula che il valore non è una proprietà fissa degli oggetti ma piuttosto una funzione che può variare a secondo del contesto, del sistema, delle regole compositive, ecc. Quindi quando ascoltiamo dei caratteri, possiamo sempre immaginare che essi abbiano la possibilità di trasformarsi in valori in un'altra struttura, proprio come una variante fonetica diventa, in un'altra lingua, un fonema distinto.

Su queste basi teoriche prenderà l'avvio il progetto del solfeggio sonoro generalizzato, un tentativo di descrivere l'intero mondo sonoro a partire dal campo dei dati fenomenologici a cui Schaeffer ha tentato di ridurre l'universo musicale.

Si tratta di cercare di descrivere un suono senza utilizzare l'analogia o la sinestesia, ma costruendo un vero e proprio vocabolario tecnico peculiare che traduca fedelmente la trama, il materiale, il corpo del suono e che possa rendere conto della generalità dell'universo sonoro.

Il progetto, non completamente realizzato e con dei difetti strutturali profondi, verrà utilizzato nelle classi du musica elettroacustica ma non sarà mai considerato nella sua portata 'universalistica', cioè come nuovo alfabeto in grado di far scaturire una musica nuova.


4. Conclusioni

Ci si aspettava da quest'opera un grande dibattito: nel 1966, l'anno della sua uscita, gli argomenti che affrontava erano di grande attualità e la discussione sulla musica contemporanea era estremamente vivace. Il Traité invece lascia dietro di sé un grande silenzio: non riceve critiche aspre, ma non suscita neppure adesioni, non fa proseliti. I motivi possono essere molteplici e noi vogliamo citarne solo alcuni: la mole del trattato, la difficoltà di lettura, l'approccio interdisciplinare, la lentezza dimostrativa, l'uso di dottrine filosofiche ormai in decadenza in Francia nel periodo di uscita del libro.

Neanche la musica di Pierre Schaeffer ha avuto, proprio come il Traité e il suo autore, una grande fortuna: dopo il relativo successo dei primi concerti di musica concreta agli inizi degli anni Cinquanta, dovuto soprattutto alla novità e all'aspetto rivoluzionario dei suoi propositi, la musica concreta è sparita dalle scene europee senza lasciare eredi.

A Schaeffer si pensa come a un musicista legato a un certo tipo di musica d'epoca. Eppure noi crediamo nel Traité compaiano temi che sarebbe valsa la pena di non lasciar cadere.

Pensiamo per prima cosa al problema della percezione musicale: quando Schaeffer lavora alla sua monumentale opera la psicologia della forma era già stata quasi completamente abbandonata e prima di Schaeffer poco applicata al campo musicale. Quello che sembra rilevante, non è tanto l'applicazione della Gestalt alla percezione musicale, ma il significato che questa operazione comporta in Schaeffer.

Alla base della ricerca dell'autore c'è il desiderio di una rifondazione del musicale che consenta alla musica del Novecento di superare il momento di grave crisi in cui versa: l'accusa principale dell'autore è un'accusa di intellettualismo, di una ricerca rivolta solo alle strutture astratte in dimenticanza dell'aspetto percettivo, l'aspetto concreto del fenomeno musicale. Questo intellettualismo è il primo responsabile secondo Schaeffer di una incomprensibilità della musica: solo un'attenzione nei confronti delle strutture musicali percepite permetterà alla musica di 'parlare' agli uomini, di comunicare di nuovo con essi. Il tema della Gestalt ci sembra rivolto proprio a questo: un'analisi della struttura di percezione può portarci a capire come costruire la musica del futuro, una musica che deve prendere le mosse dalle capacità del nostro orecchio, dalla nostra possibilità di individuare le strutture d'ascolto.

Vogliamo anche raccogliere i temi dell'ascolto ridotto e dell'oggetto sonoro: queste sono le due nozioni-cardine di tutto il Traité, le nozioni dalle quali prende avvio la riflessione e attraverso le quali Schaeffer costruisce il suo edificio teorico. Sono in certo senso due concetti originali, anche se dichiarano apertamente la loro filiazione da Husserl e dalla fenomenologia.

Cominciamo dall'ascolto ridotto: nel suo significato generale, legato all'esperienza acusmatica, è un'immagine di grande fascino e che inizialmente sorprende favorevolmente il lettore. Sembra aprire prospettive mai intraviste fino ad ora, un approccio al mondo non solo musicale ma anche sonoro che non avevamo mai immaginato.

Se però ci avviciniamo a questa tematica con un occhio un po' più analitico, scopriamo subito che non siamo in grado di dire che cosa sia questo atteggiamento dell'ascolto ridotto.

Secondo Schaeffer consisterebbe in una operazione di decondizionamento dal nostro atteggiamento naturale (l'atteggiamento naturale consiste nell'attenzione verso il senso e verso gli indici): ma questo decondizionamento non sappiamo in che cosa consista. Come possiamo fare astrazione del senso e del riferimento alla causa energetica? Attraverso quale operazione? Che cosa dovrei 'sentire'? Come faccio a sapere quando sono in presenza di un oggetto sonoro? E se per caso non riuscissi a 'sentirlo'? Schaeffer ha creato una parola nuova, ma non ha saputo spiegarci che cosa la parola descrive, non ci ha messo in grado di imparare che cosa la parola descriva.

La nozione di ascolto ridotto non è però semplicemente un concetto vuoto, inutile: ha una sua funzione, più evocativa che logica o metodologica. Schaeffer, sempre in bilico tra molte discipline, alla fine ci appare come un inventore di storie, di suggestioni, un letterato, più che un filosofo. Infatti se l'ascolto ridotto dal punto di vista metodologico non spiega quello che dovrebbe spiegare, ci spinge comunque a prendere in considerazione il problema, sposta la nostra riflessione sulle modalità di ascolto. La sola evocazione dell'ascolto ridotto ci fa assumere un atteggiamento nuovo nei confronti del suono: un atteggiamento di attenzione maggiore, di stupore, di curiosità, come se ci trovassimo davanti a qualcosa di inesplorato, qualcosa di mai udito prima. «Un parola nuova è come un seme fresco gettato nel terreno della discussione»[8].

Anche la nozione di oggetto sonoro sottoposta ad analisi mostra ampiamente le sue falle: infatti l'oggetto nella sua prima definizione designa una relazione con il soggetto. Nella sua seconda accezione il concetto viene fissato invocando la pregnanza delle forme: l'oggetto viene definito a seconda della sua capacità di isolarsi rispetto a uno sfondo, di costituire un'unità percettiva. Nel passaggio dal sonoro al musicale, l'oggetto subisce un'altra trasformazione: l'oggetto sonoro acquista una funzione musicale, diventa un'unità funzionale. I tratti distintivi diventano pertinenti, l'oggetto sonoro diventa oggetto musicale. Ma nella nozione di oggetto, la pretesa era proprio quella di descrivere l'organizzazione percettiva senza tener conto della funzione nella catena sonora: nel momento in cui l'oggetto diventa oggetto musicale, non può essere più considerato come unità percettiva, ma diventa unità funzionale. Malgrado questo la nozione di oggetto sonoro, come quella di ascolto ridotto, sposta la nostra attenzione, ci apre nuove prospettive: il suono, da sempre considerato come 'qualcosa che rimanda ad altro', si libera dal suo legame con l'evento energetico che lo genera per diventare oggetto della nostra percezione, e in quanto oggetto è analizzabile e descrivibile.

Prendiamo infine in considerazione il progetto del solfeggio generalizzato: ci troviamo in grande imbarazzo nel dare un giudizio su un progetto che non è stato portato a termine e che a noi risulta di difficile comprensione a causa della mancanza totale di ascolto e pratica.

La morfologia e la tipologia degli oggetti sonori vengono considerate dai musicisti che si occupano di musica elettroacustica di grande utilità: noi però crediamo che il progetto di Schaeffer non voglia limitarsi ad essere una tecnica di descrizione adatta a un certo tipo di musica che si produce al di fuori di ogni notazione come quella prodotta in studio dal Group de Recherches Musicales (GRM). Pensiamo di poter affermare che la ricerca di Schaeffer fosse rivolta a un ripensamento molto più generale del sistema musicale occidentale e che il fine del solfeggio generalizzato, come lui stesso d'altra parte dichiara più volte nel corso del libro e nella sua lunga carriera di scrittore e ricercatore, sia quello di poter rendere conto di ogni tipo di musica, di poter descrivere la musica al di là della sua provenienza, della sua notazione particolare. Sembra che ci troviamo davanti alla ricerca di un linguaggio musicale universale, che precede i linguaggi musicali particolari. Per esprimerci utilizzando il dualismo caro a Schaeffer, un linguaggio che sia più vicino al polo naturale che a quello culturale. Se così fosse, dovremmo chiederci se si tratterebbe ancora di un linguaggio o se ci troveremmo in uno stadio prelinguistico. Ma questa domanda rimane senza risposta poiché Schaeffer non ha definito che cosa sia il linguaggio (cosa che ci sembra fondamentale nel momento in cui si vuole istituire un parallelismo) né ha risolto in modo esaustivo la comparazione tra musica e linguaggio.

Il Traité dunque è una costruzione disseminata di incompletezze, incongruenze, problemi mal posti o irrisolti. Certamente l'ambiziosità del progetto e la pretesa di interdisciplinarità sono tra le cause di una, più volte lamentata, mancanza di chiarezza: uno dei problemi di questo libro è che è troppo lungo, troppo vasto, troppo ambizioso.

Malgrado tutti questi rimproveri, siamo convinti che il lavoro di Schaeffer non debba essere dimenticato da coloro i quali affrontano la riflessione teorica sulla musica: le problematiche proposte dall'autore hanno in certo senso acquisito oggi maggiore attualità di quanto fossero al tempo della pubblicazione del Traité. Sicuramente il lettore degli anni Novanta troverebbe molto invecchiate le parti di psicoacustica e anche quelle sul lavoro in studio: i mezzi tecnici a nostra disposizione sono enormemente cambiati. Ma non crediamo che il Traité debba essere letto come un manuale che guidi la composizione di opere elettroacustiche, né pensiamo che possa essere in generale un manuale che possa interessare il compositore, sempre più rivolto verso gli aspetti artigianali, legato alla prassi compositiva, operazionale. Crediamo invece che l'ipotetico lettore degli anni Novanta possa essere il filosofo, il teorico della musica, colui al quale insomma è affidata la riflessione teorica sull'universo musicale.

Nel Traité troverà non solo un'importante testimonianza storica di quello che è stato il movimento concretista in Francia e tutta la temperie culturale di quegli anni, comprese le problematiche legate alla nascente musica elettronica, ma anche e soprattutto una grande voglia di rinnovamento, al di là della musica che in quegli anni Schaeffer componeva. Un rinnovamento che prescinde dalle circostanze storiche in cui il progetto è stato pensato e realizzato. Un'opera quindi che è nello stesso tempo molto datata e fuori dal tempo.

Per quanto riguarda le accuse di nostalgia e di reazione che sono state fatte a Schaeffer dagli stessi membri del GRM, non possiamo trovarci d'accordo. Il grande amore di Schaeffer per Bach e per la musica del passato in generale non hanno niente a che vedere con la sua riflessione sul rinnovamento del musicale. Se Schaeffer parla ancora di scale musicali, non è a causa di nostalgie nei confronti del passato musicale: siamo piuttosto inclini a credere che questo insistere sulle scale, cioè sulla struttura di riferimento, derivi da una convinzione teorica profonda che ha cercato di mostrare nel Traité ricorrendo alla psicologia della forma e alla nozione di campo percettivo naturale dell'orecchio: la musica, secondo Schaeffer, deve essere per prima cosa verificata dall'orecchio, dall'attività percettiva, che ha delle leggi di strutturazione dalle quali non possiamo prescindere.


Cristina Palomba




N OTE


[1] Pierre Schaeffer, Traité des objets musicaux, Seuil, Paris 1966, pagg. 16-17.

[2] ibid. pagg. 17-8.

[3] Noi pensiamo che questo atteggiamento derivi soprattutto dal fatto che il suono è per prima cosa un segnale: «Quando si ode un suono, l'istanza di identificare la cosa la cui esistenza è in qualche modo implicata in esso è tanto immediata e spontanea da far pensare che una simile istanza si radichi in profondità nel tessuto percettivo. (...) L'udire non si arresta dunque presso il suono, ma da esso lascia la presa per attivare quelle funzioni che subito si tendono per afferrare la cosa che nel suono si annuncia. Così, ciò presso cui indugia il nostro sguardo non è la mano tesa a indicare, e anche l'udire del suono che è soprattutto un segnale è un udire sfuggente, come lo sguardo dalla mano nella direzione che essa indica.» Giovanni Piana, Filosofia della musica, Guerini e Associati, Milano,1991, pagg. 75-6

[4] Pierre Schaeffer, Traité des objets musicaux, cit., pag. 77.

[5] Vorremmo sottolineare come Pierre Schaeffer insista sul senso iniziatico di questa esperienza che mette l'ascoltatore in grado di prendere coscienza della sua attività percettiva e dell'oggetto sonoro.

[6] Pierre Schaeffer, Traité des objets musicaux, cit., pag. 91

[7] Edmund Husserl, Logica formale e logica trascendentale, Laterza, Bari 1966, pag. 203.

[8] Ludwig Wittgenstein, Vermischte Bemerkungen, Surkamp Verlag, Frankfurt am Main 1977, trad. it. Pensieri diversi, Adelphi, Milano, 1980 pag. 19.



Questo testo è stato pubblicato nella rivista «Musica/Realtà», Anno XVIII, n. 52 - Marzo 1997 Edito dalla Libreria Musicale Italiana, pp. 65-78


Il Rumore


Scarica/Leggi il fiLe in PDF

Data Rilascio: 27 Ottobre, 2006
RUMORE BIANCO, ROSA, MARRONE
©2006 - Rilasciato da "exe"


Sommario


  • Rumore bianco - White Noise
  • Rumore rosa - Pink Noise
  • Rumore marrone - Brown Noise



Rumore bianco - White Noise:


  1. Alla lettera rumore bianco.
    E' rumore privo di periodicità e che contiene frequenze di tutto lo spettro sonoro ad uguale ampiezza. E' così detto in analogia con la luce bianca, che ugualmente contiene tutte le frequenze dello spettro luminoso.
  2. Si intende con questa dicitura un rumore di ampiezza costante su tutto lo spettro di frequenza. Si tratta di un rumore appositamente generato con finalità di test. Per vedere, infatti, il comportamento di un componente audio, per esempio di un canale di un mixer, si invia in ingresso un rumore bianco e si esamina il segnale di uscita. Generalmente l'obiettivo sarà quello di ottenere un segnale in uscita mediamente costante a tutte le frequenze, questo significherà che il componente è affidabile a tutte le frequenze.
  3. consiste di tutte le frequenze suonate contemporaneamente allo stesso volume.



Rumore rosa - Pink Noise:


  1. E' rumore privo di periodicità e che contiene frequenze di tutto lo spettro sonoro, ma, diversamente dal rumore bianco, ad ampiezza maggiore alle basse frequenze e minore alle frequenze alte, in modo da adattarsi alla sensibilità dell'orecchio umano, che è meno sensibile alle frequenze inferiori.
  2. Dato che il rumore bianco è costante a tutte le frequenze, vuol dire che l'energia associata ad ogni ottava non è costante. Per esempio l'energia compresa nella banda 20Hz-40Hz non sarà la stessa di quella della banda 5KHz-10KHz. Ovviamente quest'ultima banda avrà un'energia associata molto maggiore pur essendo sempre la larghezza pari a un'ottava in quanto il secondo intervallo di frequenze è molto più largo del primo; in altre parole contiene più frequenze dunque complessivamente più energia. Il rumore rosa, usato anch'esso con finalità di test, presenta un decremento di 3dB ogni volta che una frequenza viene raddoppiata. In questo modo l'energia associata ad ogni ottava rimane costante su tutto lo spettro. Viene comunemente utilizzato per la taratura di sistemi di rinforzo sonoro dove il rumore bianco risulta essere un segnale non rappresentativo del segnale audio che alimenterà il sistema di rinforzo stesso. Questo è dovuto al fatto che un segnale audio ha un contenuto di energia sulle alte frequenze minore rispetto alle basse frequenze e dunque viene mal rappresentato dal rumore bianco in cui l'energia associata ad ogni ottava è doppia rispetto all'ottava precedente.



Rumore marrone - Brown Noise:


    Il rumore marrone ha un andamento simile al rumore rosa, salvo per il fatto che si ha una caduta di 6 dB (invece di 3 dB) per ogni raddoppio di frequenza. A volte la scelta del segnale di test per un sistema di rinforzo sonoro può ricadere sul rumore marrone quando si vuole simulare una sollecitazione alle alte frequenze ancora minore.

Fare musica con il computer


Scarica/Leggi il fiLe in PDF

Data Rilascio: 2006
Tratto da XELENIO
2006 - Rilasciato da "Engeni.g"


Sommario


  • La natura dei suoni
  • Il suono digitale
  • I computer leggono la musica
  • Il computer alla regia del suono



Fondamenti di sintesi


Scarica/Leggi il fiLe in PDF

Data Rilascio: 2006
Tratto da SCONOSCIUTO
©2006 - Rilasciato da "Voltrek/Engeni.g"


Sommario


  • SOUND SOURCES
  • MODIFIERS
  • CONTROLLERS
  • MODULAZIONE E CONTROLLO DEL VOLTAGGIO
  • GATE e TRIGGER
  • ATTENUAZIONE DI MODULAZIONE
  • ATTENUATORI



Musica d'avanguardia


Scarica/Leggi il fiLe in PDF

Data Rilascio: 2006
Tratto da SCONOSCIUTO





Lezione di armonia


Scarica/Leggi il fiLe in PDF

Data Rilascio: 2006
Tratto da SCONOSCIUTO





SINTETIZZATORI E CAMPIONATORI


Data Rilascio: 27 Ottobre, 2006
LA DIFFERENZA TRA SINTETIZZATORI E CAMPIONATORI
©2006 - Rilasciato da "exe"



Sia i sintetizzatori che i campionatori sono generatori di suono. In genere, entrambi possono riprodurre i suoni a diverse "altezze", o pitch, e renderli utilizzabili dall'uomo per suonare qualsiasi pezzo musicale (canzone, arrangiamento, traccia, ecc...). La differenza tra i due dispositivi è il modo in cui ognuno di essi genera suono, o rumore.
Un sintetizzatore si avvale di un oscillatore per produrre suono. Un oscillatore è un circuito elettronico che crea una frequenza. (Si dice che in media l'essere umano sia in grado di percepire le frequenze che vanno da 20 a 20000 hertz). Un dispositivo di controllo che si può usare per dialogare con un oscillatore è la tastiera, in cui ad ogni tasto corrisponde una particolare altezza di una nota. Nei sintetizzatori moderni più oscillatori sono combinati insieme, per cui è possibile generare gli accordi, un gruppo di note suonate simultaneamente. Inoltre, alcuni oscillatori possono essere istruiti per modificare il comportamento di altri oscillatori.... Un oscillatore può suonare una frequenza standard, come la nota del do centrale di un pianoforte (4.40 KHz), usando una delle tante forme d'onda possibili; le più comuni sono l'onda sinusoidale (sine wave), la quadrata (square wave), la triangolare (triangular wave) e l'onda a dente di sega (sawtooth wave); ognuna di esse si adatta in modo diverso al nostro sistema di percezione acustica. Ognuna ha una propria struttura delle armoniche.
I sintetizzatori sono ottimi nel creare suoni artificiali, che non possono essere prodotti da nessuno strumento, nel senso tradizionale del termine, esistente; perché è relativamente facile manipolare elettronicamente gli oscillatori in modo da produrre effetti non duplicabili con gli strumenti tradizionali. D'altra parte, con i sintetizzatori si può agevolmente imitare il suono di uno strumento reale. Ma, in genere, ogni singolo oscillatore genera semplici e ripetitive forme d'onda, che non veicolano tutta quella complessità di uno strumento reale, con le sue armonie, melodie, sovrapposizioni, ecc....
I campionatori, per generare suono, utilizzano convertitori digitale – analogico (D/A Converters). Questi dispositivi convertono i valori digitali (successioni di 0 e 1), corrispondenti ad una qualsiasi forma d'onda, in segnali analogici: questi vengono inviati agli output sotto forma di impulsi elettrici e, attraverso le casse acustiche, danno luogo ad una successione di compressioni e rarefazioni delle molecole dell'aria: queste raggiungono il nostro apparato percettivo, in modo che possiamo sentire il suono dell'onda (ed eventualmente lo spostamento d'aria).. Campioni e convertitori corrispondono agli oscillatori dei sintetizzatori. Da dove provengono questi segnali digitali? Possono essere calcolati, quindi prodotti dal campionatore stesso, oppure possiamo immetterli nella macchina da una sorgente esterna (microfono o cavi audio). In quest'ultimo caso utilizzeremmo un convertitore analogico – digitale, che traduce nel linguaggio della macchina l'onda sonora, analogica, che noi introduciamo. I campionatori sono tutti dotati di convertitori sia D/A che A/D.

Manuale di Cooledit 1.2


Scarica/Leggi il fiLe in PDF

Ottimo software per l'Editing di FILE AUDIO
Tratto da Cooledit Site




Manuale di Virtual DJ 5.1 ENG


Scarica/Leggi il fiLe in PDF