Creatività musicale nell’epoca degli algoritmi
Dialogo con Pierluigi Bontempi su ricerca scientifica e intelligenza artificiale nella musica

Nel panorama contemporaneo della produzione musicale digitale il dialogo tra tecnologia, ricerca scientifica ed espressività artistica non è più un territorio di confine ma uno spazio centrale di sperimentazione e riflessione critica. In questo contesto si inserisce il lavoro di Pierluigi Bontempi, studioso e docente impegnato da anni nell’ambito della produzione audio, della modellazione computazionale dell’espressività musicale e dei sistemi generativi applicati alla pratica strumentale.
Autore del volume Produzione audio e musicale con Cubase. Percorso teorico e pratico dalle basi ai concetti avanzati, Bontempi coniuga una solida esperienza didattica — maturata anche nei corsi certificati Steinberg — con una ricerca che si muove tra intelligenza artificiale, performance musicale ed elaborazione algoritmica del gesto strumentale. Il suo percorso è, inoltre, strettamente legato al Centro di Sonologia Computazionale, uno dei poli italiani più autorevoli nel campo della music technology e della ricerca interdisciplinare.
L’intervista che segue affronta temi cruciali per chi oggi opera o studia nell’ambito musicologico e tecnologico: l’evoluzione della didattica digitale, il ruolo dell’AI nei processi creativi, la modellazione dell’espressività musicale, le prospettive future dei software professionali come Cubase. Ne emerge un quadro lucido e non ideologico, che riconosce le potenzialità degli strumenti algoritmici senza smarrire la centralità dell’esperienza umana nell’atto musicale.
Un confronto che invita a riflettere non solo su come si produce musica oggi, ma su cosa significhi — in un’epoca di automazione crescente — interpretarla, comprenderla e trasmetterla.

Chi è Pierluigi Bontempi
Pierluigi Bontempi è laureato in musicologia e ha conseguito il Dottorato in Ingegneria dell’Informazione con una tesi sull’espressività musicale computazionale. Ha pubblicato articoli scientifici su riviste di primo piano a livello internazionale. È trainer Steinberg certificato dal 2015. Ha tenuto corsi di produzione musicale, mix e mastering in università e accademie e corsi di aggiornamento per docenti dei licei musicali. Ha pubblicato il manuale best seller “Produzione audio e musicale con Cubase”, LSWR 2024. Ha curato le traduzioni italiane di testi fondamentali per la formazione di fonici e produttori, per l’editore Volontè & Co. Collabora con il portale specializzato per professionisti del suono https://www.audiofader.com/. Ha prodotto brani musicali per videomaker, televisione, library.
L’intervista
Nel 2020 ho partecipato ai tuoi corsi su Cubase al Dipartimento di Musicologia: ricordo un clima molto pratico e innovativo. Guardando oggi a quell’esperienza, cosa pensi abbia comportato in termini di crescita e sperimentazione digitale?
I corsi di produzione musicale con certificazione Steinberg sono mirati a formare professionisti, o comunque appassionati, in grado di utilizzare i software della casa tedesca al meglio, comprendendoli appieno e sfruttandone le tante potenzialità. Sta all’utilizzatore trarne il meglio per concretizzare effettivamente le proprie visioni sonore. In questo senso direi che crescita e sperimentazione stanno più che altro nell’uso che chi segue i corsi poi fa dei software. Di per sé Cubase, come anche i software concorrenti, sono solo strumenti di lavoro. Cerco di dare a chi frequenta i miei corsi una comprensione chiara dei meccanismi di base della produzione; da lì in poi il bello è trovare la propria strada e la propria voce, con la sicurezza data da un background solido.
In termini più generali, credo che i miei corsi, come anche quelli di tanti validi colleghi, abbiano aiutato a far crescere la comprensione e l’uso della tecnologia audio nelle scuole, considerato che c’è sempre stato molto interesse da parte degli insegnanti.
Sei autore di diversi manuali su Cubase. come hai visto cambiare negli anni la didattica della produzione musicale digitale?
In realtà i miei diversi libri su Cubase di cui si trova traccia sul web sono fondamentalmente sempre lo stesso progetto, che nel corso degli anni si è arricchito ed è stato aggiornato man mano che uscivano nuove release del software. Attualmente in commercio c’è solo l’ultima versione, Produzione audio e musicale con Cubase. Percorso teorico e pratico dalle basi ai concetti avanzati, edita da LSWR (2024). Fa riferimento a Cubase Pro 13, ma non è cambiato moltissimo nelle versioni successive. Quantomeno, Cubase non è cambiato in modo da rendere inutilizzabile il testo; ovviamente ci sono stati aggiornamenti e nuove funzioni. Non mi sembra che la didattica della produzione musicale digitale abbia subito grandi stravolgimenti ultimamente. Le cose essenziali da sapere restano sempre le stesse, e in fin dei conti sono quelle che bisognava conoscere anche nell’era predigitale.
Di “nuovo” ci sono forse l’AI e l’audio immersivo, nel senso che se ne parla sempre di più anche a livello applicato e formativo, ma nessuno dei due è realmente nato di recente. L’audio immersivo in particolare non è di per sé cosa nuova, anzi. Diciamo che si sta diffondendo, e anche i percorsi formativi lo tengono più in considerazione rispetto al passato. L’AI, come principi classici di funzionamento, c’è da decenni. Quello che è cambiato è che ora c’è sufficiente potenza di calcolo per implementarla davvero, anche a livello commerciale. Ovviamente è un campo in continua evoluzione, non voglio dire che l’unica differenza col passato sia l’hardware. Teniamo conto che il primo documento ufficiale a cui si riconduce tradizionalmente l’avvio delle ricerche sull’intelligenza artificiale è del 1955 (Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, J. McCarthy et al.).
Nei tuoi studi sull’Expressive Music Performance, quali aspetti dell’espressività musicale trovi più difficili da modellare dal punto di vista computazionale?
È un’ottima domanda, a cui non è facile rispondere! Tra la ricca letteratura sull’argomento trovo molto a fuoco il paper Understanding biomechanical constraints for modelling expressive performance: A guitar case study, di Leandro Costalonga et al. (Journal of New Music Research, 48(4), 331–351). Gli autori distinguono tra due famiglie di modelli, quelli che analizzano il risultato sonoro, confrontandolo con lo spartito, e quelli che studiano i processi interni del musicista (mentali e fisici) per capire le scelte interpretative e i vincoli biomeccanici o mentali del performer. Se si hanno spartiti e performance tutto sommato siamo nel campo in cui l’AI si trova più a suo agio, è relativamente semplice ottenere materiali su cui fare training e tramite cui individuare schemi o dipendenze e interazioni ricorrenti. Personalmente trovo molto più complesso e sfuggente il secondo approccio, ma anche più affascinante.

Nel tuo sistema generativo per le tablature di chitarra elettrica introduci diteggiature e scelte stilistiche molto realistiche. Quali sono state le sfide maggiori nel tradurre il “gesto chitarristico” in un algoritmo?
Il problema è stato posto in termini di ottimizzazione e vincoli, grazie anche alla collaborazione con il Prof. Daniele Manerba dell’Università di Brescia, un esperto del settore. Molto semplicemente, ci sono cose che fisicamente un chitarrista non può fare, e quelle soluzioni vengono scartate automaticamente. Inoltre, tra le diteggiature fattibili ce n’è sempre una meno “faticosa”, e il sistema sceglie quella. Si premiano le diteggiature che generano meno spostamenti della mano lungo il manico ad esempio, o la riduzione dei passaggi in cui vanno divaricate molto le dita.
Secondo te, in che modo l’intelligenza artificiale può supportare — senza sostituirla — la creatività del musicista?
Mi piacerebbe vedere più sistemi che supportino la creatività partendo da bozze generate dall’utente, magari offrendo diversi possibili modi per proseguire un tema, o diverse armonizzazioni di una melodia. Mi sembra che invece si punti molto sulla generazione da zero basata su prompt testuale. Può essere divertente, e utilissimo quando serve al volo della musica per qualche scopo specifico (tipo “musica rilassante per SPA”), ma spero che non diventi questo il nuovo modo di produrre musica, si butterebbe il 99% di quello che rende questa attività fonte di soddisfazione e piacere. Oltretutto, almeno al momento, mi sembra che quello che produce l’AI sia più che dignitoso, sicuramente migliore di quanto saprebbe fare almeno una buona metà dei musicisti in circolazione (tutti inclusi, non parlo dei soli professionisti), ma di gemme vere ne ho sentite ben poche, anzi nessuna se devo essere sincero.
Dal tuo punto di vista, quali competenze dovrebbero sviluppare oggi gli studenti di musicologia per prepararsi a un futuro sempre più digitale?
La musicologia è lo studio accademico della musica, e non va confusa con lo studio del canto, di uno strumento o della composizione, ad esempio. Premesso questo credo sarebbero fondamentali competenze sulla codifica simbolica della musica (mi riferisco a Music Encoding Initiative – MEI, MusicXML ecc.), la comprensione di cosa sono e come vanno acquisiti, elaborati e conservati i dati digitali, una conoscenza anche di massima degli strumenti tecnologici comunemente utilizzati per la produzione musicale (dai linguaggi di programmazione grafica come Pure Data e Max MSP a DAW e editor tradizionali, campionamento, sintesi e così via).
Hai collaborato con il Centro di Sonologia Computazionale dell’Università di Padova. Che ruolo hanno avuto queste collaborazioni nel tuo percorso di ricerca?
In realtà tutto il mio percorso di ricerca è legato al CSC e ai collegamenti nati durante le mie ricerche a Padova. È un centro d’eccellenza, in cui si integrano senza remore competenze ingegneristiche, musicali, musicologiche, psicologiche e molto altro. Si tratta veramente della realizzazione tangibile della multidisciplinarietà o interdisciplinarietà di cui spesso si parla ma che altrettanto spesso restano solo buone intenzioni. In tutto questo ha avuto un ruolo cardine il Prof. Sergio Canazza, direttore del CSC e docente del Dipartimento di Ingegneria dell’Informazione (DEI) dell’Università di Padova, che non posso che ringraziare di cuore.
I tuoi modelli generativi cercano di imitare l’espressività umana. Pensi che un algoritmo possa davvero arrivare a “interpretare” un brano?
Qui andiamo sul filosofico! Può farlo? Certo! A seconda dei modelli e del materiale a cui vengono applicati potremo avere una qualità e un realismo (inteso in stile test di Turing) più o meno pregevoli, ma di sicuro è una cosa fattibile. Continueremo a preferire i performer umani? Ne sono quasi certo, se si parla di grandi interpreti. Se invece si tratta di ottenere una performance virtuale credibile e tutto sommato piacevole, credo che l’AI già sappia farlo in modo egregio in buona parte dei casi. Non va dimenticato poi che come la musica ci arriva e ci emoziona dipende dall’interazione tra noi e lo stimolo sonoro (e degli altri sensi se coinvolti), non ci si può limitare a osservare la resa sonora della performance virtuale e pensare che… sia finita lì. Entra in gioco tutta una serie di dinamiche complesse anche dopo l’esecuzione, che possono avere un’influenza notevole sul risultato finale.
Come immagini l’evoluzione futura dei software di produzione musicale come Cubase? L’IA diventerà una parte stabile del workflow creativo?
È una bella domanda. Da un lato il nuovo mondo dell’AI generativa basata su prompt, dall’altro la libertà data dall’essere in grado di creare musica capendone davvero il funzionamento. Probabilmente si andrà verso un’integrazione delle due cose, almeno nei software professionali, ma non vorrei essere nei panni di chi deve pianificare le prossime versioni di Cubase o software simili in questo momento. Il rischio di sbilanciarsi troppo verso l’una o l’altra sponda è molto alto.
Stai lavorando a nuovi progetti di ricerca o a nuove pubblicazioni? Puoi anticipare qualcosa?
Ci provo, ma il tempo è davvero tiranno! Ad ogni modo si tratta di un’evoluzione del sistema di generazione automatica delle diteggiature chitarristiche di cui abbiamo parlato, e di un ambiente Web per la valorizzazione della collezione di rulli per autopiano del Dipartimento di Musicologia e Beni Culturali dell’Università di Pavia, dove lavoro. Per ora posso dire questo.

Grazie PierLuigi, mai dire mai, magari ci rivedremo per un altro corso…
Francesco Pintaldi
