“Per regalo voglio un harmonizer con quel trucco che mi sdoppia la voce”, cantava Giuni Russo nel 1982 con la sua “Un’estate al mare”. Proprio quell’harmonizer era per l’epoca uno strumento di elaborazione del suono che offriva a cantanti e musicisti la possibilità di giocare con le note e con la voce.
Oggi, a distanza di oltre quarant’anni, gli addetti ai lavori del mondo della musica hanno possibilità ben più ampie di scelta, anche grazie all’arrivo di software che utilizzano come fonte di elaborazione l‘intelligenza artificiale. E così le sette note e il pentagramma sembrano non avere più confini.
Da Zaripov a Cope, i primi esperimenti di musica “artificiale”
Di intelligenza artificiale nel mondo della musica si è iniziato a parlare già nei primi anni Sessanta, quando il ricercatore russo R. Kh. Zaripov pubblicò un articolo sulla composizione di musica basandosi sul computer Ural-1. Nel suo testo si legge che “l’avvento delle macchine elettroniche digitali ha portato a un ampliamento della gamma di problemi non matematici che consentono la descrizione e la modellazione algoritmica sulle macchine, in particolare sui processi associati all’attività creativa umana“.
Tra questi, “il tentativo di creare un algoritmo che imiti in qualche modo il processo di composizione musicale è molto interessante”. Dopo Zaripov, sono stati numerosi i tentativi di comporre musica in maniera “artificiale”, superando il processo creativo che passa attraverso voce e mani.
Tra i più noti c’è l’esperimento dello studioso e compositore americano David Cope, che negli anni Novanta ideò programmi basati su algoritmi per l’analisi musicale, come il software EMI – Experiments in Musical Intelligence. Con l’album Classical Music Composed by Computer del 1997, Cope riesce a creare brani di musica classica ispirati a compositori come Bach, Chopin e Mozart.
Anni 2000, tra ricerca e studio
Anche nel nuovo millennio, il campo della musica è stato fonte di studio e ricerca. Tra i principali esperimenti c’è MorpheuS, sistema di generazione automatica di musica, sviluppato dalle professoresse Dorien Herremans e Elaine Chew.
Simile è anche il funzionamento di Aiva, “assistente di generazione musicale basato sull’intelligenza artificiale che permette di generare nuove canzoni in pochi secondi in oltre 250 stili diversi”. Il fondatore di questa piattaforma, che offre piani di abbonamento diversi a seconda delle esigenze dell’utente, è Pierre Barreau, compositore e informatico.
L’idea di creare Aiva “è nata dopo aver visto il film Her, in cui un’intelligenza artificiale compone un bellissimo brano per pianoforte che cattura l’essenza del momento che sta vivendo”.
Pop-star made in pixel
A rendere ancora più affascinante il rapporto tra musica e AI c’è poi l’aspetto legato a vere e proprie pop-star create passando attraverso un computer. Come Noonoouri, influencer e cantante, che vanta oltre 400mila followers su Instagram e migliaia di visualizzazioni su Youtube, grazie a brani come Dominoes e Release me.
Oppure i Velvet Sundown, band indie composta da Gabe Farrow, Lennie West, Milo Rains e Orion “Rio” Del Mar, che in realtà non esiste. All’attivo due album, un terzo in uscita, i quattro componenti rilasciano numerose interviste e hanno conquistato moltissime playlist sulle principali piattaforme grazie a Dust on the wind e Drift beyond the flame.
L’ultimo brano dei Beatles? È del 2023
Nel novembre 2023 la notizia della pubblicazione del brano “Now And Then” firmato Beatles suscitò la curiosità di fan e non solo. Il singolo, creato proprio grazie all’intelligenza artificiale, rappresenta ad oggi l’ultima canzone della band, nonché la prima canzone creata con il supporto dell’intelligenza artificiale a essere nominata a un Grammy Award.
Come si legge nella descrizione del brano inserita su Youtube, “il demo di John Lennon, a lungo mitizzato, fu elaborato per la prima volta nel febbraio 1995 da Paul, George e Ringo nell’ambito del progetto The Beatles Anthology, ma rimase incompiuto, in parte a causa delle impossibili sfide tecnologiche legate alla lavorazione della voce che John aveva registrato su nastro negli anni ’70”.
Nel 2022 poi “un sistema software sviluppato da Peter Jackson – premio Oscar e regista de Il Signore degli anelli – e dal suo team aprì finalmente la strada alla separazione della voce di John dalla sua parte di pianoforte. Di conseguenza, la registrazione originale poté essere riportata in vita e rielaborata con il contributo di tutti e quattro i Beatles”.
Non ci resta che dire Let it be. Pardon, Let AI be.