In un mondo dominato da interessi multipolari, può un algoritmo – forte della sua sofisticazione – essere applicato alla diplomazia, alla geopolitica, al lobbying e alla governance senza sollevare questioni di carattere etico?
L’intelligenza artificiale tra supporti e nuove opportunità
Come tutti i mezzi tecnologici, anche l’intelligenza artificiale, nella sua implementazione quotidiana, può assumere connotazioni differenti a seconda dell’utilizzo di volta in volta previsto: se talvolta sgrava l’operato tecnico umano, esistono comunque casistiche in cui la compresenza di entrambe le forze continua ad essere essenziale per indirizzare l’effetto da sortire.
Assodati i benefici riscontrabili nella medicina, nell’ingegneria e nella componentistica industriale, la sfida diventa ora elevata: non solo automatizzare processi decisionali fino ad ora di competenza umana, ma soprattutto riuscire laddove l’umanità – a vario titolo – non è mai arrivata. In termini pratici, distribuire equamente le risorse di cui disponiamo e superare disuguaglianze sociali, sfide che da decenni competono alla politica, intesa letteralmente quale amministrazione della cosa pubblica.
Il rapporto con la politica
Arte del compromesso per eccellenza, oltre a contemplare istanze collettive, quest’ultima si serve anche di una visione a lungo termine, essenziale per programmare interventi strutturali. In un’ottica di massimizzazione dei risultati, l’implementazione dell’intelligenza artificiale riuscirebbe a ridurre i tempi dedicati allo studio e all’analisi dei fenomeni in oggetto, restituendo alla classe dirigente una valutazione di scenario repentina.
I problemi e le soluzioni
D’altro canto, occorre tenere in considerazione la multidisciplinarietà insita nelle stesse questioni geopolitiche: soltanto una conoscenza approfondita in ambito economico, giuridico e sociale può assicurare una rendicontazione oggettiva e imparziale funzionale all’incontro tra “domanda” e “offerta”. Entrano qui in gioco eventuali bias correlati all’utilizzo dell’IA, fenomeni che – calati in contesti sensibili, quali le trattative internazionali, ed in assenza di interventi correttivi – possono rivelarsi fatali.
L’AI Act europeo intende lavorare proprio su questi aspetti, stabilendo limiti ben definiti per evitare derive autoritarie. Sulla stessa linea anche il Center for AI and Digital Policy, secondo cui l’intelligenza artificiale, applicata alla governance, deve “rispettare principi di trasparenza, responsabilità e giustizia”.
L’importanza degli stati emotivi
Non meno importante è un elemento ravvisabile soprattutto in diplomazia e nel lobbying e che, più di altri, caratterizza l’essenza umana, l’empatia. Di qui un ulteriore rilievo da effettuare: un algoritmo, seppur efficiente, può “prendere posto” nei più importanti tavoli decisionali avendo cura di cogliere stati emotivi talvolta subliminali, ma non per questo poco importanti? In parte, questo interrogativo trova riscontro positivo in una ricerca promossa da Zaira Romeo, del CNR, e da Alberto Testolin, dell’Università di Padova: secondo lo studio, l’intelligenza artificiale generativa è in grado di emulare reazioni emotive spiccatamente umane. Anche in questo caso, permangono punti critici legati ai bias interpretativi che, uniti alle differenze culturali, possono addirittura compromettere definitivamente l’esito di una trattativa.
In attesa di capire meglio come rendere ancora più efficiente l’intervento umano in tali contesti, occorre evitare di confidare totalmente nella presunta superiorità tecnologica e, parimenti, rinunciare alle prerogative strettamente tecniche ed operative.