L’algoritmo empatico: Come l’AI riconosce il talento


Hai passato anche tu notti insonni per capire come rendere il tuo CV perfetto e conforme al lavoro dei tuoi sogni, ma al primo step l’AI dell’azienda per cui ti stai candidando non ti designa come futuro talento da portare a bordo? Com’è possibile tutto questo?

Sono sempre di più le grandi aziende che hanno iniziato a utilizzare l’intelligenza artificiale nei processi di recruiting. Non solo brevi interviste con ologrammi programmati per porre le solite domande, ma anche strumenti che intervengono nella fase di analisi delle competenze e nella scelta finale. Ciò che oggi importa agli HR manager non è soltanto l’elenco delle hard skill di un candidato, bensì tutto l’ecosistema di soft skill che ha maturato: la capacità di apprendere, di comunicare, di collaborare e di pensare in modo critico e non convenzionale. È proprio per questa serie di ragioni che si parla sempre più spesso di AI empatica o di interpreting AI. Questa nuova frontiera dell’intelligenza artificiale consente di scorgere più a fondo il capitale cognitivo latente delle persone.
In fondo, è proprio questa la chiave per identificare un talento: riuscire a essere brillanti in contesti imprevisti, grazie a una riserva nascosta di creatività, curiosità e capacità di apprendimento.

MA COME FUNZIONA?

I nuovi algoritmi di recruiting si basano essenzialmente su tre elementi: Natural Language Understanding (NLU), Gamified Assessment e Behavioural Analytics. Se in passato il NLU si limitava a un conteggio delle parole da comparare con quelle presenti nel CV, oggi è in grado di analizzare le scelte semantiche, la varietà lessicale e il ritmo del linguaggio attraverso interazioni in chat o durante un colloquio. Questa tecnologia rappresenta quindi un primo metodo per identificare la flessibilità mentale e la capacità comunicativa di un candidato in modo chiaro e preciso. Sempre più spesso, durante l’iter di candidatura per una posizione lavorativa, ci si trova di fronte a giochi logici o test interattivi. All’apparenza possono sembrare esercizi complessi quanto i test di riconoscimento dei bot online, ma in realtà questi strumenti garantiscono una maggiore chiarezza e veridicità rispetto ai classici quiz di personalità, in cui è semplice alterare le risposte. Un esempio concreto è rappresentato dai “Pymetrics Games”, un set di dodici minigiochi attraverso cui complessi algoritmi di AI raccolgono informazioni sui candidati. Questo tipo di valutazione è stato adottato da tempo da grandi aziende come JP Morgan, BCG e AstraZeneca, che devono gestire centinaia di screening. In questo processo, l’intervistato viene valutato per le sue azioni e comportamenti: basta un clic, una scala di priorità o il tempo di risposta per capire se il famoso capitale cognitivo latente è in grado di renderlo brillante, anche quando lui stesso non se ne accorge. L’utilizzo congiunto di queste tre tecnologie costituisce spesso la base di framework che aiutano le aziende a monitorare competenze e potenziali utili non solo in fase di selezione, ma anche per future strategie di sviluppo e miglioramento. Un esempio di questo tipo è il Watson Talent Framework, un software di gestione dei talenti creato dalla multinazionale americana IBM e adottato da numerose compagnie in tutto il mondo.

TUTTO BELLISSIMO, MA È ETICO?

Se da un lato questo scenario può sembrare una distopia orwelliana, dall’altro apre un importante dibattito etico. L’AI empatica, infatti, non nasce da sola: viene programmata e aggiornata dalle stesse aziende che la utilizzano. È proprio qui che risiede il rischio maggiore. Un HR umano può essere, anche inconsapevolmente, bias nei confronti di un CV o di un candidato, anche in modo non intenzionale. In questo senso, l’AI potrebbe teoricamente porsi come garante di neutralità, minimizzando bias e discriminazioni tipiche di alcune politiche aziendali.

Tutto sembra quadrare alla perfezione, ma se un’azienda bias programma la propria AI empatica con dati bias, questa, per transitività, finirà inevitabilmente per replicare gli stessi pregiudizi.
Il problema diventerebbe quindi più profondo: a furia di iterare dati storici errati, la macchina imparerebbe da essi e li assumerebbe come database di riferimento, amplificando ulteriormente la distorsione.

Per evitare che l’AI diventi un amplificatore di bias, le aziende stanno imparando a educarla.
È in questo contesto che si colloca la discussione etica sull’uso dell’intelligenza artificiale nei processi decisionali legati alle persone.

Per rispondere a questa sfida, stanno nascendo pratiche di ethical training data e approcci diversity-by-design, in cui la diversità non è un filtro esterno ma un parametro intrinseco del codice. Il data auditing è uno dei metodi più semplici per affrontare il problema dei bias: i dati con cui l’AI viene costruita e addestrata vengono analizzati e controllati in anticipo, per garantire la massima neutralità.
Il diversity-by-design, invece, prevede che la diversità sia impiegata come principio strutturale della macchina. Con questo metodo i sistemi di AI vengono programmati fin dall’inizio per elaborare dati che presentano differenze linguistiche, culturali e sociali, in modo da rispondere correttamente a input “fuori standard” e considerare la diversità come valore aggiunto per l’azienda. Un esempio di implementazione particolarmente attenta all’etica è quello di Reejig, piattaforma australiana utilizzata da gruppi come KPMG e AWS per la gestione dei talenti e le strategie di reskilling.
L’azienda è stata la prima al mondo a ricevere la certificazione di “Ethical AI System”, rilasciata da ForHumanity, un’organizzazione indipendente che valuta e accredita i sistemi di intelligenza artificiale secondo criteri di equità, trasparenza, privacy e accountability.

ORA FACCIAMO UN BILANCIO

L’intero dibattito, le diverse tecnologie e gli esempi citati finora portano a una riflessione che richiama le stesse soft skill citate in apertura. L’AI, per sua natura, non è una macchina empatica: può certamente imparare a esserlo, ma solo se qualcuno la addestra, proprio come un candidato allena le proprie soft skill. Risolte le principali insidie, l’AI empatica offre davvero dei vantaggi?
Basti pensare al tempo risparmiato rispetto alle classiche operazioni condotte da un HR umano. Questi ultimi, grazie all’AI, possono concentrarsi sull’interazione umana con il candidato e prestare reale attenzione al suo storytelling personale. L’AI diventa così un partner di collaborazione, non un giudice che elabora numeri e parole. Anche il processo decisionale finale risulta più semplice e meno gravoso.

Ecco come, in poche righe, l’etica, da sempre considerata il nemico giurato dell’AI, diventa una sua caratteristica imprescindibile. Una tecnologia ancora in fase embrionale, certo, ma che apre a sterminate possibilità di innovazione. Due mondi apparentemente antitetici, la ricerca di talenti e l’intelligenza artificiale, oggi si fondono in un’empatia ancora tutta da scoprire e studiare.
Insomma trovarsi di fronte a un ologramma durante un colloquio potrebbe non essere più così alienante come sembra.

A questo punto il vero salto evolutivo non è quello dell’intelligenza artificiale, ma il nostro: imparare a fidarci dei dati senza smettere di ascoltare le persone. L’AI ci sta insegnando che il talento non è una somma di competenze, ma una forma di curiosità inesauribile. E in questo dialogo tra algoritmo e umanità, ciò che conta non è chi giudica meglio, ma chi sa ancora sorprendersi di fronte al potenziale umano.

© RIPRODUZIONE RISERVATA