I pregiudizi dell’intelligenza artificiale nella selezione dei candidati

Sembra il contrario del presupposto dell’intelligenza artificiale, e invece è così: anche una macchina può avere dei pregiudizi. Il delicato processo del machine learning dipende infatti dalla qualità dei dati con cui lo educhiamo, quindi non è raro che riproponga dei preconcetti comuni nella nostra società.

Per questo chi si occupa di intelligenza artificiale cerca costantemente di ideare nuovi sistemi di controllo dei pregiudizi, soprattutto quando questi possono penalizzare una categoria sociale piuttosto dell’altra. Un caso lampante è quello dell’uso di intelligenza artificiale per la selezione dei candidati per una posizione lavorativa.

Intelligenza artificiale e curriculum

Oggi possiamo delegare tantissime funzioni ripetitive e noiose a una macchina; ad esempio, la selezione di centinaia di curriculum. 

Perché il recruiter dovrebbe sfogliare a mano e analizzare ogni singola voce dell’esperienza professionale dei candidati, quando basta lanciare l’intelligenza artificiale e aspettare la risposta?

L’analisi dei candidati si può basare sul reperimento delle giuste competenze esplicitate nel curriculum, ma anche sulla sentiment analysis delle sezioni scritte a mano libera. Un campo ancora pionieristico, in Italia, mentre molte aziende estere già si sono abituate a questi meccanismi per la selezione del personale.

Il caso LinkedIn

Più conosciuto e usato dalle nostre risorse umane è senz’altro LinkedIn, che mette in comunicazione recruiter e candidati a una determinata posizione lavorativa. Da un lato, solo ai candidati ideali vengono suggerite determinate posizioni lavorative; dall’altro, i migliori tra questi candidati vengono “suggeriti” alle Risorse Umane. Una sorta di raccomandazione operata da un’intelligenza artificiale.

Intelligenza artificiale e discriminazione

Il problema è sorto quando LinkedIn si è accorta che questa selezione dava luogo a dei presunti pregiudizi.

L’intelligenza artificiale premiava quelli che tendevano a rispondere con più prontezza agli annunci di lavoro, oppure che raccontavano con più dovizia di dettagli le proprie esperienze passate, esaltando le competenze acquisite. O anche, veniva privilegiato chi si candidava a posizioni più ambiziose rispetto al ruolo attualmente ricoperto.

Con “privilegiati” si intende che questi candidati venivano mostrati nella bacheca di Linkedin del recruiter sotto la voce “profili consigliati”.

Quindi, qual era il problema? 

In sostanza, che questi candidati appartenevano tutti a un determinato gruppo sociale.

Correggere l’intelligenza artificiale con la parità statistica

Nell’ambito degli algoritmi applicati alla selezione di candidati ci si pone da anni il problema della parità statistica: è una teoria filosofico-informatica che prevede di rappresentare la demografia di un campione anche nei suoi vertici. 

Qui, gli idonei a una professione sono il campione, invece i “profili consigliati” al recruiter da LinkedIn sono i vertici.

Nella pratica, ciò significa che se nel gruppo di candidati idonei a una professione c’è un 10% di un determinato gruppo sociale, e se sui 10 candidati suggeriti al recruiter non ce n’è nemmeno uno di questo gruppo sociale, allora l’intelligenza artificiale applicherà un correttivo, inserendone uno (10%).

Questo almeno è ciò che si impegna a fare LinkedIn da questo momento in poi.

Possiamo dire che i pregiudizi della programmazione dell’intelligenza artificiale vengano corretti da ulteriore intelligenza artificiale.

Programmazione dell’intelligenza artificiale e meritocrazia

L’idea che sta alla base di questo correttivo potrebbe essere che il machine learning è ancora troppo grezzo per essere meritocratico. 

A volte i risultati del machine learning sfuggono al nostro controllo, e se si parla di contesti sociali il rischio è che la macchina sviluppi quella che in statistica e nell’osservazione di laboratorio scientifica si chiama distorsione (bias). LinkedIn è già un caso piuttosto virtuoso, perché i vertici aziendali dichiarano che l’algoritmo è cieco rispetto a genere, appartenenza etnica e fotografia. Invece, in altri meccanismi di selezione di risorse umane questa cecità non viene necessariamente dichiarata.

Per questo la grande sfida per gli algoritmi intelligenti è quella di premiare davvero il merito, evitando pregiudizi che derivano magari dall’abitudine umana, dalla nostra storia, e dalle nostre convinzioni personali.

 

È importante perseguire questo obiettivo perché oggi diventa molto difficile rinunciare ai vantaggi che l’intelligenza artificiale apporta alle aziende.

Nel settore delle Risorse Umane abbiamo non solo l’aiuto dell’IA nella selezione dei curriculum, ma anche anche pratiche di gamification per incentivare il lavoro di gruppo, o per formare le nuove risorse, o anche per raccogliere informazioni di base sui candidati ad alcune posizioni lavorative. 

Insomma, non dobbiamo disegnare un alleato robotico. 

Spetta però all’intelletto umano programmarlo correttamente.