I pregiudizi dell’intelligenza artificiale nella selezione dei candidati

29 Giugno 2021

Sembra il contrario del presupposto dell’intelligenza artificiale, e invece è così: anche una macchina può avere dei pregiudizi. Il delicato processo del machine learning dipende infatti dalla qualità dei dati con cui lo educhiamo, quindi non è raro che riproponga dei preconcetti comuni nella nostra società.

Per questo chi si occupa di intelligenza artificiale cerca costantemente di ideare nuovi sistemi di controllo dei pregiudizi, soprattutto quando questi possono penalizzare una categoria sociale piuttosto dell’altra. Un caso lampante è quello dell’uso di intelligenza artificiale per la selezione dei candidati per una posizione lavorativa.

Intelligenza artificiale e curriculum

Oggi possiamo delegare tantissime funzioni ripetitive e noiose a una macchina; ad esempio, la selezione di centinaia di curriculum. 

Perché il recruiter dovrebbe sfogliare a mano e analizzare ogni singola voce dell’esperienza professionale dei candidati, quando basta lanciare l’intelligenza artificiale e aspettare la risposta?

L’analisi dei candidati si può basare sul reperimento delle giuste competenze esplicitate nel curriculum, ma anche sulla sentiment analysis delle sezioni scritte a mano libera. Un campo ancora pionieristico, in Italia, mentre molte aziende estere già si sono abituate a questi meccanismi per la selezione del personale.

Il caso LinkedIn

Più conosciuto e usato dalle nostre risorse umane è senz’altro LinkedIn, che mette in comunicazione recruiter e candidati a una determinata posizione lavorativa. Da un lato, solo ai candidati ideali vengono suggerite determinate posizioni lavorative; dall’altro, i migliori tra questi candidati vengono "suggeriti" alle Risorse Umane. Una sorta di raccomandazione operata da un'intelligenza artificiale.

Intelligenza artificiale e discriminazione

Il problema è sorto quando LinkedIn si è accorta che questa selezione dava luogo a dei presunti pregiudizi.

L'intelligenza artificiale premiava quelli che tendevano a rispondere con più prontezza agli annunci di lavoro, oppure che raccontavano con più dovizia di dettagli le proprie esperienze passate, esaltando le competenze acquisite. O anche, veniva privilegiato chi si candidava a posizioni più ambiziose rispetto al ruolo attualmente ricoperto.

Con “privilegiati” si intende che questi candidati venivano mostrati nella bacheca di Linkedin del recruiter sotto la voce “profili consigliati”.

Quindi, qual era il problema? 

In sostanza, che questi candidati appartenevano tutti a un determinato gruppo sociale.

Correggere l’intelligenza artificiale con la parità statistica

Nell’ambito degli algoritmi applicati alla selezione di candidati ci si pone da anni il problema della parità statistica: è una teoria filosofico-informatica che prevede di rappresentare la demografia di un campione anche nei suoi vertici. 

Qui, gli idonei a una professione sono il campione, invece i “profili consigliati” al recruiter da LinkedIn sono i vertici.

Nella pratica, ciò significa che se nel gruppo di candidati idonei a una professione c’è un 10% di un determinato gruppo sociale, e se sui 10 candidati suggeriti al recruiter non ce n’è nemmeno uno di questo gruppo sociale, allora l'intelligenza artificiale applicherà un correttivo, inserendone uno (10%).

Questo almeno è ciò che si impegna a fare LinkedIn da questo momento in poi.

Possiamo dire che i pregiudizi della programmazione dell’intelligenza artificiale vengano corretti da ulteriore intelligenza artificiale.

Programmazione dell’intelligenza artificiale e meritocrazia

L’idea che sta alla base di questo correttivo potrebbe essere che il machine learning è ancora troppo grezzo per essere meritocratico. 

A volte i risultati del machine learning sfuggono al nostro controllo, e se si parla di contesti sociali il rischio è che la macchina sviluppi quella che in statistica e nell’osservazione di laboratorio scientifica si chiama distorsione (bias). LinkedIn è già un caso piuttosto virtuoso, perché i vertici aziendali dichiarano che l'algoritmo è cieco rispetto a genere, appartenenza etnica e fotografia. Invece, in altri meccanismi di selezione di risorse umane questa cecità non viene necessariamente dichiarata.

Per questo la grande sfida per gli algoritmi intelligenti è quella di premiare davvero il merito, evitando pregiudizi che derivano magari dall’abitudine umana, dalla nostra storia, e dalle nostre convinzioni personali.

 

È importante perseguire questo obiettivo perché oggi diventa molto difficile rinunciare ai vantaggi che l'intelligenza artificiale apporta alle aziende.

Nel settore delle Risorse Umane abbiamo non solo l’aiuto dell'IA nella selezione dei curriculum, ma anche anche pratiche di gamification per incentivare il lavoro di gruppo, o per formare le nuove risorse, o anche per raccogliere informazioni di base sui candidati ad alcune posizioni lavorative. 

Insomma, non dobbiamo disegnare un alleato robotico. 

Spetta però all’intelletto umano programmarlo correttamente.

 

Altri articoli dal nostro Tech Blog

24 Marzo 2025
Cos'è una VPN e perchè potrebbe servirti (aggiornato al 2025)

Devi connetterti al tuo server aziendale? Aggirare un blocco dell’IP (ovviamente, per fini etici)? Oppure anche solo assicurarti che la connessione su cui stai navigando mantenga i tuoi dati al sicuro? Per ognuno di questi casi, e per molti altri, la VPN è la tecnologia di cui hai bisogno. Se ne hai sentito parlare e […]

22 Marzo 2025
Vibe Coding: da Copilot a Cursor, l'ascesa degli IDE assisiti dall'AI

Negli ultimi mesi, il modo in cui sviluppatori e programmatori si approcciano alla scrittura del codice è profondamente cambiato, introducendo il concetto di "Vibe Coding" grazie a strumenti di Intelligenza Artificiale che automatizzano e semplificano la scrittura e revisione del codice. Tra i principali IDE con l'assistenza dell'AI troviamo Visual Studio Code (VSCode) con Copilot […]

18 Marzo 2025
La guida definitiva all'hosting: dove ospitare app e siti web

Dove ospitare la tua applicazione web o mobile: guida definitiva a hosting condivisi, VPS, VDS, server dedicati e piattaforme Cloud pubbliche (AWS, Azure, Google Cloud) Quando si decide di sviluppare una nuova applicazione web o mobile, la scelta della giusta soluzione di hosting rappresenta una fase fondamentale per garantire buone prestazioni, sicurezza adeguata e facilità […]

15 Marzo 2025
La direttiva NIS2 e le responsabilità del management: quali rischi per CEO, CIO e CISO?

La nuova direttiva europea sulla sicurezza informatica, nota come NIS2, introduce significativi cambiamenti rispetto alla precedente direttiva NIS, ampliando la platea delle organizzazioni coinvolte e assegnando responsabilità precise ai vertici aziendali. CEO, CIO e CISO sono chiamati direttamente in causa, con implicazioni rilevanti sia dal punto di vista legale che organizzativo. Le principali novità della […]

Richiedi un incontro

Compila il form per ottenere una consulenza personalizzata per il tuo progetto.

Compila i campi per essere ricontattato

© Pizero Design srl, tutti i diritti riservati - P.I. 02313970465 - REA LU-215417
X
lockuserscartcalendar-fullsmartphonelaptopbriefcase