/*Google Analytics*/

L’intelligenza artificiale e il recruiting

La selezione del personale, negli ultimi anni, è divenuta sempre più efficiente grazie anche all’utilizzo di algoritmi di intelligenza artificiale. Secondo lo studio Deloitte Global Human Capital Trends 2020, ben il 70% degli intervistati ha dichiarato che all’interno delle rispettive organizzazioni si stanno valutando soluzioni basate, a vario titolo, sull’IA con lo scopo di garantire una maggiore qualità e produttività delle risorse. La rotta, in un certo senso, è tracciata, ma come può l’intelligenza artificiale entrare nei nostri uffici di recruiting?

Gli algoritmi aiutano nella valutazione dei curriculum, individuando i candidati più adatti in base a capacità specifiche ed esperienze. La tecnologia aiuta infatti nell’ottimizzazione della ricerca, estrapolando da volumi enormi di candidature i dati destrutturati utilizzando l’analisi semantica per individuare candidati, suggerirne di simili o scrivere gli annunci stessi. Queste attività, se svolte manualmente, possono comportare una mole di tempo considerevole e l’intelligenza artificiale diventa perciò una valida alleata.

Il sistema, tuttavia, non è esente da rischi soprattutto nel caso in cui non venga correttamente supervisionato.

Per questo motivo, stanno nascendo metodologie che aiutano a individuare ed eliminare gli elementi distorsivi introdotti dai bias. Il tema, prima che tecnologico, è culturale: il settore informatico è ancora largamente dominato dagli uomini e il tema dei bias si interseca con il gender gap in ambito STEM.

Ma c’è di più: alcuni studi svolti nel Regno Unito, ad esempio, hanno dimostrato che il cognome non anglofono su un curriculum è causa di discriminazione nella selezione di candidati. La stessa cosa accade nel caso in cui sul curriculum ci sia una bella foto: la bellezza, considerato un canone positivo, ci porta ad associare l’aspetto fisico ad altre caratteristiche come la proattività, l’affidabilità o la precisione a causa del cosiddetto “effetto alone”.

Quali potrebbero essere le possibili contromisure?

Negli Stati Uniti, per esempio, vengono utilizzate le cosiddette blind interviews (colloqui al buio): in fase di raccolta dei curriculum, vengono richiesti profili in cui non compaiano elementi come cognome (che potrebbe rimandare alla provenienza o al gruppo etnico), età o genere. I colloqui stessi avvengono con la webcam spenta.

Per quanto riguarda invece la presenza dei bias nei sistemi di intelligenza artificiale bisogna intervenire sulle consapevolezze degli sviluppatori stessi, diversificando i team di sviluppo. Oggi solo il 12% dei gruppi dedicati allo sviluppo dell’IA sono composti da donne e questo “favorisce” la trasmissione di una visione poco diversificata ai sistemi di IA. Anche la raccolta dei dati deve tenere conto delle diversità: per rendere più inclusivo il campo d’azione dell’intelligenza artificiale bisognerà “rieducare” i sistemi affinché questi non trattino come dati di scarto alcuni dati minori che devono essere presi in considerazione allo stesso modo dei dati di valore numerico più rilevante.

La selezione del personale può e deve divenire più efficiente, ma trovare la persona giusta al momento giusto deve divenire al tempo stesso un processo sempre più inclusivo passando anche attraverso l’aggiornamento e la riqualificazione costante dell’IA.

Potrebbe interessarti

Share This