Breve immersione:

  • I candidati al lavoro non sono soddisfatti del modo in cui viene utilizzata l’intelligenza artificiale nel processo di assunzione Il 70% afferma che non gli è mai stato detto in anticipo che l’intelligenza artificiale li valuterebbe, secondo una nuova ricerca della piattaforma di assunzione Greenhouse.
  • Il rapporto ha rilevato che 1 persona su 5 in cerca di lavoro ha scoperto che l’intelligenza artificiale veniva utilizzata solo dopo l’inizio di un colloquio di lavoro. Nel frattempo, il 38% dei candidati statunitensi ha dichiarato di essersi già ritirato da un processo di assunzione perché prevedeva un colloquio con l’intelligenza artificiale, mentre solo il 12% ha affermato che avrebbe sostenuto un colloquio con l’intelligenza artificiale se fosse stato richiesto.
  • Negli Stati Uniti, i motivi principali per cui le persone in cerca di lavoro abbandonano il processo di colloquio sono le interviste video preregistrate valutate dall’intelligenza artificiale senza la presenza umana (33%), le aziende che non rivelano come verrebbe utilizzata l’intelligenza artificiale (27%), il monitoraggio dell’intelligenza artificiale durante il processo di intervista (26%) e un colloquio richiesto guidato dall’intelligenza artificiale (26%).

Informazioni sull’immersione:

Delle 2.950 persone in cerca di lavoro attive negli Stati Uniti, Regno Unito, Irlanda, Germania e Australia intervistate per il rapporto, il 63% ha dichiarato di essere stato intervistato da un’intelligenza artificiale, in aumento di 13 punti percentuali rispetto a sei mesi fa. Eppure Greenhouse lo ha detto intanto Le interviste basate sull’intelligenza artificiale sono diventate mainstreaml’uso precoce della tecnologia ha fallito in termini di trasparenza, fiducia ed esperienza dei candidati.

Meno di 1 persona su 5 in cerca di lavoro (18%) ha affermato che i datori di lavoro hanno politiche chiare sull’intelligenza artificiale, ma il 57% ha affermato di ritenere che la divulgazione dovrebbe essere un obbligo legale.

Ciononostante, i candidati al lavoro hanno affermato di aver riscontrato pregiudizi quasi identici da parte dell’intelligenza artificiale e degli esseri umani. Il 36% ha affermato di percepire pregiudizi legati all’età sia da parte degli esseri umani che dell’intelligenza artificiale, mentre il 27% ha affermato di percepire pregiudizi legati alla razza o all’etnia da entrambi.

“La maggior parte dell’intelligenza artificiale nelle assunzioni oggi sta peggiorando un sistema pessimo: più applicazioni, meno segnale e meno trasparenza”, ha affermato in una nota il CEO di Greenhouse Daniel Chait. “Ma il processo su cui si sta costruendo l’intelligenza artificiale era già rotto”.

Tuttavia, solo il 19% dei candidati statunitensi ha affermato di volere meno IA nelle assunzioni. Gli altri hanno affermato di volere la stessa cosa o di più, anche se con alcune misure di sicurezza. Queste includono la divulgazione anticipata, spiegazioni chiare su ciò che l’intelligenza artificiale sta misurando e la possibilità di richiedere un intervistatore umano. Inoltre, il 38% ha affermato di voler sapere se le decisioni sull’intelligenza artificiale vengono riviste da un essere umano prima che venga presa una decisione di assunzione, e il 29% ha affermato di volere prove che gli strumenti di intelligenza artificiale siano stati controllati per individuare eventuali bias.

“I candidati ci dicono esattamente quello che vogliono, e non è complicato: dire loro quando l’intelligenza artificiale è nella stanza e cosa sta misurando”, ha detto in una nota Sharawn Tipton, chief people officer di Greenhouse. “In questo momento, la maggior parte dei datori di lavoro non supera questo test”.

Ha aggiunto che quando i candidati avvertono pregiudizi derivanti dall’intelligenza artificiale, ciò può influire sulla reputazione di un’azienda.

“Fino a quando non saremo onesti su ciò che questi strumenti misurano effettivamente e non ne saremo consapevoli quando sbagliano, stiamo semplicemente riconfezionando lo stesso problema”, ha detto Tipton.

Lo ha scoperto uno studio del 2025 pubblicato negli Atti della National Academy of Arts and Sciences i candidati si stanno anche adattando agli strumenti di assunzione basati sull’intelligenza artificiale sottolineando le capacità analitiche e minimizzando le capacità intuitive ed emotive se credono che l’intelligenza artificiale le stia valutando. Di conseguenza, i responsabili delle risorse umane potrebbero non essere in grado di valutare con precisione le reali capacità dei potenziali dipendenti.