L’UE AI Act dovrebbe entrare in vigore a febbraio e avrà un impatto su qualsiasi azienda che sviluppi o utilizzi strumenti di modelli linguistici di grandi dimensioni, compresi i datori di lavoro del Regno Unito. James Flint spiega.
L’entusiasmo per le scoperte dell’intelligenza artificiale negli ultimi 18 mesi circa, combinato con il clima economico incerto, hanno spinto una vasta gamma di dipartimenti delle risorse umane ad adottare rapidamente la tecnologia.
I chatbot possono rispondere alle domande iniziali dei candidati, aiutare a pianificare i colloqui e fornire aggiornamenti sui progressi delle candidature in un modo più personalizzabile rispetto a un sito Web tradizionale.
Le IA possono eseguire la scansione di bacheche di lavoro, siti di social networking e professionali e database interni per trovare candidati con particolari competenze. Quando arrivano i CV, un’intelligenza artificiale può selezionarli e classificarli in modo più efficace rispetto a un team umano sovraccaricato.
La tecnologia può anche automatizzare l’amministrazione onboarding della verifica dei documenti, aiutare a progettare e gestire la formazione, analizzare sondaggi interni e individuare tendenze nel sentiment dei dipendenti e persino, in modo un po’ controintuitivo, rimuovere il tipo di pregiudizio umano inconscio che spesso si insinua nelle revisioni delle prestazioni.
Le linee guida per l’implementazione di strumenti come questo erano definite principalmente dai principi di protezione dei dati stabiliti nell’articolo 5 del GDPR (tra cui accuratezza, correttezza, trasparenza e riservatezza) e dalle disposizioni sul “processo decisionale automatizzato” di cui all’articolo 23.
Ma dal 2 febbraio 2025 c’è una novità nel blocco normativo, l’EU AI Act, che definisce “ad alto rischio” qualsiasi attività di intelligenza artificiale nei settori del reclutamento, delle risorse umane o della gestione dei lavoratori.
Le aziende del Regno Unito che sviluppano o implementano un sistema di intelligenza artificiale utilizzato nell’UE dovranno rispettare la legge.
E questo probabilmente porterà tutti i dipartimenti delle risorse umane lungimiranti nell’ambito del sovraccarico legislativo aggiuntivo di cui devono essere consapevoli.
La tecnologia dovrebbe già sollevare domande del tipo: se l’intelligenza artificiale può essere utilizzata così facilmente in tutte queste aree, cosa succede quando inizia a sottoperformare o va male?
Se l’intelligenza artificiale aggiunge pregiudizi invece di rimuoverli, allucina le qualità dei candidati invece di valutarli, o analizza male i dati di gruppo invece di identificare correttamente i modelli al loro interno, i risultati possono essere catastrofici sia per il datore di lavoro che per il dipendente.
Possono essere assunte le persone sbagliate, rimproverati i team sbagliati e pubblicati gli annunci sbagliati, tutte cose che hanno, nella migliore delle ipotesi, un effetto dannoso sulla cultura aziendale e possono finire in costose controversie, disastri di pubbliche relazioni e peggio una volta che tali effetti filtrano nelle persone. vite quotidiane.
Questo è il motivo per cui l’EU AI Act ha scelto di aggiungere le applicazioni dell’IA per il reclutamento, le risorse umane e la gestione dei lavoratori alla sua categoria “ad alto rischio”, dove si affiancano a cose come l’intelligenza artificiale nei dispositivi medici, nei veicoli autonomi, nelle forze dell’ordine, nell’identificazione biometrica e nelle attività critiche. infrastrutture.
Se stai creando sistemi di intelligenza artificiale per questo tipo di casi d’uso, questo ti rende un “fornitore di intelligenza artificiale” e i fornitori di intelligenza artificiale sono soggetti a un intero elenco di obblighi normativi, inclusi (ma non limitati a):
- Implementare un adeguato processo di gestione del rischio
- Utilizzare set di dati adatti allo scopo e privi di pregiudizi, mantenendo la documentazione tecnica e la supervisione umana
- Completare qualcosa chiamato valutazione di conformità, che è un po’ come una valutazione d’impatto sulla protezione dei dati (DPIA), ma per l’intelligenza artificiale
- Registrare il tuo modello nel database ufficiale dell’UE dei sistemi di IA ad alto rischio
- Monitoraggio e correzione delle prestazioni e della sicurezza del sistema dopo la distribuzione
È importante capire che verrai classificato come fornitore di intelligenza artificiale e ti verranno addebitate tutte queste responsabilità anche se stai semplicemente prendendo un modello esistente, ad esempio un modello LLM (Large Language) open source come Mistral o Llama, e poi va bene -sintonizzarlo con i propri set di dati o con una generazione aumentata di recupero (RAG).
Quindi, se hai un team proattivo che ti sta costruendo alcuni strumenti fantasiosi con tutta questa nuova tecnologia, fai attenzione: potresti ritrovarti con più pratiche burocratiche di quelle che ti aspettavi.
Anche se stai semplicemente implementando un sistema che hai acquistato da altrove, la legge ti terrà comunque responsabile di un elenco di requisiti che includono limitazione dello scopo, supervisione umana, monitoraggio dei dati immessi, tenuta dei registri, segnalazione degli incidenti , trasparenza nei confronti delle parti interessate e mitigazione di pregiudizi e rischi.
E questo prima ancora di arrivare alle considerazioni etiche a cui sia i fornitori che gli utenti devono aderire e a cui garantire che i loro sistemi siano allineati.
L’intelligenza artificiale non è come il software tradizionale. Il software tradizionale è deterministico: fa quello che gli viene detto e, quando non lo fa, è un problema che può essere risolto (almeno in teoria) apportando modifiche al programma. Ma i sistemi di intelligenza artificiale sono intrinsecamente probabilistici.
Se stai creando sistemi di intelligenza artificiale per casi d’uso delle risorse umane, questo ti rende un “fornitore di intelligenza artificiale” e i fornitori di intelligenza artificiale sono soggetti a un intero elenco di obblighi normativi.
Funzionano sulla base dell’analisi statistica di grandi quantità di dati e, sebbene ciò li renda molto più robusti quando si affronta l’incertezza del mondo reale rispetto ai sistemi software tradizionali, significa anche che i loro risultati sono intrinsecamente incerti.
Il rispetto della legge UE sull’IA dovrebbe essere visto come un modo per contenere tale incertezza e mantenerla costantemente sotto controllo.
L’attenzione dovrebbe essere posta sul raggiungimento del pieno controllo dei dati, sulla promozione della trasparenza e sulla progettazione di processi che servano sia all’azienda che ai suoi candidati.
Ciò comporta lo svolgimento di audit approfonditi dei sistemi di intelligenza artificiale esistenti, l’attuazione di rigorose pratiche di conformità fin dalla progettazione per quelli nuovi e la formazione dei team sull’uso etico dell’intelligenza artificiale.
Adottando un approccio proattivo e implementando una buona governance dell’intelligenza artificiale fin dall’inizio, i dipartimenti delle risorse umane possono evitare le trappole di un’implementazione affrettata e garantire che questa entusiasmante tecnologia si riveli un vantaggio per le loro organizzazioni, non una minaccia.