Entra in vigore nell'UE la legge sull'intelligenza artificiale: quale impatto avrà sulle risorse umane?

Entra in vigore nell’UE la legge sull’intelligenza artificiale: quale impatto avrà sulle risorse umane?

Valeria

Ieri è entrato in vigore l’AI Act dell’Unione Europea, che segna i primi passi verso la definizione di un quadro normativo e giuridico per l’utilizzo dei sistemi di intelligenza artificiale in Europa.

L’atto categorizza i sistemi di IA in base al loro potenziale impatto sulla sicurezza, sui diritti umani e sul benessere della società. I ​​sistemi saranno categorizzati come proibiti, ad alto rischio e a basso rischio. La maggior parte dei sistemi di IA incorporati nelle risorse umane saranno sottoposti a esame a partire da agosto 2026, affermano gli esperti.

Molte aziende del Regno Unito dovranno seguire la legge UE nonostante il Regno Unito non faccia parte del blocco. Per questo motivo, si pensa che qualsiasi legislazione del Regno Unito dovrà seguire da vicino le regole UE.

I sistemi ad alto rischio, che saranno soggetti ai requisiti più rigorosi, sono quelli con un impatto significativo sulla sicurezza, sul benessere e sui diritti delle persone.

Le applicazioni a basso rischio includono videogiochi abilitati all’IA e filtri antispam. La stragrande maggioranza (circa l’85%) dei sistemi di IA attualmente utilizzati nell’UE rientra in questa categoria, ma questa percentuale potrebbe diminuire man mano che l’IA entra di più nel mondo del lavoro.

Ai sensi della legge, la mancata osservanza delle disposizioni può comportare sanzioni fino al 7% del fatturato annuo globale di un’azienda.

L’implementazione sarà scaglionata, in modo che le aziende abbiano il tempo di valutare l’impiego dei sistemi e di stabilire le proprie procedure di monitoraggio e conformità.

Tra sei mesi saranno vietate le pratiche di intelligenza artificiale che presentano rischi inaccettabili per la salute e la sicurezza o per i diritti umani fondamentali; tra nove mesi l’ufficio per l’intelligenza artificiale finalizzerà i codici di condotta per coprire gli obblighi per sviluppatori e distributori; e tra un anno entreranno in vigore le regole per i fornitori di intelligenza artificiale per scopi generali (GPAI), come ChatGPT, e le organizzazioni dovranno allineare le proprie pratiche a queste nuove regole.

L’intelligenza artificiale utilizzata in ambito lavorativo dovrà conformarsi a partire da agosto 2026; tali sistemi sono stati inclusi tra quelli potenzialmente in grado di causare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto.

Thomas Regnier, portavoce della Commissione Europea, ha affermato: “Quello che sentiamo ovunque è che ciò che fa l’UE è pura regolamentazione e che questo bloccherà l’innovazione. Questo non è corretto. La legislazione non è lì per impedire alle aziende di lanciare i loro sistemi, è il contrario. Vogliamo che operino nell’UE ma vogliamo proteggere i nostri cittadini e proteggere le nostre aziende”.

Margrethe Vestager, responsabile della concorrenza dell’UE, ha aggiunto: “L’approccio europeo alla tecnologia mette le persone al primo posto e garantisce che i diritti di tutti siano preservati”.

Tra le capacità di intelligenza artificiale ad alto rischio che saranno vietate, da febbraio 2025, ci sono i sistemi di categorizzazione biometrica che affermano di suddividere le persone in gruppi in base a politica, religione, orientamento sessuale e razza. Saranno vietati anche lo scraping non mirato di immagini facciali da Internet o CCTV, il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative e il punteggio sociale basato sul comportamento o sulle caratteristiche personali.

I modelli di intelligenza artificiale generativa come ChatGPT saranno soggetti alla legge nell’agosto 2025: gli sviluppatori dovranno valutare i modelli, stimare e mitigare i rischi sistemici, condurre test avversari, segnalare incidenti gravi alla Commissione europea, garantire la sicurezza informatica e riferire sulla propria efficienza energetica.

Lo studio legale Clifford Chance afferma che la legge “classifica specificamente alcuni sistemi di intelligenza artificiale in ambito lavorativo, come gli strumenti di intelligenza artificiale destinati a essere utilizzati nei processi di reclutamento, selezione e assunzione di decisioni relativi ai rapporti di lavoro, come ad alto rischio e quindi soggetti a obblighi rigorosi”.

Nils Rauer, partner di Pinsent Masons e specialista di IA, ha affermato che le aziende che vogliono essere conformi dovranno affrontare una sfida amministrativa importante: “È necessario documentare ciò che è stato fatto in termini di formazione (modello di IA). È necessario documentare in una certa misura come funziona l’elaborazione e… ad esempio in un contesto di risorse umane, su quale base l’IA prende la decisione di raccomandare il candidato A anziché il candidato B. Tale obbligo di trasparenza è una novità”.

Gli esperti hanno avvertito che le aziende che acquistano e modificano la tecnologia AI per scopi di gestione delle risorse umane potrebbero rientrare sia nella categoria dei “fornitori” che in quella dei “distributori”.

Le aziende potrebbero anche incorrere involontariamente in violazioni della legge, poiché i dipendenti del reparto Risorse umane utilizzano il proprio ChatGPT per scopi di reclutamento senza che la dirigenza ne sia a conoscenza.

“C’è un certo timore riguardo ai pericoli incombenti dell’intelligenza artificiale incontrollata, e spetta ai leader rassicurare la comunità più ampia che la tecnologia emergente è in mani sicure”.