Una nuova ricerca sull’uso dell’intelligenza artificiale per monitorare i lavoratori ha portato a chiedere maggiori tutele per i dipendenti.
Il rapporto Data on Our Minds, per l’Institute for the Future of Work, lancia l’allarme sulla “gestione algoritmica degli affetti”, che potrebbe portare all’uso della sorveglianza biometrica dell’intelligenza artificiale sul posto di lavoro.
La “gestione algoritmica degli affetti” (AAM) è il monitoraggio strategico, la valutazione e la gestione dei lavoratori attraverso algoritmi, assumendo compiti che prima venivano svolti da manager umani. Questa innovazione nella gestione è particolarmente comune nella gig economy.
Il Regno Unito deve proteggere i dipendenti dal tracciamento biometrico e dalle tecnologie di riconoscimento delle emozioni sul posto di lavoro, soprattutto perché non è più interamente soggetto al diritto dell’UE, sostengono gli autori del rapporto guidati dalla dottoressa Phoebe V Moore dell’Università dell’Essex.
L’uso della tecnologia AAM è iniziato tra alcune aziende nel Regno Unito, ha affermato Moore, creando una situazione interessante, ha aggiunto nel suo blog, “perché l’AI Act (nell’UE) richiede sandbox normativi e ambienti simulati per testare le categorie ad alto rischio prodotti, dato che il riconoscimento delle emozioni è ora nella categoria vietata per i sistemi di intelligenza artificiale.
Secondo il rapporto, la tecnologia stava iniziando a consentire alle aziende di monitorare gli stati d’animo e i sentimenti dei lavoratori, nonché dati biometrici come la frequenza cardiaca, il monitoraggio degli occhi o la temperatura.
Moore ha scritto che l’aumento del lavoro a distanza dopo la pandemia di Covid ha visto la raccolta di dati guidata dal management diventare piuttosto diffusa. Ha citato uno studio secondo cui l’uso di “bossware” è triplicato negli ultimi cinque anni. Anche nel 2019, un sondaggio Gartner condotto su 239 grandi aziende ha rilevato che oltre il 50% utilizzava una qualche forma di monitoraggio non tradizionale, inclusa l’analisi del testo delle e-mail dei lavoratori e dell’uso dei social media, il controllo delle riunioni e la raccolta di dati biometrici.
L’Istituto ha affermato che, se collegato a un potente software di gestione che utilizza il processo decisionale algoritmico, l’AAM può incrociare l’umore e le prestazioni fisiche con la malattia e altri dati, “aprendo una nuova frontiera significativa nella sorveglianza sul posto di lavoro”. Sosteneva che l’AAM aveva il potenziale per causare danni mentali e fisici e che erano urgentemente necessarie nuove normative e governance.
In particolare, ha affermato l’Istituto, c’è un urgente bisogno di norme che affrontino il potenziale di discriminazione diretta o indiretta basata su caratteristiche protette e i rischi associati alla neurosorveglianza.
L’Employment Rights Bill e il Data Bill, entrambi in fase di commissione nel parlamento britannico, hanno offerto l’opportunità di stabilire protezioni contro le pratiche di sfruttamento derivanti dalle tecnologie AAM, ha affermato l’Istituto, aggiungendo: “L’attuale mosaico di protezioni è insufficiente a salvaguardare i diritti dei lavoratori privacy, integrità fisiologica e mentale quando vengono implementate le tecnologie AAM”.
Moore ha scoperto che le motivazioni offerte dalle aziende per l’utilizzo delle tecnologie AAM spaziano dalla tutela della sicurezza e della salute sul lavoro al monitoraggio del benessere e del fitness, alla protezione dei segreti commerciali e alla sicurezza informatica e all’ottimizzazione della produttività.
Il Regno Unito sta diventando un focolaio per la sperimentazione del riconoscimento facciale ed emozionale” – Dott.ssa Phoebe V Moore
Ha affermato che qualsiasi motivazione per il loro utilizzo dovrebbe essere bilanciata con protezioni proporzionate per i lavoratori dai danni psicosociali.
Due casi nel Regno Unito menzionati dagli autori riguardavano Serco Leisure, a cui all’inizio di quest’anno l’ufficio del commissario per l’informazione aveva ordinato di smettere di utilizzare la tecnologia di riconoscimento facciale per monitorare la presenza dei dipendenti dei centri ricreativi. Nel giugno di quest’anno è stato inoltre scoperto che otto stazioni ferroviarie, tra cui Euston e Waterloo a Londra, stavano sperimentando il riconoscimento emotivo dei passeggeri utilizzando telecamere AI integrate con gli algoritmi avanzati di apprendimento automatico di Amazon. Il sistema potrebbe identificare i passeggeri agitati o in difficoltà, nonché rilevare età e sesso. L’attivista Big Brother Watch ha presentato un reclamo all’ICO in merito al processo.
Moore ha affermato che il Regno Unito “sta diventando un focolaio per la sperimentazione del riconoscimento facciale ed emotivo”.
Jeni Tennison, fondatrice e direttrice esecutiva del gruppo di campagne tecnologiche Connected by Data, ha affermato che il rapporto dell’Istituto sottolinea “la necessità di dati inclusivi ed equi e di governance dell’intelligenza artificiale e fornisce raccomandazioni attuabili su come le organizzazioni possono coinvolgere i lavoratori in modi significativi”.
Frank Pasquale, professore di diritto alla Cornell Tech University, ha dichiarato: “I lavoratori, i sindacati e i membri del pubblico preoccupati troveranno qui spunti importanti. E le sagge raccomandazioni politiche del rapporto dovrebbero guidare l’azione delle autorità di regolamentazione”.