L’ufficio del commissario per le informazioni (ICO) sta intensificando la propria supervisione di AI e tecnologie biometriche, lanciando oggi una nuova strategia in parlamento, che include una revisione dell’uso del processo decisionale automatico nel reclutamento.
Il regolatore dei dati del Regno Unito ha svelato piani per supportare l’innovazione responsabile dell’intelligenza artificiale aumentando il proprio controllo in aree di preoccupazione pubblica, in modo che le persone possano fidarsi che le loro informazioni personali vengano utilizzate in modo responsabile.
Parlando a un evento ICO con il gruppo parlamentare per tutte le parti per AI (AI APPG) questa mattina, il commissario di informazione John Edwards ha dichiarato: “La nostra informazione personale alimenta l’economia, portando nuove opportunità per le organizzazioni a innovare con AI e tecnologie biometriche.
“Ma per interagire con sicurezza con prodotti e servizi basati sull’intelligenza artificiale, le persone devono fidarsi che le loro informazioni personali siano in mani sicure. È il nostro compito come regolatore di esaminare le tecnologie emergenti-ad esempio” AI agente “-così possiamo assicurarci che siano in atto protezioni efficaci e che le informazioni personali siano usate in modo da guidare l’innovazione e guadagnare la fiducia delle persone.”
La nuova strategia AI e Biometrics dell’ICO mira a garantire che le organizzazioni stiano sviluppando e distribuendo legittimamente nuove tecnologie, supportandole per innovare e crescere mentre proteggono il pubblico.
La ricerca sul processo decisionale automatico (ADM) nelle tecnologie di assunzione e biometrica rivela che il pubblico prevede di capire esattamente quando e in che modo i sistemi basati sull’intelligenza artificiale li influenzano.
Sono preoccupati per le conseguenze in cui queste tecnologie vanno male, ad esempio, se una decisione automatizzata difettosa influisce sulla loro domanda di lavoro o se la tecnologia di riconoscimento facciale (FRT) viene utilizzata in modo inesatto. Più della metà delle persone intervistate (54%) ha condiviso le preoccupazioni che l’uso della FRT da parte della polizia avrebbe violato il diritto alla privacy.
L’ICO ha affermato che fornirà alle organizzazioni con certezza e pubblico rassicurato da:
- Rivedere l’uso dei sistemi ADM nel reclutamento e il lavoro con i primi ad adottare
- Condurre audit e produrre una guida sull’uso lecito, equo e proporzionato di FRT
- Impostare chiare aspettative per proteggere le informazioni personali delle persone quando utilizzato per formare modelli di intelligenza artificiale generativa
- Sviluppare un codice di pratica legale per le organizzazioni che sviluppano o distribuiscono AI in modo responsabile per supportare l’innovazione salvaguardando la privacy e
- esaminare i rischi e le tendenze emergenti dell’IA, come l’ascesa dell’IA agente, che consente ai sistemi di diventare sempre più in grado di agire autonomamente.
L’ICO ha lanciato la strategia al suo evento del 40 ° anniversario con l’IA APPG in parlamento questa mattina, in cui politici, leader del settore e società civile si sono radunati per discutere della privacy nell’uso responsabile dell’IA nell’economia.
Edwards ha aggiunto: “Gli stessi principi di protezione dei dati si applicano ora come sempre: le questioni di fiducia e possono essere costruite solo dalle organizzazioni utilizzando le informazioni personali delle persone in modo responsabile.
“La fiducia del pubblico non è minacciata dalle nuove tecnologie stesse, ma da applicazioni sconsiderate di queste tecnologie al di fuori dei guardrail necessari. Siamo qui, come eravamo 40 anni fa, per rendere più facile la conformità e garantire che tali guardrail siano in atto.”
Lord Clement-Jones, peer democratico liberale e co-presidente AI APPG, ha dichiarato: “La rivoluzione dell’IA deve essere fondata sulla fiducia. La privacy, la trasparenza e la responsabilità non sono impedimenti all’innovazione; costituiscono la sua base. L’intelligenza artificiale sta avanzando rapidamente, passando da modelli generativi ai sistemi autonomi.
“Tuttavia, una maggiore velocità introduce la complessità. La complessità comporta rischi. Dobbiamo garantire che l’innovazione non compromette la fiducia del pubblico, i diritti individuali o i principi democratici.”
Dawn Butler, MP laburista e vicepresidente dell’IA APPG, ha dichiarato: “L’intelligenza artificiale è più di un semplice cambiamento tecnologico; è un cambiamento nella società. Cambierà sempre più il modo in cui otteniamo assistenza sanitaria, frequentiamo la scuola, i viaggi e persino sperimenteranno la democrazia.
La strategia ICO si basa sulla sua pubblicazione di posizioni politiche sull’intelligenza artificiale generativa e sull’azione che ha intrapreso contro le organizzazioni, come ordinare Serco Leisure l’anno scorso per smettere di utilizzare la tecnologia biometrica per monitorare i propri dipendenti.
L’ICO ha dichiarato che consulterà una guida aggiornata per l’ADM e la profilazione, svilupperà un codice di pratica legale su AI e ADM e produrrà un rapporto di scansione dell’orizzonte sulle implicazioni di protezione dei dati dell’IA agente.
Cos’è AI agente?
L’intelligenza artificiale agente è un modello più autonomo e proattivo di intelligenza artificiale. Può agire senza una guida umana perché comprende gli obiettivi dell’utente. Mentre i sistemi AI agenti utilizzano ancora le capacità creative dei modelli di intelligenza artificiale generativi come Chatgpt, si concentrano sul prendere decisioni invece di creare contenuti. Ottimizzano obiettivi specifici e possono intraprendere una serie di attività.
Edwards ha dichiarato: “L’intelligenza artificiale agente è il prossimo capitolo dell’evoluzione dell’IA, con i sistemi che diventano sempre più in grado di agire autonomamente. Mentre l’intelligenza artificiale generativa potrebbe essere in grado di scrivere la tua lista della spesa, un’intelligenza artificiale agente potrebbe essere in grado di accedere a un negozio online e utilizzare il tuo ID e i dettagli di pagamento per effettuare un ordine.”