Breve immersione:

  • I datori di lavoro del Colorado che utilizzano l’intelligenza artificiale e tecnologie automatizzate simili per determinate decisioni lavorative “consequenziali” – come le assunzioni e le determinazioni della retribuzione – devono fornire avvisi che stanno utilizzando tali strumenti in base a un versione rivista della legge statale sull’IA firmato giovedì dal governatore Jared Polis.
  • Il disegno di legge del Senato 26-189 abroga la precedente legge dello stato, che era dovrebbe entrare in vigore a giugno. Le sue tutele si applicano ai residenti del Colorado, a coloro che hanno accesso o idoneità a un’opportunità in Colorado o che vengono valutati in una decisione consequenziale da qualcuno che opera in Colorado.
  • I datori di lavoro che utilizzano strumenti coperti che “influenzano materialmente” le decisioni che portano a un risultato negativo per gli individui devono fornire una descrizione del ruolo dello strumento nella decisione, insieme ad altre informazioni richieste, entro 30 giorni dalla decisione. La legge entrerà in vigore il 1° gennaio 2027 e si applicherà a tutte le decisioni prese a partire da tale data.

Informazioni sull’immersione:

Il secondo tentativo del Colorado di legiferare sull’intelligenza artificiale fa seguito a diversi mesi di dibattiti e azioni legali che hanno messo in discussione il suo primo tentativo. noto come disegno di legge del Senato 24-205. Funzionari statali fino alla Polis compresa ha espresso il desiderio di rivisitare la legge originaria dopo la sua approvazione, citando preoccupazioni circa i potenziali effetti che avrebbe avuto sull’innovazione e sulla concorrenza.

Diversi partiti si sono opposti all’SB 24-205, incluso xAI di Elon Musk, che ha citato in giudizio il procuratore generale del Colorado il mese scorso per bloccare l’applicazione della legge. xAI ha particolarmente criticato il mandato della prima legge secondo cui le organizzazioni che implementano strumenti di intelligenza artificiale adottano misure ragionevoli per evitare la “discriminazione algoritmica”, un termine che la società ritiene incostituzionalmente vago.

SB 26-189 elimina tutti i riferimenti alla discriminazione algoritmica e stabilisce anche una nuova definizione delle tecnologie che cerca di regolamentare.

Considerando che SB 24-205 si applicava ai “sistemi di intelligenza artificiale ad alto rischio”, la nuova legge definisce un’ampia categoria di “tecnologia decisionale automatizzata” o ADMT, che include qualsiasi strumento che elabora dati personali e utilizza calcoli per generare output, comprese “previsioni, raccomandazioni, classificazioni, classifiche, punteggi o altre informazioni utilizzate per guidare o assistere una decisione, giudizio o determinazione” su un individuo.

SB 26-189 delinea inoltre diverse tecnologie che non sono incluse nella definizione ADMT e gli strumenti sono generalmente esclusi se non vengono utilizzati per prendere una decisione consequenziale. Tali decisioni non includono “decisioni a bassa posta in gioco o di routine” che non influenzano materialmente l’idoneità, la selezione, l’assistenza dentistica, il compenso o l’accesso all’impiego e opportunità analogamente coperte.

La legge specifica che non copre i casi in cui un ADMT viene utilizzato per riassumere, organizzare o presentare informazioni per la revisione umana e non produce un punteggio, una classifica, una raccomandazione, una classificazione, una previsione o altra inferenza che influenzi materialmente un risultato o una decisione.

Gli individui che riscontrano esiti negativi derivanti da decisioni consequenziali prese da un ADMT possono richiedere istruzioni per richiedere dati personali e correggere i dati personali di fatto inesatti o materialmente inesatti utilizzati nella decisione. Possono anche richiedere formalmente l’opportunità di “una significativa revisione e riconsiderazione umana” della decisione.

SB 26-189 specifica che il procuratore generale del Colorado emanerà regolamenti per chiarire e attuare i suoi requisiti entro la data di entrata in vigore del 2027. Se il procuratore generale accerta che si è verificata una violazione, l’organizzazione che ha implementato l’ADMT avrà un periodo di 60 giorni per sanare la violazione, se possibile, prima che il procuratore generale possa intentare un’azione legale. Il procuratore generale può rinunciare al requisito del periodo di recupero se si scopre che l’organizzazione ha violato consapevolmente o ripetutamente la legge.

In un comunicato stampa, Polis ha detto la nuova legge ha rappresentato uno sforzo di collaborazione tra i consumatori e varie altre parti interessate che avrebbe preservato il ruolo del Colorado nel crescente settore dell’intelligenza artificiale.

“Questo è un grande passo nella giusta direzione per il Colorado e un modello per il resto del paese”, ha affermato Polis nel comunicato stampa. “La sostituzione della vecchia legge che non è ancora entrata in vigore stimolerà l’innovazione e l’imprenditorialità del Colorado”.

La notizia arriva pochi giorni dopo che il legislatore statale ha approvato un disegno di legge separato che vieta ai datori di lavoro di discriminare i lavoratori mediante definizione di salari personalizzati utilizzando l’intelligenza artificiale o strumenti simili.

In risposta al passaggio di SB 26-189, interessato i datori di lavoro dovrebbero mappare i propri strumenti di intelligenza artificiale e interagire con i fornitori, hanno affermato gli avvocati di Fisher Phillips in un’analisi. Gli avvocati hanno inoltre consigliato ai datori di lavoro di tenere conto del requisito di tre anni di tenuta dei registri previsto dalla legge per i documenti di conformità rilevanti e di vigilare sulle controversie legali pendenti contro la legge rivista.