Le pratiche retributive stanno silenziosamente scalando la lista delle funzioni HR destinate a essere influenzate dall’intelligenza artificiale.
La sperimentazione dell’intelligenza artificiale nell’area delle retribuzioni, dei benefit e dei premi totali è aumentata dal 2025 ai primi mesi del 2026, secondo un sondaggio di Korn Ferry di febbraio condotto tra i professionisti delle risorse umane e dei premi totali. Tuttavia, l’azienda ha riscontrato che la maggior parte delle organizzazioni si trova ancora nelle fasi iniziali dell’adozione, con il 57% degli intervistati che afferma di non aver nemmeno iniziato a farlo. sperimenta l’intelligenza artificiale con ricompense totali.
Ciò riflette le esperienze di consulenti come Gordon Frost, leader nelle soluzioni di ricompensa globale presso Mercer, che ha dichiarato a HR Dive che l’uso dell’intelligenza artificiale per stabilire le retribuzioni è stato lento a causa delle preoccupazioni sul rischio. Ma è evidente che la tecnologia si è ritagliata un ruolo in molte organizzazioni, ha detto, perché può aumentare il lavoro dei professionisti della retribuzione.
L’uso dell’intelligenza artificiale nei premi totali è aumentato lo scorso anno, ma la maggior parte non ha ancora iniziato a sperimentare
La definizione della retribuzione implica la sintesi di una serie di fonti di dati, sia esterne che interne, e l’intelligenza artificiale ha il compito di rendere tali dati più veloci da raccogliere e più facili da analizzare in modo più coerente. “Stiamo vedendo che le persone iniziano a usarlo da quella prospettiva”, ha detto Frost.
Almeno finora, in genere non è il caso che i datori di lavoro utilizzino modelli linguistici di grandi dimensioni come GPT di OpenAI o Claude di Anthropic per assegnare specifiche cifre in dollari a un ruolo o a un singolo lavoratore, ha detto in una e-mail Jamie Eisner, avvocato di Offit Kurman. Invece, ha affermato, vede più spesso i datori di lavoro utilizzare l’intelligenza artificiale come un “sistema che modella i dati, le ipotesi e i quadri decisionali che, in ultima analisi, influenzano i risultati salariali”.
I datori di lavoro cercano anche di rendere la tecnologia parte di una strategia retributiva olistica e più ampia mentre valutano quali fattori vogliono considerare nella definizione della retribuzione, ha affermato Britney Torres, consulente senior di Littler Mendelson. C’è anche la speranza che l’intelligenza artificiale possa migliorare la coerenza delle pratiche retributive tra le organizzazioni, in particolare quelle con una forza lavoro numerosa.
“In definitiva, il miglioramento dell’accuratezza del programma di definizione dei salari e dei compensi viene effettuato per premiare accuratamente il dipendente”, ha affermato Torres. “L’obiettivo dell’intelligenza artificiale in questo contesto è migliorare la qualità di tale risultato”.
Ma non è qualcosa che i dipartimenti delle risorse umane possono adottare senza fare un po’ di lavoro. Frost ha affermato che è necessario un livello di lavoro fondamentale prima che l’intelligenza artificiale venga integrata in qualsiasi processo delle risorse umane, e gran parte di questo lavoro consiste nel raccogliere tutti i dati rilevanti dell’organizzazione in un unico posto e nel garantire che i dati siano privi di errori e pregiudizi non intenzionali.
“Questo lavoro è andato avanti per anni e anni, ma è quasi un precursore fondamentale per fare tutte queste cose”, ha detto Frost. Possono emergere numerose complessità, ha aggiunto, soprattutto quando un’organizzazione ha attraversato diverse acquisizioni di aziende che impiegavano titoli o codici di lavoro diversi o avevano più dipendenti che svolgevano lavori simili. “Tutto ciò deve essere ripulito, semplificato e allineato prima di poter utilizzare l’intelligenza artificiale o eseguire sofisticate analisi dei dati”.
E questo senza entrare nel quadro sempre più complicato della conformità dell’IA a livello nazionale.
Il panorama giuridico incerto rappresenta un ostacolo
L’uso dell’intelligenza artificiale per stabilire le retribuzioni potrebbe implicare diverse leggi federali, incluso il Fair Labor Standards Act. Eisner ha affermato che i datori di lavoro potrebbero violare la FLSA se le loro strutture retributive influenzate dall’intelligenza artificiale portano a classificazioni errate dei dipendenti, violazioni del salario minimo o errori nella retribuzione degli straordinari.
I sistemi di intelligenza artificiale addestrati su dati storici sulle retribuzioni o sulle prestazioni possono anche replicare o amplificare involontariamente le disparità retributive esistenti, come quelle che si verificano lungo le linee di genere o di razza, e questo può creare responsabilità ai sensi delle leggi federali sulle pari opportunità di lavoro, ha continuato Eisner.
“Solo sapere quali sono i parametri di sicurezza e quali sono i limiti della privacy è estremamente importante.”
Gordon Gelo
Leader della soluzione Global Rewards, Mercer
Diversi stati, nel frattempo, sono passati leggi che limitano l’uso dell’intelligenza artificiale nelle assunzionie alcuni di questi statuti contengono disposizioni che potrebbero influenzare i sistemi utilizzati nel contesto retributivo, ha affermato Torres.
Ad esempio, Norme sulla privacy della California richiedere ad alcuni datori di lavoro di emettere obblighi di avviso pre-utilizzo per informare i consumatori sul loro utilizzo di strumenti automatizzati in aree come la compensazione. Altri specificano che i datori di lavoro devono condurre valutazioni del rischio dei loro strumenti o conservare i dati relativi all’uso dell’intelligenza artificiale.
Gli stati sono stati più lenti nell’adottare leggi che affrontano specificamente il ruolo dell’intelligenza artificiale nella definizione dei salari, ha aggiunto Torres, anche se alcune proposte sono state avanzate dai legislatori locali. Anche se è troppo presto per prevedere quali leggi o quadri emergeranno per primi, ha affermato Torres, i datori di lavoro possono identificare alcuni “concetti generali” per prepararsi ai requisiti futuri.
Una disposizione chiave contenuta in diversi atti legislativi relativi all’IA riguarda i requisiti di valutazione anti-bias. Torres ha spiegato che tali clausole hanno lo scopo di garantire che uno strumento automatizzato prenda decisioni libere da discriminazioni e legittimate da fattori pertinenti al ruolo del dipendente.
Altre parti delle leggi statali sull’IA possono influenzare la strategia di compensazione. La legge sull’intelligenza artificiale del Maryland affronta l’uso della tecnologia di riconoscimento facciale durante il processo di assunzione e leggi di questo tipo possono imporre il consenso o restrizioni sull’uso a seconda di come funziona uno strumento, ha affermato Eisner.
“Il punto chiave è che l’intelligenza artificiale non sposta la responsabilità legale dal datore di lavoro”, ha aggiunto. “I datori di lavoro rimangono responsabili dei risultati salariali, indipendentemente dal fatto che sia un essere umano o un algoritmo a formulare la raccomandazione”.
Quali input dovrebbero essere evitati?
Evitare risultati discriminatori dell’intelligenza artificiale non è semplice come spingere uno strumento a ignorare le caratteristiche protette, ha affermato Eisner. Invece, i datori di lavoro devono essere intenzionali su come viene governata un’intelligenza artificiale, tenendo presente che la tecnologia è valida solo quanto le informazioni fornite dal datore di lavoro.
“I datori di lavoro dovrebbero definire chiaramente quali input sono consentiti ed escludere esplicitamente input che potrebbero portare a risultati distorti o disparità retributive”, ha continuato Eisner.
Anche fattori apparentemente neutrali – come la storia retributiva di un dipendente, le ipotesi sul percorso di carriera di un dipendente, i dati sulla posizione e la cronologia delle prestazioni – possono distorcere i risultati in modo da svantaggiare determinati gruppi, ha affermato Eisner. I datori di lavoro creano rischi anche facendo affidamento su parametri “eccessivamente ottusi”, ha aggiunto, come la sequenza di tasti e il movimento del mouse.
I datori di lavoro devono chiedersi quali fattori possano essere considerati indicatori di parzialità, ha affermato Torres, sottolineando che le determinazioni salariali dovrebbero essere basate su ragioni non discriminatorie e non ritorsive. Le prestazioni possono essere un modo sensato per affrontare questo argomento, ma anche in questo caso le risorse umane devono prestare attenzione a come vengono misurate le prestazioni.
Ad esempio, Torres ha osservato che se le prestazioni si basano su dati di sorveglianza audio o visiva, ciò potrebbe implicare caratteristiche protette come l’origine nazionale, la razza, l’etnia o la disabilità di un dipendente.
“Non si tratta solo di configurare lo strumento per conformarsi alla legge”, ha affermato Torres. “Vuoi anche pianificare una significativa supervisione umana e regolari valutazioni anti-bias per proteggerti da modelli discriminatori che potrebbero svilupparsi come proxy”.
La sicurezza dei dati è una considerazione “importante”.
I datori di lavoro potrebbero anche essere cauti nel condividere dati sensibili sulle risorse umane con strumenti di intelligenza artificiale. Frost di Mercer ha affermato che le organizzazioni sono generalmente riluttanti a iniziare a utilizzare l’intelligenza artificiale nel contesto retributivo a meno che non siano certe che lo strumento sia completamente compatibile con il firewall aziendale e progettato per uso privato e interno.
“Questo è uno dei motivi per cui non stiamo ancora assistendo a un uso diffuso dell’intelligenza artificiale nelle retribuzioni”, ha continuato Frost, aggiungendo che i team delle risorse umane dovrebbero sapere di non inserire mai le informazioni sulle retribuzioni dei dipendenti in un modello di intelligenza artificiale disponibile al pubblico. “Solo sapere quali sono i parametri di sicurezza e quali sono i limiti della privacy è estremamente importante.”
È importante che i professionisti della compensazione garantiscano che i dati che utilizzano siano resi anonimi e riflettano su come il privilegio legale potrebbe applicarsi a qualsiasi decisione presa sulla base dei contributi di AI, ha affermato Torres. Questo vale anche se le raccomandazioni di un’IA non vengono utilizzate per attuare una decisione sulla retribuzione.
Gli strumenti di intelligenza artificiale attingono anche da fonti di dati che vanno oltre i soli dati salariali, compresi i software dei sistemi informativi delle risorse umane che tengono traccia dei dati, delle prestazioni, del coinvolgimento e di altri indicatori dei dipendenti, ha affermato Eisner. I datori di lavoro, ha aggiunto, dovrebbero essere trasparenti con i dipendenti riguardo ai tipi di dati utilizzati, a come tali dati vengono utilizzati e al motivo per cui è necessaria la raccolta.
È probabile che qualsiasi utilizzo dell’intelligenza artificiale implichi l’uso di un fornitore e Anche i rapporti con i fornitori presentano rischi per le risorse umane vale la pena considerare. Ciò include la gestione dei dati da parte del fornitore e qualsiasi clausola contrattuale associata sulla proprietà dei dati e sulle garanzie di sicurezza, ha affermato Eisner.
“Un principio guida qui dovrebbe essere la minimizzazione dei dati: non raccogliere o elaborare dati di cui non si ha effettivamente bisogno perché la raccolta di dati non necessaria può creare esposizione legale senza fornire il valore corrispondente”, ha continuato Eisner.

Le risorse umane devono mantenere la supervisione umana
È fondamentale per i professionisti delle risorse umane esaminare i risultati dell’intelligenza artificiale e prendere le decisioni finali su tutte le decisioni retributive, ha affermato Frost. Ha notato che l’uso di uno strumento di intelligenza artificiale non è, a questo riguardo, diverso dall’utilizzo di Microsoft Excel in quanto un essere umano deve approvare l’output di una determinata piattaforma utilizzando la propria conoscenza ed esperienza; “Non ci stiamo semplicemente affidando completamente all’intelligenza artificiale e assolvendoci dalle responsabilità”.
Questo punto rafforza la necessità di procedure di buona governance, ha affermato Torres, poiché può essere difficile anche per gli esseri umani che supervisionano l’output di un’intelligenza artificiale verificare eventuali errori senza sapere cosa cercare. La formazione può aiutare, ma a livello sistemico, i datori di lavoro devono prevedere un budget e utilizzare una serie di misure come audit e valutazioni del rischio per garantire che abbiano un processo retributivo conforme, ha aggiunto.
Prima che un datore di lavoro scelga di adottare l’intelligenza artificiale nelle sue pratiche retributive, Eisner ha affermato che potrebbe prima articolare ciò che sta cercando di realizzare introducendo la tecnologia, di quali dati avrà bisogno per garantire un’implementazione di successo e quali valori desidera si riflettano nelle sue pratiche retributive.
“L’intelligenza artificiale dovrebbe essere trattata come uno strumento di supporto alle decisioni, non come un decisore autonomo”, ha affermato Eisner.
