L’intelligenza artificiale ha il potenziale per elevare la produttività e la crescita economica e, se usato in modo responsabile, può aiutare a rendere il lavoro più significativo per le persone. Ma non siamo sempre a conoscenza della presenza di AI nella tecnologia che utilizziamo. Hayfa Mohdzaini esamina il ruolo vitale della professione delle risorse umane nella comprensione della presenza e del potenziale dell’intelligenza artificiale e, soprattutto, l’uso etico di esso sul lavoro.
Un sondaggio CIPD e Hibob di oltre 800 capi della società del Regno Unito ha rilevato che l’87% era a conoscenza che l’IA può essere presente nei motori di ricerca, ma solo il 64% era a conoscenza del suo utilizzo nei sistemi di informazione delle risorse umane. Tuttavia, l’eccitazione per i contenuti generati dall’IA, insieme ai fornitori di risorse umane, comprese le caratteristiche di AI generativa, sta aumentando la consapevolezza della prevalenza della tecnologia e l’accensione di un rinnovato dibattito sull’adozione etica dell’IA.
Riteniamo che il lavoro possa – e dovrebbe – beneficiare delle persone e della società tanto quanto beneficia il business e l’economia. Mentre l’intelligenza artificiale ha il potenziale per supportare un buon lavoro, come l’ottimizzazione delle attività di routine e la liberazione del tempo per un lavoro più creativo, anche i datori di lavoro devono considerare i potenziali rischi. Ciò include il non usare AI e altre tecnologie in modi che causano danni o vanno contro i valori dell’azienda.
Sostituire i lavoratori con AI senza adeguato supporto per le persone a Upskill o la transizione verso altri occupazioni può essere considerata non etica. Sebbene alcuni spostamenti di lavoro basati sull’IA saranno inevitabili, la tecnologia dovrebbe essere utilizzata per integrare la capacità umana.
Spesso l’obiettivo è liberare il tempo per un lavoro più gratificante. Tuttavia, il mix di compiti deve essere rivisitato quando l’IA cambia radicalmente il lavoro di qualcuno; Non tutti possono fare un pensiero profondo o affrontare domande difficili per i clienti tutto il giorno.
Il dipendente sarebbe più produttivo se avessero un po ‘di tempo indietro per l’apprendimento, il volontariato o semplicemente il riposo? È importante coinvolgere i dipendenti nel riprogettare il loro ruolo perché non tutti hanno le stesse esigenze e gli impatti che sono negativi per il benessere e il coinvolgimento sono dannosi per l’individuo e l’organizzazione.
Anche l’uso dell’IA nel reclutamento dovrebbe essere monitorato attentamente. I pregiudizi nei dati su cui l’IA è stata addestrata potrebbe potenzialmente portare a essere svantaggiati i candidati in base alle loro caratteristiche protette, come sesso, età o razza.
L’intelligenza artificiale potrebbe anche essere usata in modi invadenti e persino illegali. Ad esempio, raccogliendo e analizzando i profili dei social media candidati che potrebbero includere foto personali e informazioni familiari: ciò potrebbe violare il principio di minimizzazione dei dati del GDPR.
Alcuni usi di intelligenza artificiale rientrano in un’area etica grigia dove è legale da fare ma potrebbe ottenere un respingimento dai dipendenti.
Un esempio è l’introduzione di una nuova misura per il monitoraggio delle prestazioni dei dipendenti, come l’uso e -mail o il tempo speso per attività.
Sebbene l’intenzione possa essere quella di migliorare le prestazioni, la sicurezza o la responsabilità, i dipendenti potrebbero ritenere che la propria privacy venga invasa o i dati potrebbero essere utilizzati per valutare ingiustamente le loro prestazioni senza un contesto adeguato.
In questo caso, dire ai dipendenti non è sufficiente: i datori di lavoro devono avere una conversazione a due vie con le persone interessate per assicurarsi che le misure siano pertinenti e necessarie per migliorare i risultati aziendali.
La capacità di un’organizzazione di abbracciare efficacemente i benefici dell’IA dipende dall’avere esperti di persone, lavoro e cambiamenti coinvolti nelle decisioni sull’implementazione della tecnologia e su come questi vengono comunicati ai dipendenti. I professionisti delle risorse umane saranno in grado di considerare l’impatto immediato durante la visione a lungo termine su come rispondere all’impatto sul lavoro delle persone, oltre a stabilire guardrail per come viene utilizzata l’IA.
Le risorse umane dovrebbero aiutare a sviluppare una cultura che supporti l’uso responsabile dell’intelligenza artificiale in un modo che si allinea ai valori dell’organizzazione. Ciò include l’offerta di opportunità di upskilling e reskilling e fornire uno spazio sicuro per i dipendenti da imparare gli uni dagli altri.
Se diventa chiaro che i lavori saranno probabilmente sostituiti, pensa alle opportunità di riqualificare e ridistribuire i lavoratori all’interno dell’organizzazione prima di considerare i licenziamenti.
La consultazione con i dipendenti prima, durante e dopo qualsiasi modifica al modo in cui lavorano è vitale, soprattutto per valutare l’impatto in modo significativo.
I professionisti delle risorse umane dovrebbero fornire linee guida per aiutare le persone a prendere le giuste decisioni su come e quando l’IA può essere utilizzata. Questi potrebbero impostare esempi di uso accettabile e inaccettabile, le potenziali conseguenze per sbagliare le cose e chi gli individui dovrebbero contattare per consigli se non sono sicuri.
Affrontare i rischi che i regali dell’IA possono già essere coperti dalle politiche aziendali esistenti, ma una politica di intelligenza artificiale specifica o “codice etico” può fornire chiarezza e aiutare a evitare ipotesi sbagliate.
Questo potrebbe includere:
- Una spiegazione del perché è necessario, che copre il modo in cui i dipendenti dovrebbero comportarsi e un riconoscimento che l’uso dell’IA dovrebbe essere fondato sulla cultura e sui valori dell’organizzazione
- Uno schema di uso responsabile, essendo chiaro che l’IA è uno strumento e non una sostituzione del processo decisionale umano
- La necessità di trasparenza su dove e come viene utilizzata l’IA
- Un riconoscimento della distorsione che potrebbe esistere nei sistemi di intelligenza artificiale e le misure da mitigare contro di esso
- Quali sistemi possono essere utilizzati in sicurezza e la protezione dei dati e le misure di sicurezza delle informazioni che l’organizzazione sta assumendo
- Come sollevare preoccupazioni sull’uso dell’IA
Il CIPD ha pubblicato una guida su come creare una politica di utilizzo dell’IA e scegliere la giusta tecnologia per la tua organizzazione.
L’orlorare le DOS e non fare in un codice etico di intelligenza artificiale chiarisce cosa significano le organizzazioni per uso responsabile dell’IA a beneficio sia dei datori di lavoro che delle loro persone.