Pubblicato per la prima volta il
Breve immersione:
- Secondo un rapporto della società di prevenzione delle frodi Nametag, i dirigenti di alto livello dovrebbero prepararsi a un aumento delle truffe di impersonificazione basate sull’intelligenza artificiale contro le imprese nel prossimo anno.
- Tendenze come la maggiore accessibilità delle tecnologie “deepfake” probabilmente accelereranno quest’anno, consentendo ai malintenzionati di intensificare attacchi come le frodi sulle assunzioni, dove i truffatori presentarsi come legittimi candidati al lavorosecondo il rapporto 2026 Workforce Impersonation di Nametag pubblicato il mese scorso.
- “È una tempesta perfetta che ci porta a percepire davvero che il 2026 sarà l’anno degli attacchi di furto d’identità”, ha affermato Aaron Painter, CEO di Nametag, in un’intervista. Le tecnologie di intelligenza artificiale “hanno dato nuovi superpoteri ai malintenzionati, e loro stanno approfittando di questi strumenti”, ha detto.
Informazioni sull’immersione:
Dal 2020 sono state presentate all’FBI più di 4,2 milioni di segnalazioni di frode, con conseguenti perdite per oltre 50,5 miliardi di dollari, con una parte crescente di tali truffe legate ai deepfake, che sono immagini, video o registrazioni audio alterate dall’intelligenza artificiale, secondo quanto riferito dall’FBI e dall’American Bankers Association Foundation a settembre.
Secondo Nametag, la tecnologia Deepfake ha rappresentato un punto di svolta per i truffatori, rendendo sostanzialmente più semplice per loro rubare la voce o le sembianze di qualcuno ed effettuare attacchi di impersonificazione.
Nel 2024, il gruppo di ingegneria britannico Arup era sotto i riflettori dopo aver riferito che i truffatori avevano sottratto con successo 25 milioni di dollari dall’azienda utilizzando la tecnologia deepfake per presentarsi come CFO dell’organizzazione.
Il produttore di auto sportive di lusso Ferrari è stato preso di mira senza successo in un tentativo di deepfake nel 2024. Nell’ambito della truffa, il truffatore ha tentato di ingannare un dirigente dell’azienda inducendolo ad autorizzare una transazione utilizzando messaggi WhatsApp che sembravano essere stati inviati dall’amministratore delegato Benedetto Vigna.
In un terzo esempio, la società di rilevamento delle frodi Pindrop ha dichiarato l’anno scorso di essere stata presa di mira senza successo in a novembre Truffa sulle assunzioni del 2024 che coinvolgeva la tecnologia deepfake.
Secondo una stima della società di sicurezza informatica DeepStrike, il numero di deepfake online è esploso da circa 500.000 nel 2023 a circa otto milioni nel 2025.
Painter ha affermato che gli attacchi di impersonificazione sono destinati a subire un’ulteriore accelerazione quest’anno, con dipartimenti come la tecnologia dell’informazione, le risorse umane e la finanza che fungono da obiettivi primari.
“Vedrete un aumento degli attacchi di impersonificazione nei vari ruoli aziendali”, ha affermato.
Secondo Nametag, nelle truffe rivolte all’IT, i truffatori possono spacciarsi per dipendenti o appaltatori nel tentativo di indurre il personale dell’help desk a reimpostare la password della vittima o l’autenticazione a più fattori. Quest’anno l’imitazione di deepfake diventerà una “tattica standard nei manuali di ingegneria sociale dell’helpdesk”, ha previsto l’azienda.
Le aziende devono inoltre affrontare crescenti rischi di frode e sicurezza informatica quando si tratta del processo di assunzione, ha affermato Nametag. Secondo la ricerca, la responsabilità di verificare l’identità dei candidati al lavoro è distribuita su più team, fornendo “aperture prevedibili” per i truffatori.
Secondo una previsione di Gartner, entro il 2028, 1 profilo di candidato al lavoro su 4 in tutto il mondo sarà falso.
L’emergere dell’intelligenza artificiale ha elevato il livello di minaccia, ha avvertito Nametag. “Una volta che un agente (AI) ha accesso e autonomia, può essere dirottato o utilizzato in modo improprio proprio come qualsiasi altro account utente”, afferma il rapporto. Con un agente dirottato, i truffatori possono “avviare azioni dall’aspetto legittimo, dalle esportazioni di dati all’implementazione di software, che aggirano la supervisione umana”.
Alle organizzazioni è stato consigliato di apportare un “cambiamento fondamentale” nel modo in cui pensano all’identità della forza lavoro. “Ciò significa verificare che dietro la tastiera, il telefono o l’agente AI ci sia la persona giusta, non fidarsi ciecamente che chiunque possa fare clic su un collegamento, toccare un push o partecipare a una chiamata sia chi afferma di essere”, afferma il rapporto.
Lettura consigliata
-
I candidati al lavoro Deepfake sono segnalati come una minaccia informatica in crescita

Immersione del CFO
