Ian Jeffery, amministratore delegato della Law Society of England and Wales, spiega come l’organizzazione sta sostenendo i suoi membri e oltre per comprendere i rischi e le opportunità presentati dall’intelligenza artificiale generativa.
L’intelligenza artificiale è qui per restare. Sta già modellando il modo in cui operano gli studi legali. Molte aziende, sia grandi che piccole, così come i team legali interni, utilizzano strumenti di intelligenza artificiale generativi.
Oltre la metà degli avvocati nelle imprese utilizza AI o testando attivamente le sue capacità. La Law Society mira a sostenere gli avvocati nella navigazione delle opportunità e delle sfide di questo nuovo mondo coraggioso.
Più specificamente, abbiamo recentemente pubblicato una guida per i nostri membri e chiunque sia interessato a strumenti di intelligenza artificiale generativi che includono una lista di controllo di considerazioni chiave su come utilizzare l’IA in modo responsabile.
Abbiamo anche sviluppato una strategia di intelligenza artificiale basata su tre principi fondamentali: innovazione, impatto e integrità.
Innovazione In AI sta trasformando il modo in cui gli studi legali forniscono servizi legali. Gli strumenti di intelligenza artificiale possono aiutare con la ricerca legale, l’analisi del contratto e persino la redazione di documenti legali.
Questo nuovo modo di lavorare può consentire agli avvocati di concentrarsi su un lavoro più strategico in quanto l’IA non può e non deve sostituire il giudizio umano. La supervisione umana rimane essenziale.
Impatto Non riguarda solo la professione legale. Riguarda l’importanza del settore per l’economia e la prosperità della nostra società. Gli strumenti basati sull’intelligenza artificiale possono aiutare a semplificare i processi legali, ridurre i costi e rendere i servizi legali più accessibili a tutti.
Tuttavia, l’IA è buona solo quanto i dati su cui è addestrato e molti modelli di intelligenza artificiale si basano su set di dati esistenti. Questi possono contenere pregiudizi che possono creare risultati sleali che influenzano in modo sproporzionato le comunità sottorappresentate.
Inoltre, i modelli AI sono spesso addestrati in diversi paesi come gli Stati Uniti, con risultati inadatti per il Regno Unito.
Proteggere la giustizia
Mentre la Law Society continua a lavorare per proteggere il pubblico e la professione legale, sta anche lavorando con il governo, le autorità e gli esperti pertinenti per garantire che l’IA sia regolata e che la giustizia sia protetta.
L’introduzione di campioni di intelligenza artificiale con esperienza in diversi settori, nonché partenariati come il memorandum di comprensione del Regno Unito con antropico per esplorare le applicazioni di intelligenza artificiale nei servizi pubblici, dimostrano l’impegno del governo per lo sviluppo dell’intelligenza artificiale.
Tuttavia, la regolamentazione deve tenere il passo con la tecnologia. Mentre il Regno Unito ha preso provvedimenti verso la governance dell’IA responsabile, è necessario fare più per garantire che l’IA sia utilizzata in modo equo, trasparente e senza rafforzare le disuguaglianze esistenti.
AI deve essere usato con integrità. Gli avvocati hanno il dovere di mantenere la riservatezza dei clienti, proteggere i dati sensibili e sostenere lo stato di diritto. Il crescente uso di AI solleva importanti domande sulla responsabilità e sulla trasparenza.
Ad esempio, se l’IA assiste un avvocato nella redazione di consigli, chi è responsabile di errori: lo sviluppatore di intelligenza artificiale o l’avvocato? Cosa succede se un cliente si basa su una guida legale generata dall’IA combinata con la consulenza umana? Chi è in definitiva responsabile?
Scatole nere
Gli strumenti AI sono spesso descritti come “scatole nere”, il che significa che il processo di produzione di contenuti non è chiaro. Rende più difficile per gli avvocati e il pubblico fidarsi dei risultati, quindi la trasparenza è molto importante. Ecco perché la Law Society ritiene che la divulgazione di fonti di dati sia essenziale.
È vero che diversi paesi stanno adottando approcci diversi alla regolamentazione dell’IA. Ad esempio, l’UE AI Act ha introdotto regole rigorose per grandi modelli di intelligenza artificiale.
Il vertice di azione di AI di Parigi si è concentrato sull’inclusività e sulla sostenibilità. Il Regno Unito ha firmato un protocollo d’intesa con gli Stati Uniti per testare i modelli AI avanzati. C’è una tendenza e la necessità di collaborazione globale quando si tratta di AI, che include il mondo legale.
Ciò che è chiaro è che l’innovazione deve essere bilanciata con la regolamentazione e le garanzie etiche. Ad esempio, il Regno Unito ha criminalizzato i falsi profondi sessualmente espliciti. Ma poiché l’IA non conosce confini, la cooperazione internazionale è di fondamentale importanza.
La Law Society è impegnata ad aiutare la professione legale e le persone che hanno bisogno di consulenza legale a navigare in questo nuovo e complesso mondo.
L’intelligenza artificiale offre benefici ma presenta anche rischi di cui abbiamo bisogno per mitigare, quindi sosteniamo politiche che supportano l’innovazione e l’uso etico dell’IA.
L’intelligenza artificiale dovrebbe essere utilizzata per migliorare i processi legali, non sostituire il fattore umano importante. Lavoriamo insieme a politici e regolatori per creare un sistema giudiziario a prova di futuro adatto allo scopo che supporta la crescita e l’equità.
Facciamo affidamento sui tre pilastri della nostra strategia – innovazione, impatto e integrità – stiamo lavorando duramente per garantire che l’uso di AI si allinei con lo stato di diritto, migliorando l’accesso alla giustizia senza compromettere la sua integrità.