Nel presente articolo analizzeremo l’uso dell’intelligenza artificiale e delle sue applicazioni: in particolare nel settore legale.
***
Quotidianamente siamo portati ad interfacciarci con l’intelligenza artificiale, non solo nei social network quando ci viene consigliata una pubblicità in base alle nostre precedenti ricerche ma è ampiamente utilizzata anche nel settore medico, nel settore dell’automotive e in quello legale.
Nel settore medico è recente il ricorso all’utilizzo di algoritmi di intelligenza artificiale che siano in grado di personalizzare la terapia per i tumori del sangue per esempio. (1)
In ambito automobilistico si assiste all’applicazione dell’intelligenza artificiale per creare macchine a guida autonoma ovvero veicoli in grado di circolare da soli senza la necessità dell’intervento umano.
Anche in ambito legale si sta espandendo la diffusione dell’intelligenza artificiale anche se seppur limitatamente come in seguito analizzeremo.
Il termine intelligenza artificiale (AI) venne coniato per la prima volta nel 1955, da Jhon McCarthy, informatico statunitense che così scriveva: “Ogni aspetto dell’apprendimento o ogni altra caratteristica dell’intelligenza può essere descritta in modo talmente preciso da consentire la costruzione di una macchina in grado di simularla”.
Le prime forme di intelligenza artificiale risalgono alla fine degli anni ’80 e ’90 del secolo precedente, ci si riferisce ai sistemi esperti. Si tratta di sistemi che dato un set di regole predeterminate erano in grado di arrivare ad una conclusione e descrivere la risoluzione del problema presentato. I sistemi esperti fallirono con il passare degli anni perché non erano in grado di interpretare l’infinita varietà di situazioni e contesti.
La Carta Etica Europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi del 2018 prevede che l’intelligenza artificiale corrisponda all’ “insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani”.
Quindi l’intelligenza artificiale corrisponde alla capacità della macchina di giungere a delle soluzioni in base ai propri dati e alle proprie esperienze.
Attualmente l’intelligenza artificiale impiegata si caratterizza per due aspetti importanti:
- Il linguaggio naturale (Natural Language Processing), ovvero un sistema di regole compilate da linguisti e implementate da ingegneri che permettono alla macchina di apprendere la grammatica e la sintassi; e
- Il machine learning ovvero il meccanismo mediante il quale questi sistemi apprendono, oltre che dal Natural Language Processing, anche dall’esperienza, per determinare delle soluzioni.
Quindi, il meccanismo di apprendimento dell’intelligenza artificiale non dipende esclusivamente dai dati con i quali la macchina nasce, poiché la macchina può apprendere anche dall’esperienza ovvero dall’ambiente circostante con il quale si relaziona. Quest’ultima modalità di apprendimento crea non pochi dubbi dal momento che non siamo in grado di controllare quali sono le informazioni di cui la macchina si impadronisce.
Attualmente si individuano tre categorie di intelligenza artificiale:
- Artificial Narrow Intelligence (ANI)
- Artificial General Intelligence (AGI)
- Artificial Super Intelligence (ASI)
L’ ANI corrisponde all’intelligenza artificiale debole ovvero quella che si caratterizza per una ristretta gamma di abilità. Un esempio sono gli assistenti vocali quali Siri o l’Assistente Google che sono predisposti ad eseguire delle funzioni limitate o a raggiungere determinati obiettivi.
L’ AGI è l’attuale “AI forte”, ossia quella che si considera alla pari delle capacità umane; infatti, l’AI in questo caso imita l’intelligenza umana, ed in qualche modo appare in grado di svolgere qualsiasi compito che viene affidato alla macchina.
Tra le organizzazioni che perseguono degli studi e delle implementazioni riguardo questa tipologia forte di intelligenza artificiale ricordiamo, tra le tante, OpenAI, organizzazione estremamente interessante se si considera l’ultimo modello di Chat (ChatGPT) commercializzato.
ChatGPT come strumento di elaborazione del linguaggio naturale rientra nel Generativa Pre-trained Transformer 3 ovvero un modello linguistico che dà la possibilità di creare un testo simile al linguaggio naturale umano.
L’ASI ovvero la super intelligenza artificiale riguarderebbe una macchina con capacità superiori rispetto a quelle umane. Chiaramente, si tratta di un’idea ancora ipotetica poiché attualmente non è pensabile che una macchina possa superare le capacità umane.
In base a ciò che viene previsto dal Libro Bianco sull’intelligenza artificiale della Commissione Europea del 2020 (2) emerge che l’utilizzo dell’AI non è solo qualcosa di positivo ma porta con sé delle criticità.
La Commissione Europea nel mettere in luce gli aspetti negativi stabilisce che: “L’uso dell’IA può pregiudicare i valori su cui si fonda l’Unione e causare violazioni dei diritti fondamentali, compresi i diritti alle libertà di espressione e di riunione, la dignità umana, la non discriminazione fondata sul sesso, sulla razza, sull’origine etnica, sulla religione o sulle convinzioni personali, sulla disabilità, sull’età o sull’orientamento sessuale (ove applicabili in determinati settori), la protezione dei dati personali e della vita privatao il diritto a un ricorso giurisdizionale effettivo e a un giudice imparziale, nonché la tutela dei consumatori. Tali rischi potrebbero derivare da difetti nella progettazione complessiva dei sistemi di IA (anche per quanto riguarda la sorveglianza umana) o dall’uso di dati senza che ne siano state corrette le eventuali distorsioni (ad esempio se un sistema è addestrato utilizzando solo o principalmente dati riguardanti gli uomini, il che comporta risultati non ottimali per quanto concerne le donne)”.
Infatti, tra i sette requisiti fondamentali dell’intelligenza artificiale prevede che il suo utilizzo debba rispettare non solo il principio di equità anche quelli di non discriminazione.
Alla luce di quanto sopra, si ricava che:
1. L’AI necessita di dati. È evidente come i dati siano le informazioni attraverso le quali la macchina è in grado di apprendere. Infatti, quanto più grande sarà il set di dati, tanto più accurato sarà l’apprendimento da parte della macchina;
Circa lo sviluppo dell’intelligenza artificiale si è espressa anche la Commissione Europea in un commento del 2018 dove valuta la necessità di creare un ambiente valido dei dati. (3)
A questo fine si rimanda al Regolamento (UE) 679/ 2016 (GDPR) che non fa esplicito riferimento all’utilizzo dei dati personali da parte dell’intelligenza artificiale ma si pone come mezzo per la protezione dei dati personali. Il Regolamento impone la necessità per gli utilizzatori di sistemi di AI, tra i diversi aspetti, di:
- definire le finalità del trattamento;
- informare sulla tecnologia utilizzata e determinarne una base giuridica;
- individuare la necessità di comunicare il funzionamento delle tecnologie ed intervenire qualora vi siano violazioni;
2. L’AI apprende in modo autonomo quindi sia da set di dati immessi che dall’esperienza. È quest’ultima possibilità di apprendimento che suscita non poche critiche poiché comporta l’imprevedibilità della macchina.
Tra le criticità che si muovono nei confronti dell’intelligenza artificiale, vi è da una parte, l’imprevedibilità della macchina dovuta al fatto che questa sia in grado di apprendere dall’ambiente circostante, quindi è la macchina che in modo autonomo è in grado di apprendere dall’esperienza.
Questa possibilità di apprendere in modo autonomo, e non solo grazie ai set di dati mediante i quali è stata implementata, pone in stretta correlazione anche con il concetto di black box.
La black box, intesa come il massimo livello di opacità di alcuni dei sistemi di AI, è essenzialmente descrivibile in base al suo comportamento esterno, in quest’ottica dato un determinato input otterremo un output ma non saremo in grado di comprenderne il funzionamento interno.
In ambito legale sono diverse le applicazioni dell’intelligenza artificiale:
1. Attività di e-discovery: ovvero quei processi che permettono la revisione e la gestione di documenti in modo automatizzato: si tratta di un’attività che permette di gestire un gran numero di documenti conservati su supporti digitali o in cloud.
Un software che si sta diffondendo in diversi tribunali italiani e che è in grado di compere attività di di e-discovery è il Nuix e-Discovery Review.
Si tratta di un software in grado di analizzare rapidamente una grande quantità di dati, di trovare modelli di dati velocemente e di attivare utili flussi di lavoro.
Pertanto, è uno strumento in grado di ridurre la complessità e il tempo speso per la revisione documentale.
2. Attività di due diligence: si tratta del processo secondo il quale un’azienda che vuole mutare il proprio assetto oppure investire in un determinato settore, realizzerà una serie di attività volte ad approfondire e indagare sull’oggetto della trattativa. In questo modo, grazie all’intelligenza artificiale, in particolare ad un algoritmo in grado di analizzare e scandagliare in modo autonomo qualsiasi informazione si ridurranno i tempi di indagine e sarà efficiente dal punto di vista delle risorse.
3. Attività di consulenza legale: l’utilizzo dell’intelligenza artificiale può essere utilizzato dagli Avvocati come uno strumento per semplificare e velocizzare alcune pratiche standard, che altrimenti richiederebbero un dispendio di energie maggiori. Spesso si può ricorrere all’utilizzo di Chatbot ovvero applicazioni software usate per interagire con le conversazioni umane. si tratta di metodi che sono in grado di fornire risposte in linea alla richiesta dei clienti.
Un esempio interessante di assistenza legale digitale riguarda il sito francese Litige.fr.
Si tratta di un sito francese, il cui scopo è quello di regolare la maggior parte delle controversie della via quotidiana come quelle inerenti al divorzio e frodi, grazie a delle procedure semplificate, interamente online e ad un prezzo contenuto.
Ad esempio, permettono la presentazione di una lettre de mise en cause (lettera di denuncia), senza la necessità che questa venga stampata o inviata tramite posta. Questa lettera verrà presa in cura da Ligne.fr che si preoccuperà di inviarla alla controparte richiamandone l’attenzione.
Anche Forbes Francia si è espressa sul sito francese, in particolare la giornalista Maurice Midena ne mette in luce gli aspetti positivi come la semplicità nell’utilizzazione, la facilitazione nell’accesso al diritto e i prezzi moderati. (4)
Persino nel Regno Unito si è verificato un caso di ricorso all’intelligenza artificiale in ambito della consulenza legale.
È il caso dell’applicazione DoNotPay, uno strumento a basso costo in grado di fornire non solo consulenza legale, quindi, dopo aver spiegato la controversia sarà in grado di trovare una soluzione, ma anche un mezzo per contestare le multe in sede procedimentale. In sede di processo l’applicazione si comporterà come un avvocato suggerendo all’imputato, dotato di auricolare bluetooth, le informazioni da dire.
4. Settore della giustizia predittiva si tratta di una branca del diritto di recente sviluppo che consiste nell’utilizzo dell’intelligenza artificiale nel prevedere l’esito di un giudizio.
Se nelle sopra citate applicazioni di intelligenza artificiale, il contributo di quest’ultima è di supporto per gli avvocati o per le imprese e non sembra avere fin troppe ripercussioni poiché il tutto è limitato ad attività il cui scopo è di velocizzare i tempi e i costi; in questo caso la situazione è differente.
Infatti, come sopra spiegato, non sempre è semplice comprendere come la macchina sia giunta ad una soluzione.
Lo scopo dell’algoritmo predittivo è di essere in grado di valutare i possibili esiti e tempi giurisdizionali di una controversia dato un set di dati predefiniti come l’esito di precedenti sentenze e massime giurisprudenziali.
Riteniamo interessante nell’ambito della giustizia predittiva riportare l’esito della discussa sentenza del 2016 della Corte Suprema del Wisconsin.
Nel caso di specie l’imputato sig. E.L.Loomis, era stato condannato a sei anni di reclusione per non essersi fermato al controllo della polizia.
Nel determinare la pena, i giudici avevano tenuto conto dei risultati elaborati dal programma COMPAS (Correctional offender management profiling for alternative sanctions), un algoritmo predittivo che da un lato è concepito come uno strumento per prevedere i rischi di recidiva mentre dall’altro per identificare i bisogni dell’individuo in aree quali occupazione, disponibilità di alloggio ed abuso di sostanze stupefacenti. L’algoritmo classificò ad alto rischio il soggetto imputato in entrambe le categorie.
Anche in Cina, nella Procura di Shangai Pudong è in corso la sperimentazione di un algoritmo predittivo, System 206: il sistema è in grado di elaborare accuse per otto reati e ciò che è notevole è che il report del sistema entrerebbe direttamente nel processo decisionale dell’accusa.
Quello che è nuovo rispetto ai precedenti utilizzo, è che in questi casi l’algoritmo dell’ai non svolge più un ruolo marginale, ma piuttosto un ruolo centrale perché si introduce nella vera e propria fase decisionale: ragion per cui le considerazioni da farsi in queste situazioni sono molto più importanti e devono essere più prudenti.
Ai fini della presente disamina si rimanda al Quaderno dell’Ordine degli Avvocati di Milano, del Luglio 2021, che esprime il suo parere in materia di intelligenza artificiale e ruolo dell’Avvocato. (5)
Nel documento si prevede che l’intelligenza artificiale e il professionista Avvocato dovranno considerarsi in un rapporto dinamico di parità.
L’Avvocato non potrà mai assumere in modo acritico la decisione della macchina all’unico fine di non assumere su di sé il rischio e la responsabilità dell’azione perché in questo modo violerebbe il principio di indipendenza dell’avvocato (art.10) (6) e quello di competenza (art. 14) (7) previsti dal codice deontologico.
Viceversa, se il Giudice si discosterà dalla decisione suggerita dalla macchina dovrà dare motivazione della sua scelta e perciò una decisione non potrà mai essere assunta in modo completamente automatizzato.
Infatti, il Regolamento (UE) 679/ 2016, all’art. 22, disciplina i requisiti per la liceità di un eventuale processo decisionale automatizzato. (8)
Si ricava, perciò, che una decisione assunta tramite l’impiego di mezzi tecnologici e senza l’intervento umano, che produce effetti giuridici che incidono sulla persona in modo significativo, sia lecita se:
- Necessario per la conclusione o esecuzione di un contratto;
- Autorizzato dal diritto dell’Unione Europea o da uno Stato membro;
- Vi sia consenso esplicito dell’interessato al trattamento dei dati.
Pertanto, emerge che l’utilizzo dell’intelligenza artificiale deve considerarsi come un mezzo di supporto per l’attività dell’Avvocato o del Giudice e non può, in alcun modo, tradursi in un potere sostitutivo all’attività giurisdizionale tradizionale.
In conclusione, ad oggi si deve ritenere che l’intelligenza artificiale altro non possa essere se non uno strumento di supporto per tecnici del diritto che dovranno sapersi evolvere verso il sapere delle tecnologie della comunicazione e dell’informazione.
Francesca Sancineti
Note:
1 Redazione ANSA, 2022, Tumori del sangue, algoritmi per cure su misura e più rapide: “È la promessa che arriva dall’utilizzo dell’intelligenza artificiale in ematologia, che consentirà di personalizzare la terapia per i tumori del sangue. Con questo obiettivo nasce il progetto Philadelphia University, organizzato dall’Accademia Nazionale di Medicina (ACCMED), con il contributo non condizionante di Novartis”.
2 Libro Bianco sull’intelligenza artificiale della Commissione Europea del 2020 prevede che: “L’uso dell’IA, come l’uso di qualunque nuova tecnologia, comporta sia opportunità sia rischi. I cittadini temono di essere privati dei mezzi per difendere i loro diritti e la loro sicurezza di fronte alle asimmetrie informative del processo decisionale algoritmico, mentre le imprese sono preoccupate per l’incertezza giuridica. L’IA può contribuire a proteggere la sicurezza dei cittadini e consentire loro di godere dei diritti fondamentali, tuttavia i cittadini temono anche che l’intelligenza artificiale possa avere effetti indesiderati o essere addirittura utilizzata per scopi dolosi. A queste preoccupazioni occorre dare una risposta. Oltre alla mancanza di investimenti e di competenze, la mancanza di fiducia è infatti uno dei fattori principali che frenano una più ampia adozione dell’IA.”
3 Comunicazione (COM) del 2018, n.795 final in merito ai dati europei prevede che: “Affinché l’IA possa svilupparsi ulteriormente è necessario un valido ecosistema dei dati basato sulla fiducia, sulla disponibilità dei dati e sull’infrastruttura. Il regolamento generale sulla protezione dei dati (GDPR) garantisce la fiducia nel mercato unico dei dati. Il GDPR ha istituito un nuovo standard globale, mettendo un forte accento sui diritti delle persone e riflettendo i valori europei, ed è un importante elemento per garantire la fiducia nell’IA. La fiducia è particolarmente importante per quanto concerne l’elaborazione dei dati di assistenza sanitaria per applicazioni basate sull’IA. La Commissione desidera incoraggiare il comitato europeo per la protezione dei dati affinché sviluppi orientamenti sulla questione del trattamento dei dati personali nel contesto delle attività di ricerca. Ciò faciliterà lo sviluppo di grandi set di dati transnazionali per la ricerca, che possono essere utilizzati per l’IA”.
4 Maurice Midena, journaliste Forbes Frances: “l’objectif de Ligne.fr est de favoriser l’acess au droit pour la plus grand nombre. La semplificitè d’utilisation de la platform y partecipe. Tout comme les prix relativement moderes.”
5 Ordine degli avvocati di Milano, Quaderno dell’Ordine, Luglio 2021,pubblicazione a cura della Commissione Intelligenza Artificiale e Processo Telematico dell’ordine degli Avvocati di Milano, pp. 27-28.
6 Art. 10 Codice Deontologico Forense prevede che: “L’avvocato deve adempiere fedelmente il mandato ricevuto, svolgendo la propria attività a tutela dell’interesse della parte assistita e nel rispetto del rilievo costituzionale e sociale della difesa.”
7 Art. 14 codice deontologico forense prevede che: “L’avvocato, al fine di assicurare la qualità delle prestazioni professionali, non deve accettare incarichi che non sia in grado di svolgere con adeguata competenza.”
8 Art. 22 GDPR in materia di decisione interamente automatizzata prevede che: “1. L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.
2. Il paragrafo 1 non si applica nel caso in cui la decisione:
a) sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento;
b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato;
c) si basi sul consenso esplicito dell’interessato.
3. Nei casi di cui al paragrafo 2, lettere a) e c), il titolare del trattamento attua misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione.
4. Le decisioni di cui al paragrafo 2 non si basano sulle categorie particolari di dati personali di cui all’articolo 9, paragrafo 1, a meno che non sia d’applicazione l’articolo 9, paragrafo 2, lettere a) o g), e non siano in vigore misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato.”
Bibliografia:
- Carta Etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi (Strasburgo, 3-4 dicembre 2018)– CEPEJ (2018) 14
- Commento della Commissione, (COM) del 2018, n.795 final https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=CELEX:52018DC0795&from=DE#footnote41
- GDPR (General Data Protection Regulation), Regolamento (UE) n.679/2016
- Libro Bianco sull’intelligenza artificiale della Commissione Europea del 2020
- Codice Deontologico Forense
- Ordine degli avvocati di Milano, Quaderno dell’Ordine, Luglio 2021,pubblicazione a cura della Commissione Intelligenza Artificiale e Processo Telematico dell’ordine degli Avvocati di Milano, pp. 24-37.
- Redazione ANSA, 2022, Tumori del sangue, algoritmi per cure su misura e più rapide https://www.ansa.it/canale_saluteebenessere/notizie/medicina/2021/07/02/tumori-del-sangue-algoritmi-per-cure-su-misura-e-piu-rapide_4b5b1dd8-e7d3-4873-8451-252dd046c1ae.html