Giudici “potenziati” dall’IA: le tutele dell’AI Act

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Carta di credito con fido

Procedura celere

 


Su intelligenza artificiale (IA) e decisione giudiziaria è necessario guardare avanti. Il Regolamento europeo (AI Act, 2024) ne dà un’ottima opportunità entrando in dettagli che si avvicinano al cuore del processo decisionale dei giudici, penali o civili, e operando aperture assai significative[1].

AI Act, un percorso normativo accidentato

Bisogna solo avere un po’ pazienza nel seguire un percorso, breve, ma un po’ accidentato.

Com’è noto il Regolamento adotta un approccio basato sul rischio e, coerentemente, dedica l’art. 6, paragrafo 2, alle Regole di classificazione per i sistemi di IA ad alto rischio. In realtà, questo articolo contiene solo il rinvio a un Allegato III, dove si trova l’elencazione di alcuni contesti che rendono rischiosi gli utilizzi di sistemi di IA. Al Comma 8 dell’Allegato si trovano esplicitamente indicati «i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie». Tuttavia, lo stesso articolo 6 prevede (al paragrafo 3) una limitazione all’applicazione dell’Allegato III e, quindi, alla classificazione come uso ad alto rischio: «In deroga al paragrafo 2, un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale».

Cessione crediti fiscali

procedure celeri

 

Quando l’IA nella giustizia non è ad alto rischio

Si apprende così che, fermo restando che in generale il contesto giudiziario ha la proprietà di far diventare ad alto rischio l’uso di una certa IA (cosa che accade sempre quando è in gioco la profilazione di persone fisiche), questa forza può essere di entità ridotta e, quindi, non tale da determinare il sorgere del rischio alto in alcuni casi. In particolare quando:

a) il sistema di IA è destinato a eseguire un compito procedurale limitato;

b) il sistema di IA è destinato a migliorare il risultato di un’attività umana precedentemente completata;

c) il sistema di IA è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana; o

d) il sistema di IA è destinato a eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso elencati nell’allegato III.

Il Considerando n. 61 dell’AI Act

Queste previsioni sono in linea con il Considerando n. 61, che così recita:

È in particolare opportuno, […] classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti [enfasi aggiunta]. Anche i sistemi di IA destinati a essere utilizzati dagli organismi di risoluzione alternativa delle controversie a tali fini dovrebbero essere considerati ad alto rischio quando gli esiti dei procedimenti di risoluzione alternativa delle controversie producono effetti giuridici per le parti. L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo [enfasi aggiunta]: il processo decisionale finale deve rimanere un’attività a guida umana. Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi.

Un giudice secondo l’AI Act

Al netto di una certa farraginosità, il quadro che emerge è chiaro. Il legislatore europeo è preoccupato particolarmente per l’attività giudicante e vuole che essa rimanga prerogativa degli umani, mentre per gli usi di sistemi di IA per attività amministrative accessorie vi sono problemi meno delicati. In più, un sistema di IA, pur usato a sostegno dell’attività giudicante, sfugge alla bolla di sistema ad «alto rischio» (secondo l’Allegato III) se esegue un compito procedurale limitato, oppure svolge un compito preparatorio, o migliora soltanto il risultato di un’attività umana precedentemente completata, oppure è destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non è finalizzato a sostituire o influenzare la valutazione umana precedentemente completata[2].

Dilazioni debiti fiscali

Assistenza fiscale

 

In conclusione, pur con tutte le cautele del caso, si delinea una figura di giudice secondo il Regolamento (AI Act),che possiamo immaginare contornato di tecnologie avanzate.

Queste possono svolgere compiti preparatori (per esempio, la rilevazione di fatti e circostanze ricorrenti in un caso quantitativamente importante, oppure anche compiti di raccolta organizzata della casistica sulle varie questioni in decisione e proposta al giudicante di una sequenza logico-giuridica sottoposta al suo vaglio: come nel caso di utilizzo di sistemi capaci di generare una prima bozza, c.d. document builder), oppure che migliorino il risultato di un’attività già svolta (per esempio, il giudice che affida a un sistema di IA generativa – tipo LLM– la rilettura discorsiva di un testo la cui scrittura è risultata farraginosa, perché magari redatto in modo frammentario sotto la pressione di verificare a più riprese singoli documenti e verbali, ferma restando la rilettura finale da parte dell’umano; oppure chiede allo stesso sistema di fare una sintesi – sempre poi da verificare– delle posizioni espresse dai difensori in lunghi scritti). Appare un po’ sibillino solo il discorso delle deviazioni dagli schemi decisionali, a meno che non si intenda una sorta di rilevatore automatico del fatto che il giudicante si stia discostando dalla giurisprudenza dominante. Ma si può immaginare solo una sorta di alert e niente di più, perché il giudice deve, sempre, potersi discostare, a patto che lo faccia consapevolmente e per buoni motivi espressi in motivazione.

Se a tutto questo si aggiunge che, anche un sistema che dovesse rimanere etichettato ad alto rischio, non sarebbe perciò solo vietato (ma dovrebbe piuttosto essere sottoposto ai controlli preventivi e successivi previsti dagli artt. 8 e seguenti) mi pare che si possa alla fine dire che queste regole europee non sono tecnofobiche e che, anzi, possano essere di rassicurazione per chi ha timori di disumanizzazione delle decisioni e di stimolo per l’introduzione di maggiori apporti tecnologici previsti per la fase giudicante (mentre parzialmente diverso è il discorso per la fase di indagine o predibattimentale nel processo penale). Stupisce, al confronto, il Disegno di legge del Governo italiano, che (almeno nella versione iniziale) all’art.14 limitava gli utilizzi possibili di sistemi di IA solo alle ricerche giurisprudenziali. Ma l’esame delle camere sta portando a un testo che potrebbe essere in linea con il Regolamento UE.

Le obiezioni di chi vede solo pericoli nell’IA

La prospettiva del regolamento europeo, insieme ad alcune caratteristiche dei nuovi sistemi di IA generativa, fuga alcune delle obiezioni più comuni, tutte centrate, direttamente o indirettamente, sull’idea che le macchine puramente e semplicemente soppiantino gli umani.

Ma queste obiezioni devono oggi fare i conti con il fatto che nelle norme dell’AI Act non vi è nessuna concessione a ipotesi di sostituzione di umani con macchine, perché il Regolamento stabilisce esplicitamente che “il processo decisionale finale deve rimanere un’attività a guida umana” e perché comunque, un sistema che andasse oltre i limiti su riportati, rientrerebbe nel divieto per l’uso di IA in ambito giudiziale come attività ad alto rischio.

A fronte di questo quadro normativo, o si dice che non si condivide il Regolamento AI Act (cosa sempre possibile e garantita costituzionalmente come libertà di opinione!) oppure bisogna giuridicamente riconoscere che la prospettiva europea è solida e rassicurante, del tutto estranea a qualsiasi ipotesi di automazione della decisione giudiziale e delle valutazioni interpretative che ad essa possono portare.

Così come bisogna riconoscere che nessuno spazio vi è per possibili accertamenti automatici della responsabilità penale (cosa che non risulta accaduta in nessun paese occidentale!) o per quantificazioni automatiche dell’entità della pena o per la maggiorazione di pena per il rischio di recidiva (cosa accaduta nel caso Loomis negli USA, che viene sempre citato senza però ricordare che il sistema privato Compas, all’origine dello scandalo, non è più in uso da anni ed è stato sostituito da un sistema pubblico, che avrà altri problemi ma non quello dell’opacità dei criteri).

Dilazioni debiti fiscali

Assistenza fiscale

 

I limiti dei LLM sono garanzia di decisioni umane

Inoltre, lo scenario tecnico attuale è sensibilmente diverso da quello nel quale sono maturate la maggior parte delle critiche all’uso di tecniche di IA nel processo decisionale del giudice, perché i sistemi di IA generativa implicano un rapporto diverso tra utente e sistema.

In poche parole, l’utente può interrogare un sistema in diversi modi, con diversi approcci e con diversa precisione e profondità (è la tecnologia del prompting), ricevendo risposte diverse e che possono essere diverse nel tempo. In pratica, le risposte non sono classificabili come giuste o sbagliate, ma sono modulate dal modo di interrogare il sistema.

Questa variabilità delle risposte è un limite di questi sistemi e, al tempo stesso e un po’ paradossalmente, un punto di forza. Se le risposte di un IA generativa si presentano oggi come elaborazioni linguistiche simil-umane, senza alcuna garanzia che i riferimenti testuali (per es. precedenti) siano corretti, allora sarà impossibile affidarsi passivamente a questi sistemi, i cui “enunciati” saranno pure simil-umani, ma non saranno immediatamente trasponibili in una decisione. Il che è vero anche per il difensore che predispone un atto, come dimostrano i processi, per ora non in Italia, a carico di difensori malaccorti che si erano affidati a testi e citazioni non verificate!

Questo significa che nessuno può essere sicuro di fare copia-incolla. Non può farlo il difensore che promuove una causa, non può farlo il difensore che risponde a un atto dell’avversario e, men che mai, può farlo il giudice. Ognuno dovrà essere vigile e capace di valutare sulla base della sua professionalità le proposte dei sistemi di IA, che è come dire che non esistono sistemi che producono sentenze o atti e che i contributi di questi sistemi devono essere vagliati seguendo le regole del contraddittorio. In pratica, l’ausilio di sistemi di IA generativa esclude, per definizione direi, una uniformazione standardizzata della giurisprudenza.

Decidere con la macchina

La decisione di quello che ho chiamato giudice secondo il Regolamento (AI Act) non è decisione della macchina, ma semmai una decisione con la macchina e non è, inoltre, una decisione semplificata, ma una decisione complessa, frutto di una interazione dell’umano con sistemi di IA.

L’IA è un’occasione straordinaria di ripensamento dell’agire giuridico e del giudicare, per la quale la formazione è il punto chiave sul quale investire, piuttosto che puntare su paure paralizzanti. Mentre sono problemi seri quelli su a) le scelte su a chi affidare la costruzione dei sistemi di IA, b) con quale capacità di controllo pubblico sulle opzioni tecniche e c) la necessità di superare il monopolio del Ministero della giustizia su queste scelte, che vengono fatte senza adeguato coinvolgimento istituzionale né dei giudici né degli avvocati.

Dilazione debiti

Saldo e stralcio

 

Per il resto il giudice secondo il Regolamento (AI Act) è, e sarà, soggetto alle norme sull’ordinamento giudiziario (art. 102 Cost.) ed è, e sarà, giudice terzo e imparziale (art. 111 Cost.) e soggetto soltanto alla legge (art. 101, comma 1 Cost.).

L’illusione proibizionista e l’insostituibile qualità umana

Segnalo, infine, un altro aspetto collegato alle caratteristiche tecniche dell’IA generativa: l’inutilità e l’inefficienza delle proibizioni.

Mentre si può pensare di proibire o vietare per legge l’utilizzo di sistemi centralizzati (per esempio il processo penale o civile telematico), che hanno bisogno di strutture fisse, di collegamenti e quanto altro necessario per il loro funzionamento, sarebbe del tutto inefficiente una proibizione per giudici o avvocati di usare sistemi di IA generativa. Questi sistemi, infatti, per quanto siano frutto di complessi e assai dispendiose strutture proprietarie, sono liberamente accessibili sul web e utilizzabili per varie attività strumentali, come per esempio quella di riassumere (“sommarizzare”, come si usa ora dire traducendo dall’inglese) atti di parte o altri lunghi testi di cui dar conto in una motivazione o altro documento.

Non stupisce allora che un numero crescente di giudici dichiari, privatamente, di far uso di quei sistemi non per farsi sostituire dalle “macchine”, ma semplicemente per fare meglio e più velocemente il proprio lavoro. La verifica finale dell’elaborato del sistema è, come ho detto sopra, comunque dell’umano, che farà la doppia verifica su quello che il prodotto dell’IA dice e, soprattutto, su quello che non dice,e che solo un umano esperto nella sua insostituibile attività di supervisione può rilevare.


[1] Questo testo è tratto, con alcune modifiche e aggiunte, dal volume A. Santosuosso – G. Sartor, Decidere con l’IA. Intelligenze artificiali e naturali nel diritto, Il Mulino, Bologna, 2024, al quale rinvio per ulteriori dettagli e bibliografia.

[2] In ogni caso il Comma 4 dell’art. 6 prevede un, condivisibile, obbligo di registrazione per il fornitore: «4. Un fornitore che ritiene che un sistema di IA di cui all’allegato III non sia ad alto rischio ne documenta la valutazione prima che tale sistema sia immesso sul mercato oppure messo in servizio. Tale fornitore è soggetto all’obbligo di registrazione di cui all’articolo 49, paragrafo 2. Su richiesta delle autorità nazionali competenti, il fornitore mette a disposizione la documentazione relativa alla valutazione».



Source link

Conto e carta

difficile da pignorare

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link