L’avvocato e l’algoritmo: da baluardo del cittadino all’esecutore inconsapevole del nuovo potere

Profili deontologici, tecnici e costituzionali dell’uso dell’intelligenza artificiale nell’esercizio della professione forense.
Avv. Francesco Molinari.
L’avvocato e l’algoritmo: da baluardo del cittadino all’esecutore inconsapevole del nuovo potere
Mercoledi 29 Aprile 2026

Sommario

1. Premessa: la domanda che la giurisprudenza non pone.

2. Il quadro giurisprudenziale italiano: una stagione di condanne.

3. La struttura tecnica del problema: cosa è, davvero, una IA generativa.

4. Il potere nascosto: la cattura algoritmica della difesa.

4.1. La dimensione del bias. – 4.2. La dimensione dell’opacità. – 4.3. La delega inconsapevole della strategia.

5. Il quadro normativo: una risposta necessaria ma insufficiente.

6. La responsabilità professionale: tre livelli di lettura.

7. L’avvocato del Sud e il doppio rischio.

8. Verso una proposta: l’avvocato come interprete critico del potere algoritmico.

9. Conclusioni: il baluardo che non conosce il proprio nemico.

Riferimenti bibliografici.

__________________

L’intelligenza artificiale generativa penetra con velocità inarrestabile negli studi legali italiani. La giurisprudenza del 2025 — dal Tribunale di Firenze al TAR Lombardia — ha iniziato a sanzionare l’uso acritico di sistemi algoritmici da parte dei difensori. Il presente contributo sostiene che tale giurisprudenza intercetta soltanto la superficie del problema: l’uso inconsapevole dell’IA non è soltanto un’imprudenza tecnica, ma il rischio di trasformare l’avvocato da baluardo del cittadino contro il potere in esecutore inconsapevole di un potere nuovo e nascosto, sedimentato nei dataset, nei bias algoritmici e nelle scelte proprietarie dei produttori di sistemi di IA. Il lavoro introduce la categoria interpretativa della «cattura algoritmica della difesa» e propone un modello di consapevolezza forense articolato su tre livelli: tecnico, critico-giuridico, politico-costituzionale.

1. Premessa: la domanda che la giurisprudenza non pone

Le sentenze che nel 2025 hanno sanzionato avvocati italiani per l’uso non critico dell’intelligenza artificiale generativa hanno un merito indubitabile: pongono un argine alla negligenza tecnica, alla delega processuale alla macchina, all’illusione che uno strumento sofisticato possa sostituire il giudizio.

Ma queste pronunce — pur preziose — fermano la loro analisi alla soglia della responsabilità tecnico-processuale. Esse si chiedono «come» l’IA è stata usata; non si chiedono «chi» è l’IA, «chi» l’ha costruita, «quali valori» ha incorporato nel suo addestramento, «a chi risponde» nel suo funzionamento, e soprattutto: «a quali interessi serve quando ragiona per noi?»

Questa omissione non è casuale. È figlia di una cultura giuridica che ha affrontato la rivoluzione digitale come un problema di tecnica processuale, non come un problema di potere. Ed è esattamente questa lacuna che il presente lavoro si propone di colmare, introducendo la categoria della «cattura algoritmica della difesa».

Vale richiamare, a questo proposito, la lucida analisi di Andreani, il quale ha di recente ricordato come l’attività giurisdizionale non sia mai stata una costante storica: la sua forma, la sua legittimazione e i suoi confini mutano profondamente in rapporto al tipo di Stato e al modello costituzionale che di volta in volta la incornicia. Se il passaggio dallo Stato assoluto allo Stato costituzionale ha trasformato il giudice da «bocca della legge» ad «arbitro dei principi», l’avvento della giustizia algoritmica rischia di introdurre un paradigma ancora più inquietante: quello della «bocca del codice informatico». La suggestione, come Andreani sottolinea, non è meramente metaforica: l’algoritmo pretende di neutralizzare il giudizio, trasformando la decisione in calcolo, il caso singolo in statistica, la persona in variabile. Se questo rischio investe il giudice, esso investe a fortiori l’avvocato, sul quale — a differenza del magistrato — non vigilano garanzie costituzionali di indipendenza istituzionale.

2. Il quadro giurisprudenziale italiano: una stagione di condanne

Il 2025 rimarrà negli annali della giurisprudenza italiana come l’anno in cui i tribunali hanno preso sul serio il problema dell’IA nella pratica forense. Vale la pena ricostruire la sequenza con rigore.

Il primo atto è l’ordinanza del Tribunale di Firenze del 14 marzo 2025. Nel corso del giudizio un avvocato ammette che i riferimenti giurisprudenziali citati nell’atto erano stati il frutto della ricerca effettuata tramite IA generativa. Il sistema aveva generato numeri riferibili a sentenze della Corte di Cassazione che non esistevano. Il Tribunale introduce la categoria delle «allucinazioni giurisprudenziali» ma esclude la lite temeraria, ritenendo il caso privo di mala fede o colpa grave: è un monito, non ancora una condanna.

Il passo successivo è decisivo. Con la sentenza n. 2120/2025 del 16 settembre 2025, il Tribunale di Torino condanna la parte ricorrente per lite temeraria ex art. 96 c.p.c., ritenendola responsabile di aver presentato un ricorso integralmente generato da un sistema di IA senza alcuna verifica redazionale. La motivazione è severa: il ricorso si rivela un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e inconferenti rispetto alla fattispecie concreta.

Il TAR Lombardia interviene con la sentenza n. 3348 del 21 ottobre 2025, che eleva il dibattito a un piano sistematico: la sottoscrizione ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore, indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi di strumenti di intelligenza artificiale. In questo giudizio compare per la prima volta come riferimento giurisprudenziale operativo la Carta HOROS dell’Ordine degli Avvocati di Milano.

La mappa delle responsabilità è ormai tracciata attorno a tre tipologie: le «allucinazioni» (sentenze inesistenti citate come reali); il «ricorso a stampone» (atti generati in serie senza analisi del caso concreto); il «prompt in chiaro» (come nel caso veronese, dove le istruzioni al software restavano visibili nel testo finale). Questa mappa descrive i sintomi, non la patologia di sistema.

3. La struttura tecnica del problema: cosa è, davvero, una IA generativa

Chi scrive porta una doppia cultura: quella dell’informatico e quella del giurista. Questa duplicità impone di dire con chiarezza una cosa che troppo spesso la letteratura giuridica sorvola: un sistema di intelligenza artificiale generativa non è uno strumento neutro.

Un Large Language Model (LLM) non «sa» il diritto nel senso in cui lo sa un giurista. Esso predice sequenze di testo statisticamente probabili a partire da miliardi di documenti con cui è stato addestrato. Quando «cita una sentenza» non la ricorda: la costruisce sulla base di pattern linguistici. Se quella sentenza non esiste ma somiglia a sentenze che esistono, l’IA la produce ugualmente — con la stessa sicurezza formale con cui produrrebbe una citazione vera. Questo è il fenomeno delle allucinazioni: non errori accidentali, ma produzione sistematica di contenuto plausibile ma non verificato.

Il dato tecnico che la giurisprudenza italiana non ha ancora elaborato è il seguente: prima ancora di valutare se l’output è corretto, occorre chiedersi su quali dati è stato addestrato il sistema; con quali valori giuridici di riferimento; in quale ordinamento; e soprattutto: da chi è stato costruito, con quali finalità economiche e politiche.

4. Il potere nascosto: la cattura algoritmica della difesa

La funzione costituzionale dell’avvocato è, nella sua essenza più profonda, una funzione di contropotere. L’art. 24 Cost. stabilisce che nessun potere può travolgere il cittadino senza che questi abbia la possibilità di opporsi, con un difensore qualificato, davanti a un giudice terzo.

Le grandi piattaforme di IA generativa sono costruite e controllate da un numero ristrettissimo di soggetti: prevalentemente grandi corporations statunitensi e, in misura crescente, cinesi. Chi controlla i dati di addestramento, chi sceglie quali testi includere e quali escludere, chi definisce i guardrail etici del modello — costui esercita un potere normativo di fatto.

I sistemi di legal analytics, i modelli predittivi per la valutazione del rischio di recidiva, gli strumenti di supporto decisionale già in uso in alcuni ordinamenti anglosassoni e nordeuropei, ripropongono — in forma tecnologicamente sofisticata — la stessa deriva meccanicistica che il costituzionalismo novecentesco aveva faticosamente superato. Come ha osservato Andreani, l’algoritmo pretende di fare per il diritto ciò che il positivismo ingenuo pretendeva di fare con la legge: neutralizzare il giudizio riducendo la decisione a calcolo. Il nuovo potere non ha volto: ha un modello probabilistico e un dataset. E il difensore che lo usa senza consapevolezza critica diventa, suo malgrado, la voce di quel modello.

È ciò che proponiamo di chiamare «cattura algoritmica della difesa»: il processo attraverso cui l’avvocato, credendo di usare uno strumento, diventa invece portavoce di valori, orientamenti interpretativi e logiche di potere incorporati nel modello da soggetti che egli non conosce, non controlla e dai quali — spesso — il suo cliente è la parte più debole.

«Dimensione del bias». Gli algoritmi di apprendimento automatico imparano da grandi set di dati. Se questi dati contengono pregiudizi storici o sociali, l’algoritmo li apprenderà e li replicationà. Un modello addestrato prevalentemente su giurisprudenza di common law produrrà un ragionamento giuridico orientato in quella direzione, anche quando applicato a una controversia tra un lavoratore e il suo datore di lavoro a Cosenza.

«Dimensione dell’opacità». I sistemi di IA operano rendendo difficile la comprensione dei processi di selezione e scelta degli algoritmi: il problema della black box. L’avvocato non vede il ragionamento sottostante all’output. Non può distinguere tra una risposta fondata e un’allucinazione sofisticata. E questa cecità è strutturale, non occasionale.

«Delega inconsapevole della strategia». Quando un avvocato usa l’IA per impostare la strategia difensiva, per identificare gli argomenti da sviluppare, per costruire la narrazione del caso — sta delegando la costruzione della posizione giuridica del suo cliente a un sistema che potrebbe produrre esiti sfavorevoli a determinate tipologie di parti. Le Nazioni Unite hanno avvertito del rischio di epistemic capture e di techno-authoritarianism nei sistemi giudiziari.

5. Il quadro normativo: una risposta necessaria ma insufficiente

Il Reg. UE 2024/1689 (AI Act), recepito in Italia con la L. 132/2025, ha stabilito un principio cardine: l’IA potrà rappresentare un prezioso strumento di supporto, ma l’essenza stessa della funzione giurisdizionale e difensiva dovrà sempre restare nelle mani degli esseri umani. Il Regolamento richiede che le persone coinvolte nelle operazioni di IA dispongano di una conoscenza tecnica adeguata, esperienza e formazione continua.

Sul piano di soft law, la Federazione degli Ordini Forensi d’Europa (FBE) ha pubblicato le Linee guida sull’uso responsabile dell’IA generativa, che affrontano temi cruciali: il rischio di trasmissione involontaria di dati riservati attraverso i prompt, il fenomeno delle allucinazioni, la permanenza della responsabilità professionale in capo all’avvocato.

Tuttavia, questi strumenti scontano un limite strutturale: affrontano il problema dell’IA come rischio gestibile con competenza tecnica, non come questione di potere che investe la struttura democratica della difesa. Non pongono la domanda sul potere di chi si trova incorporato nei modelli algoritmici che l’avvocato usa.

6. La responsabilità professionale: tre livelli di lettura

La giurisprudenza sin qui citata sanziona prevalentemente il primo livello di responsabilità: la colpa tecnica per omessa verifica. Il TAR Lombardia ha riconosciuto in capo all’avvocato l’esistenza di un onere di verifica e controllo dei risultati delle ricerche realizzate con sistemi di intelligenza artificiale, ipotizzando che il mancato adempimento costituisca violazione del dovere del difensore di comportarsi con lealtà e probità in giudizio.

Il secondo livello è quello della responsabilità deontologica per inadeguatezza culturale. Non basta che l’avvocato «verifichi l’output». È necessario che comprenda cosa sta verificando: la natura probabilistica del sistema, il meccanismo delle allucinazioni, il problema dei bias, la struttura opaca del modello.

Il terzo livello — finora ignorato da giurisprudenza e dottrina — è quello della responsabilità istituzionale e costituzionale: l’avvocato che usa l’IA senza consapevolezza critica del potere che vi è incorporato non è soltanto negligente verso il suo cliente. È potenzialmente traditore involontario della sua funzione costituzionale.

7. L’avvocato del Sud e il doppio rischio

L’avvocatura meridionale opera in un contesto di particolare fragilità istituzionale, di scarsa dotazione tecnologica degli studi, di pressione economica che spinge verso il risparmio di tempo e costi. È esattamente in questi contesti che l’IA generativa viene adottata con maggiore velocità e minore riflessione critica.

Ma è anche il contesto in cui il rischio di cattura algoritmica è più alto: i modelli di IA sono stati addestrati prevalentemente su giurisprudenza degli ordinamenti più sviluppati. Quando un avvocato cosentino usa un LLM per impostare una controversia che coinvolge un piccolo comune calabrese, un lavoratore stagionale, un’espropriazione in area periferica — affida la costruzione della sua tesi a un sistema che non conosce quella realtà.

La questione meridionale dell’IA non è ancora stata scritta. Questo contributo vuole segnalarne l’urgenza.

8. Verso una proposta: l’avvocato come interprete critico del potere algoritmico

Si tratta di costruire una cultura forense che sia all’altezza della posta in gioco, integrata su tre livelli di consapevolezza.

Primo livello — tecnico. L’avvocato deve conoscere il funzionamento dei sistemi di IA: deve sapere cosa sono i dataset, come si formano le allucinazioni, cosa si intende per bias algoritmico, come funziona il principio della black box. Questa non è competenza opzionale: è prerequisito deontologico.

Secondo livello — critico-giuridico. L’avvocato deve verificare ogni output: controllare le fonti citate, valutare la congruenza argomentativa con il caso concreto, identificare le derive generalizzatrici. Se l’avvocato firma un atto, ne diventa l’unico responsabile legale.

Terzo livello — politico-costituzionale. L’avvocato deve sviluppare una consapevolezza critica del potere incorporato negli strumenti che usa. Deve chiedersi: chi ha costruito questo sistema? Con quali dati? Con quali finalità? Cui prodest? Nel momento in cui delega a quella macchina la costruzione del ragionamento difensivo, rischia di trasformare la sua voce in uno strumento di quel potere che dovrebbe presidiare per il suo cliente.

9. Conclusioni: il baluardo che non conosce il proprio nemico

L’avvocato è, nella tradizione giuridica italiana e nella Costituzione del 1948, un presidio di civiltà: la persona che si interpone tra il potere — in tutte le sue forme — e il cittadino che ne subisce l’azione.

La rivoluzione dell’intelligenza artificiale ha dotato il potere di una maschera nuova e particolarmente efficace: quella della neutralità tecnica. Un sistema algoritmico non ha un volto, non ha una classe sociale, non porta una tessera di partito. Produce output con la calma imparziale della macchina. E tuttavia è costruito da soggetti determinati, con finalità determinate, su dati che riflettono equilibri di potere determinati.

Come ha lucidamente ricordato Andreani, la sfida dell’intelligenza artificiale ci riconsegna alla domanda originaria: chi ha l’ultima parola nel conflitto tra diritto e potere? La risposta del costituzionalismo è stata, fino ad oggi, un soggetto umano, responsabile e motivante. La risposta dell’avvocato che ragiona attraverso un algoritmo non è più quella risposta: è la risposta del modello, dei suoi dati di addestramento, dei suoi costruttori. Il baluardo diventa il canale del potere che dovrebbe presidiare.

L’avvocato che usa l’IA senza comprendere questo non è soltanto esposto alle sanzioni dell’art. 96 c.p.c. È esposto a qualcosa di più grave: al rischio di portare in aula, nella voce della difesa, il pensiero del nemico del suo cliente.

La funzione di baluardo si esercita oggi anche qui: nell’atto di guardare oltre lo schermo e di chiedersi — prima di firmare — di chi è, davvero, questo pensiero?

Note a piè di pagina

1. Trib. Firenze, ord. 14 marzo 2025 (inedita).

2. Trib. Torino, sez. lav., sent. n. 2120/2025,16 settembre 2025. Cfr. anche Trib. Verona, sent. n. 4203/2025.

3. TAR Lombardia, sez. V, sent. n. 3348/2025,21 ottobre 2025.

4. TAR Siracusa e Trib. Latina, sez. lav., sent. 23 settembre 2025.

5. Il rinvio è a F. PASQUALE (2015), The Black Box Society, cit.

6. P.M. NICHOLS (2023), Bias in Artificial Intelligence, in Annals of Surgery,2023, p. 277 ss.

7. ONU (2025), Rapporto M. Satterthwaite, A/HRC/59/40, cit.

8. Reg. UE 2024/1689, art. 4; L. 132/2025, art. 9.

9. FBE (2025), Linee guida, cit.

10. TAR Lombardia, sent. n. 3348/2025, cit.

Riferimenti bibliografici

(In ordine alfabetico per cognome; cronologia decrescente per opere dello stesso autore — ai sensi delle norme redazionali RIID)

ANDREANI (2026), La giurisdizione nel mondo dell’IA: alcuni spunti di riflessione, in news.avvocatoandreani.it, marzo 2026, https://news.avvocatoandreani.it/articoli/giurisdizione-mondo-alcuni-spunti-riflessione-108583.html.

CCBE (2025), Guida sull’uso dell’IA generativa da parte degli avvocati,2 ottobre 2025, Bruxelles.

DE MINICO G. (2024), Giustizia e intelligenza artificiale, Giuffrè, Milano.

D’ALOIA A. (2022), Intelligenza artificiale, società algoritmica, dimensione giuridica, in Quad. cost.,2022,1.

FBE (2025), Linee guida sull’uso responsabile dell’IA generativa da parte degli avvocati, versione 2.0.

FINOCCHIARO G. (2025), Intelligenza artificiale e responsabilità dell’avvocato, in Corr. giur.,2025,7.

FLORIDI L. (2023), AI as Agency Without Intelligence: on ChatGPT, Large Language Models, and Other Generative Models, in Philosophy & Technology, vol. 36,2023.

LUCIANI M. (2018), La decisione giudiziale robotica, in Riv. AIC,2018,3.

NICHOLS P.M. (2023), Bias in Artificial Intelligence, in Annals of Surgery,2023, p. 277 ss.

ONU (2025), Rapporto del Relatore speciale M. Satterthwaite sull’indipendenza di giudici e avvocati, A/HRC/59/40,16 luglio 2025.

ORDINE DEGLI AVVOCATI DI MILANO (2024), Carta HOROS — Principi guida per l’uso dell’intelligenza artificiale negli studi legali,17 dicembre 2024.

PASQUALE F. (2015), The Black Box Society. The Secret Algorithms That Control Money and Information, Harvard University Press, Cambridge (MA).

RODÒTÀ S. (2012), Il diritto di avere diritti, Laterza, Roma-Bari.

RUFFOLO U. (a cura di) (2021), XXVI Lezioni di diritto dell’intelligenza artificiale, Giappichelli, Torino.

SANTOSUOSSO A. – SARTOR G. (2022), La giustizia predittiva: una visione realistica, in Giur. it.,2022.

SIMONCINI A. (2023), Il linguaggio dell’intelligenza artificiale e la tutela costituzionale dei diritti, in Riv. AIC,2023,1.

UNESCO (2025), Linee guida per l’uso di sistemi di IA nelle corti, Parigi.



Iscriviti gratis alla nostra newsletter


Aggiungi al tuo sito i box con le notizie
Prendi il Codice





Sito ideato dall’Avvocato Andreani - Ordine degli Avvocati di Massa Carrara - Partita IVA: 00665830451
Pagina generata in 0.006 secondi