L’intelligenza artificiale ed il valore di prova nel processo civile

Con ordinanza pubblicata il 20 febbraio 2026, il Tribunale di Ferrara ha affermato che le risultanze di interrogazioni poste a ChatGPT, e comunque a qualsiasi forma di intelligenza artificiale, non possono assurgere al rango di prova all’interno del processo civile.

Lunedi 30 Marzo 2026

Il provvedimento in questione, di fatto prevedibile e per molti versi scontato, offre lo spunto per discutere di un argomento sempre più all’ordine del giorno, quale è quello dell’ingresso dell’intelligenza artificiale generativa nel mondo delle professioni legali, che solleva, ogni giorno di più, profondi interrogativi sul suo possibile utilizzo nel processo civile.

Se da un lato infatti, nel campo legale così come in tutte le attività della vita quotidiana, lavorativa e non, tali strumenti offrono straordinarie capacità di analisi, sintesi e automazione, e dunque di indubbia ed evidente utilità, dall’altro pongono problemi di affidabilità, verificabilità e responsabilità tali da aver fatto fortemente sentire la necessità, a partire dagli stessi operatori del diritto, di una normativa condivisa che disciplini, in maniera chiara e rigorosa, i limiti ed i confini entro i quali detti strumenti possano essere liberamente utilizzati.

IL CASO

La vicenda in esame riguarda un Accertamento Tecnico Preventivo proposto, ai sensi dell’art. 696bis cpc, per indagare la dinamica e le eventuali quote di responsabilità di un sinistro stradale mortale che aveva coinvolto il fratello del ricorrente.

Afferma in premessa il Tribunale Ferrarese che l’Istituto dell’ATP è ispirato dalla ricerca di una forma alternativa di risoluzione delle controversie, con finalità intrinsecamente deflattive del contenziose e ricorda che, come da giurisprudenza e dottrina consolidate, l’ammissibilità del ricorso è subordinata al riscontro di un fumus boni iuris in ordine al collegamento tra l’accertamento “preventivo” e la successiva eventuale causa di merito, rispetto alla quale il mezzo disciplinato dall’art. 696-bis c.p.c. si pone in rapporto di stretta strumentalità.

Diretta conseguenza del principio sopra riferito, prosegue il Giudice di Ferrara, è l’esclusione dell’ammissibilità del ricorso ogniqualvolta emerga che quest’ultimo sia stato esperito per finalità meramente esplorative, e comunque non denotate, in concreto, da reale utilità in relazione ad un eventuale giudizio di merito, apparendo invece poste questioni, come nel caso di specie, che fuoriescono da un perimetro squisitamente tecnico.Negli interrogativi posti dal ricorrente a fondamento del quesito, ha rilevato il Tribunale, sono state invece inserite valutazioni non suscettibili di essere opportunamente vagliate da un CTU ed avrebbero richiesto, viceversa, l’espletamento di un’istruttoria più complessa, verosimilmente implicante il ricorso ad altri strumenti di prova, in primis quella orale.

In particolare poi, giusto per venire al punto che più ci interessa, non è stato in sentenza ritenuto per nulla comprensibile, all’interno del delineato quadro istruttorio presentato, quale rilevanza probatoria avrebbe potuto assumere, a sostegno delle pretese di parte ricorrente, il contenuto di un certo documento, denominato “conversazione con ChatGPT”, non essendo stata nel ricorso rinvenuta traccia di indicazione dello scopo della produzione e della valenza probatoria che si intendeva attribuire alla stessa, così di fatto rendendo non intelligibile la sua concreta utilità.

Dopo aver precisato infine che una certa giurisprudenza citata in quel documento non aveva nulla a che fare con le questioni che si stavano trattando, non risultando il contenuto della pronuncia de quo assolutamente conferente rispetto al caso in esame, il Tribunale ha concluso col ritenere la documentazione probatoria prodotta da considerarsi tamquam non esset, neppure qualificabile come prova atipica, essendo priva di qualsivoglia utilità, vista non solo la mancanza del quesito proposto al chatbot ma anche, se non ancor più, la mancata, pur doverosa e non solamente opportuna verifica dei riferimenti forniti da ChatGPT.

Il ricorso veniva dunque per questi motivi integralmente rigettato.

IL QUADRO NORMATIVO

Precisiamo in premessa che nel processo civile italiano vige il principio di libertà dei mezzi di prova (artt. 115 e 116 c.p.c.), in forza del quale il giudice può valutare liberamente gli elementi acquisiti, salvo i casi in cui la legge richiede forme tipiche.

L’Intelligenza Artificiale, dunque, non è esclusa in astratto, ma può senz’altro costituire un mezzo di prova, al momento qualificabile atipico, purché rispetti -come vedremo- i criteri di attendibilità, verificabilità, riproducibilità e trasparenza del metodo.

L’inizio della regolamentazione giuridica della materia può farsi risalire all’entrata in vigore, il 1° agosto 2024, del Regolamento UE 2024/1689 (AI Act), da considerare così la prima e fondamentale norma regolatrice dello sviluppo e dell’uso dei sistemi di Intelligenza Artificiale.

Il Regolamento, fortemente voluto, dopo intensi lavori preparativi, dal Consiglio dell’Unione Europea per definire un quadro regolatorio volto a contemperare l’innovazione tecnologica con la tutela dei diritti fondamentali e la centralità dell’essere umano, è composto da una premessa di 180 articoli,113 articoli effettivi e XII allegati e, a dire il vero, non risulta proprio di facile ed immediata comprensione.

L’essenza intima e profonda, l’obiettivo ed il fine del Regolamento possono essere tuttavia rinvenuti -lì tutti racchiusi ed esaustivamente compendiati- nel primo articolo il quale, testualmente, recita:

Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione, e promuovendo l'innovazione.” (l’ultima virgola sta nel testo originario, non è un refuso dello scrivente-N.d.A.)

In ottemperanza a quanto previsto dalla normativa Europea, con la Legge 23 settembre 2025, n.132, il nostro Legislatore ha successivamente dato vita alla normativa nazionale sull’Intelligenza Artificiale, ponendo a fondamento della stessa uno dei pilastri, a sua volta, del Regolamento UE 2024/1689 e cioè il principio “antropocentrico”, contenuto nel testè menzionato art.1.

Il principio antropocentrico, in generale, è la concezione filosofica e culturale che pone l’essere umano al centro dell'universo, considerandolo il punto di riferimento fondamentale per l'interpretazione della realtà, dei valori morali e della natura.

Il principio, dalla valenza etico-filosofica fortemente evocativa, sembra essere stato ideato allo scopo precipuo di responsabilizzare fin da subito l’Uomo nell’uso di strumenti certamente utili, come quelli forniti dall’IA ma, come detto, potenzialmente rischiosi e pericolosi.

Detto ragionamento lo vediamo tradotto in pratica in alcune delle prescrizioni della Legge 132/25, laddove viene stabilito che l’intelligenza artificiale deve essere al servizio della persona, nel rispetto della dignità, della libertà e dei diritti fondamentali, e che ogni applicazione dovrà orientarsi a potenziare le capacità umane, e mai a sostituirle.

Un’IA dunque al servizio della persona, rispettosa dei diritti fondamentali, dell’autonomia e del potere decisionale dell’essere umano, che garantisca la possibilità di sorveglianza e di intervento umano, con particolare attenzione alla prevenzione del danno, sempre e solo a supporto piuttosto che in sostituzione della persona, a cui sempre spetta l’ultima parola.

Tra le disposizioni fondamentali della L.132/25 vanno senz’altro qui segnalati:

  • l’art. 3, volto a fissare i principi generali da rispettare, quali “trasparenza, proporzionalità, sicurezza, protezione dei personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità”, il tutto “nel rispetto dell'autonomia e del potere decisionale dell'uomo, della prevenzione del danno, della conoscibilità, della trasparenza, della spiegabilità e dei principi di cui al comma 1, assicurando la sorveglianza e l'intervento umano”.

  • l’art. 13, il quale formula istruzioni operative per gli avvocati, stabilendo al primo comma che “l'utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all'attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d'opera”, ed al secondo comma che “per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo” (in sintesi, la norma incide su deontologia professionale, lealtà, correttezza professionale e trasparenza. Di particolare rilievo l’obbligo di informazione al cliente per l’eventuale uso dell’IA);

  • l’art.15, il quale stabilisce che “Nei casi di impiego dei sistemi di intelligenza artificiale nell'attività giudiziaria è sempre riservata al magistrato ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti” (in sintesi: anche per i giudici l’IA ha un ruolo meramente ausiliario ed anch’essi devono segnalare nei propri provvedimenti ogni apporto derivato da sistemi di intelligenza artificiale);

  • l’art. 17, il quale, aggiungendo all’art. 9,2° co. c.p.c. dopo le parole “esecuzione forzata” le seguenti “per le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale”, amplia in tal senso la competenza del Tribunale.

Tra le altre innovazioni e/o modifiche:

  • l’art. 612 quater c.p., che stabilisce: “Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l'impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni”, ed introduce il reato di illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale;

  • l’art. 294,2°co. c.p., che introduce la circostanza aggravante nel caso in cui, per il delitto di attentati contro i delitti politici dei cittadini, l’inganno venga realizzato con sistemi di IA;

  • l’art. 2637,2° co., c.c., che introduce nel reato di aggiotaggio la circostanza aggravante per aver commesso il fatto di reato mediante l’uso di sistemi di IA;

  • l’art. 61, n. 11-undecies c.p., il quale introduce ancora una circostanza aggravante che punisce più severamente i delitti non colposi contro la vita, incolumità, libertà e patrimonio, se commessi utilizzando sistemi di intelligenza artificiale insidiosi, che ostacolano la difesa o aggravano le conseguenze del reato.

RIFERIMENTI GIURISPRUDENZIALI

Dovrebbe a questo punto seguire la consueta rassegna giurisprudenziale di supporto ma, come intuibile, la novità che contraddistingue la materia non ha contribuito a realizzare a tutt’oggi una casistica particolarmente ampia.

È la stessa sentenza di Ferrara, tuttavia, ad offrirci alcune interessanti sentenze di merito, sulla base delle quali è peraltro fondato il dispositivo, che offrono altresì lo spunto per concludere questa breve disamina con la questione ormai nota e cruciale delle cd. allucinazioni dell’intelligenza artificiale, sinteticamente definibili come “..il fenomeno in cui un modello di IA produce output che appaiono coerenti e autorevoli, ma che in realtà sono imprecisi, fuorvianti o completamente inventati. Questo può avvenire quando il sistema non ha accesso a dati reali o quando interpreta erroneamente le informazioni a sua disposizione” (cit. Treccani).

Elemento ricorrente nelle sentenze in questione è innanzitutto la richiesta di condanna ex art. 96 c.p.c. nei confronti della controparte per aver quella prodotto in giudizio atti e/o ricerche giurisprudenziale errate e viziate da grossolani ed evidenti errori di redazione e/o verifica.

Tanto è accaduto in un procedimento intentato presso il Tribunale di Firenze, conclusosi con ordinanza in data 14/3/2025, laddove il difensore della società “incriminata” ha dichiarato che i riferimenti giurisprudenziali citati nell’atto erano stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza (no comment – N.d.A.).

Segue la citazione di altre due sentenze del Tribunale di Latina, le nn. 1034 e 1035 del 24 settembre 2025, con le quali il Giudice ha pronunciato condanna ex art. 96 c.p.c., censurando l’uso improprio e spregiudicato di sistemi di intelligenza artificiale, al punto di qualificare l’attività e la condotta adottate nel procedimento, dal legale che ne ha usufruito, come “abuso del processo”.

Impossibile qui non riportare integralmente la parte cruciale della motivazione:

Il ricorso giudiziario -così come tutti gli altri centinaia di giudizi pendenti dinanzi al Tribunale patrocinati dall’avv. -omissis- poi sostituita dall’avv. -omissis-, tutti redatti a stampone- risulta evidentemente redatto con strumenti di intelligenza artificiale; tanto è evidente non solo dalla gestione del procedimento …. ma soprattutto dalla scarsa qualità degli scritti difensivi e dalla totale mancanza di pertinenza o rilevanza degli argomenti utilizzati; l’atto è infatti composto da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico ed in gran parte inconferenti rispetto al thema decidendum e, in ogni caso, tutte manifestamente infondate. Il contegno processuale assunto, inoltre, risulta irriverente ed ampiamente abusivo del processo, in violazione di regole deontologiche e processuali”.

Da ultima, e per concludere, una sentenza di rigetto pronunciata in un giudizio relativo ad una ingiunzione di pagamento richiesta dinanzi alla sezione Lavoro del Tribunale di Torino (la n. 2120 del 16 settembre 2025) la cui motivazione, più di ogni commento o analisi, merita essere così di seguito integralmente trascritta:

“… dal momento che ha proposto opposizione nei confronti di avvisi di addebito che le erano stati tutti notificati in precedenza, già oggetto di plurimi atti di esecuzione anch’essi tutti regolarmente notificati ed ha svolto – tramite un ricorso redatto “col supporto dell’intelligenza artificiale”, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate”.

CONCLUSIONI

L’insegnamento che in definitiva ci giunge dalle poche sentenze di merito sinora emesse è sufficientemente chiaro: l’Intelligenza Artificiale è uno strumento utile, ma rischioso, soprattutto se utilizzato in ambito giudiziario, e non può mai ed in nessun modo sostituire la responsabilità e la competenza di chi lo maneggia, professionisti (avvocati, commercialisti etc..) o magistrati che siano.

Il tutto così come in effetti riassuntivamente affermato dal Tribunale di Ferrara con la sentenza esaminata:

I chatbot, ad oggi, restano strumenti al servizio delle persone che intendano utilizzarli. Salvo che, in un futuro, le intelligenze artificiali raggiungano livelli di sviluppo più avanzati in ambito giuridico, non è ammissibile che le loro “risposte” assurgano a prova - nemmeno atipica - di un fumus di fondatezza della pretesa azionata in giudizio”.

Pagina generata in 0.005 secondi