L'integrazione dei sistemi di Intelligenza Artificiale nella Pubblica Amministrazione impone una rilettura sistematica della responsabilità amministrativa e contabile. Il presente contributo esamina la convergenza tra il Principio del Risultato (D.Lgs. 36/2023) e la nuova Riforma della responsabilità pubblica (L. 1/2026), analizzando come la tracciabilità dell'algoritmo possa configurare una nuova forma di "Diligenza Digitale".
| Martedi 24 Febbraio 2026 |
Attraverso lo scudo della tipizzazione della colpa grave, l'IA evolve da potenziale fonte di rischio a strumento di protezione per il funzionario pubblico, delineando un nuovo paradigma orientato all'efficienza e alla certezza del diritto.
L’integrazione dell’Intelligenza Artificiale nei processi decisionali della Pubblica Amministrazione rappresenta una delle sfide più complesse del diritto amministrativo moderno. Come recentemente evidenziato nel dibattito dottrinale, il cuore della questione non risiede solo nell’efficienza tecnologica, ma nel delicato equilibrio tra automazione algoritmica e garanzie procedimentali.
Per chi opera all'interno delle istituzioni, tuttavia, emerge un interrogativo ulteriore: quale impatto avrà l’algoritmo sul perimetro della responsabilità pubblica?
L’ecosistema regolatorio, definito dal Regolamento (UE) 2024/1689 (AI Act) e a livello nazionale dalla Legge 132/2025, impone che l’IA nel settore pubblico rispetti rigidi canoni di trasparenza. La giurisprudenza amministrativa ha già tracciato un "tripode" di garanzie imprescindibili: conoscibilità, tracciabilità e non esclusività della decisione algoritmica.
Il principio del cosiddetto human-in-the-loop assicura che l'IA rimanga uno strumento di ausilio, mantenendo in capo al funzionario pubblico la signoria sulla decisione finale. Ma è proprio in questo spazio d'interazione uomo-macchina che si ridefinisce il concetto di colpa grave.
Il D.Lgs. 36/2023 ha elevato il Principio del Risultato a canone interpretativo prioritario dell’azione amministrativa. In questa cornice, l’IA smette di essere un elemento di rischio per diventare un acceleratore di efficacia e imparzialità.
La vera rivoluzione per il decisore pubblico è l'introduzione della "Diligenza Digitale". Se il processo decisionale è supportato da un sistema algoritmico validato e tracciabile, il funzionario non solo persegue il risultato con maggiore precisione, ma cristallizza la razionalità del proprio operato. La tracciabilità del metodo algoritmico diventa così la prova regina dell'assenza di negligenza, offrendo una protezione documentale contro le contestazioni basate su criteri valutativi postumi e soggettivi.
Il quadro normativo trova compimento con la Legge 7 gennaio 2026, n. 1, che interviene sulla delimitazione della responsabilità amministrativa. La riforma punta a superare l'immobilismo della "burocrazia difensiva" attraverso una più chiara tipizzazione della colpa grave.
In questo contesto, l'IA agisce come uno "scudo": l'utilizzo consapevole di strumenti digitali avanzati, nel rispetto dei canoni di razionalità, delimita la responsabilità del dipendente pubblico ai soli casi di violazione macroscopica e ingiustificata. Il "risultato" e la tutela del funzionario convergono: la tecnologia diventa il garante di un'azione amministrativa coraggiosa e, al contempo, giuridicamente protetta.
La transizione verso un’amministrazione algoritmica richiede un cambio di paradigma: non più la "paura della firma", ma la padronanza di un metodo digitale trasparente. Solo attraverso la piena comprensione delle nuove regole sulla responsabilità sarà possibile trasformare l'IA da incognita giuridica a pilastro del buon andamento della PA.