Introduzione
L’impiego sempre più pervasivo di algoritmi decisionali e sistemi di intelligenza artificiale nelle relazioni giuridiche ed economiche solleva questioni fondamentali in tema di responsabilità civile. Il quadro normativo europeo e nazionale si sta progressivamente adeguando per rispondere alle sfide poste dall’automazione decisionale, in particolare attraverso il Regolamento UE 2024/1689 sull’intelligenza artificiale (AI Act), recepito in Italia con la legge 23 settembre 2025, n. 132, che si affianca alla disciplina generale della responsabilità civile contenuta nel Codice civile.
L’articolo analizza il rapporto tra sistemi algoritmici e responsabilità civile secondo quattro direttrici: i soggetti responsabili, i criteri di imputazione, il nesso causale e l’onere della prova.
Il quadro normativo europeo e nazionale
- Il Regolamento UE 2024/1689 sull’intelligenza artificiale
Il Regolamento UE 2024/1689 costituisce la prima disciplina organica europea sui sistemi di intelligenza artificiale. L’art. 3 fornisce una definizione ampia di sistema di IA come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Il Regolamento individua diverse categorie di operatori economici responsabili lungo la catena del valore:
- il fornitore (provider), che sviluppa il sistema di IA o lo fa sviluppare e lo immette sul mercato con il proprio nome o marchio;
- il deployer (utilizzatore), che utilizza un sistema di IA sotto la propria autorità;
- l’importatore e il distributore, con ruoli analoghi a quelli previsti dalla legislazione sui prodotti;
- il fabbricante del prodotto che integra un sistema di IA in un prodotto e lo immette sul mercato con il proprio nome o marchio.
Particolare rilevanza assume la classificazione dei sistemi di IA in base al rischio. L’Allegato III del Regolamento elenca i sistemi di IA ad alto rischio, tra cui figurano i sistemi utilizzati per decisioni in ambito creditizio, occupazione, accesso a prestazioni pubbliche essenziali e amministrazione della giustizia.
Per i sistemi ad alto rischio, il Regolamento impone al fornitore obblighi stringenti:
- valutazione e gestione del rischio ex art. 9;
- governance dei dati ex art. 10;
- documentazione tecnica dettagliata di cui all’Allegato IV;
- registrazione automatica degli eventi;
- trasparenza e fornitura di informazioni agli utilizzatori;
- sorveglianza umana efficace ex art. 14;
- accuratezza, robustezza e cybersicurezza.
L’art. 86 riconosce alla persona interessata oggetto di una decisione basata su un sistema di IA ad alto rischio il diritto a ottenere spiegazioni chiare e significative sul ruolo del sistema nel processo decisionale, salvo eccezioni o limitazioni previste dal diritto nazionale o dell’Unione.
- La disciplina italiana di recepimento
La legge 23 settembre 2025, n. 132 reca “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”. L’art. 1 stabilisce le finalità della legge, volta a promuovere un utilizzo corretto, trasparente e responsabile dell’IA in una dimensione antropocentrica, garantendo la vigilanza sui rischi e l’impatto sui diritti fondamentali.
L’art. 3 sancisce i principi generali applicabili: lo sviluppo e l’utilizzo di sistemi di IA devono avvenire nel rispetto dei diritti fondamentali e delle libertà costituzionali, del diritto dell’Unione europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, accuratezza, non discriminazione, parità dei sessi e sostenibilità. Il comma 3 impone che i sistemi di IA “devono essere sviluppati e applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della trasparenza, della spiegabilità”, assicurando “la sorveglianza e l’intervento umano”.
L’art. 24 contiene la delega al Governo per l’adeguamento della normativa nazionale al Regolamento UE 2024/1689. Il comma 5, lettera d), prevede espressamente, tra i principi e criteri direttivi della delega, la “previsione di strumenti di tutela del danneggiato, anche attraverso una specifica regolamentazione dei criteri di ripartizione dell’onere della prova, tenuto conto della classificazione dei sistemi di intelligenza artificiale e dei relativi obblighi come individuati dal regolamento (UE) 2024/1689”.
L’art. 16 contiene un’ulteriore delega al Governo per definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di IA, con previsione di strumenti di tutela di carattere risarcitorio o inibitorio.
L’art. 9 del d.lgs. 12 luglio 2024, n. 103 disciplina l’utilizzo di soluzioni tecnologiche nelle attività di controllo della Pubblica Amministrazione, imponendo il rispetto di principi di comprensibilità, conoscibilità, non esclusività della decisione algoritmica, non discriminazione algoritmica e gestione efficace dei dati.
- Il Regolamento UE 2024/1689 sull’intelligenza artificiale
I soggetti responsabili nella catena algoritmica
- Il fornitore (provider)
Il fornitore del sistema di IA è il soggetto che sviluppa il sistema, o lo fa sviluppare, e lo immette sul mercato o lo mette in servizio con il proprio nome o marchio. Il Regolamento gli attribuisce la posizione di garanzia principale in quanto detiene la conoscenza tecnica del funzionamento del sistema e ne controlla il design, la programmazione e l’addestramento.
La responsabilità del fornitore non si esaurisce nell’immissione sul mercato: il Regolamento impone un sistema di monitoraggio successivo di cui all’art. 72, che obbliga il fornitore a raccogliere e analizzare l’esperienza maturata dall’uso dei sistemi di IA per individuare eventuali necessità di azioni correttive o preventive.La giurisprudenza europea in materia di responsabilità per prodotti difettosi — che costituisce un precedente significativo per la responsabilità da sistemi di IA — ha chiarito che la nozione di “produttore” assume carattere ampio e funzionale alla tutela del consumatore. Nella sentenza Keskinäinen Vakuutusyhtiö Fennia (C-264/21) del 7 luglio 2022, la Corte di Giustizia UE ha affermato che “deve essere considerato ‘produttore’ ogni persona che, apponendo il proprio nome, marchio o altro segno distintivo sul prodotto, o autorizzando tale apposizione, si presenta come produttore dello stesso, senza che sia necessaria alcuna partecipazione effettiva al processo di fabbricazione del prodotto”.
Analogamente, nella sentenza del 19 dicembre 2024 (C-264/23), la Corte ha precisato che “il fornitore di un prodotto deve essere considerato ‘persona che si presenta come produttore’ anche qualora non abbia materialmente apposto il proprio nome, marchio o altro segno distintivo sul prodotto, quando il marchio che il produttore ha apposto su quest’ultimo coincida, da un lato, con il nome del fornitore o con un elemento distintivo di quest’ultimo e, dall’altro, con il nome del produttore”.Tali principi sono trasferibili ai sistemi di IA: chi immette sul mercato un sistema algoritmico con il proprio marchio o si presenta come responsabile dello stesso ne risponde civilmente anche in assenza di diretta partecipazione alla programmazione.
- L’utilizzatore (deployer)
L’utilizzatore è la persona fisica o giuridica che utilizza un sistema di IA sotto la propria autorità. Il Regolamento distingue nettamente la posizione del deployer da quella del fornitore, attribuendo al primo obblighi specifici e, conseguentemente, una propria sfera di responsabilità.
Per i sistemi ad alto rischio, l’utilizzatore deve:
- utilizzare il sistema conformemente alle istruzioni d’uso;
- assegnare la sorveglianza umana a persone competenti;
- monitorare il funzionamento sulla base delle istruzioni d’uso;
- conservare i log generati automaticamente;
- effettuare, quando pertinente, una valutazione d’impatto sui diritti fondamentali prima di mettere in uso il sistema.
La responsabilità dell’utilizzatore si configura come responsabilità autonoma quando il danno derivi dall’uso improprio del sistema o dalla violazione degli obblighi di sorveglianza e monitoraggio. Tuttavia, in presenza di sistemi correttamente utilizzati secondo le istruzioni ma comunque produttivi di danni per difetti intrinseci, la responsabilità ricade sul fornitore. In tema di responsabilità solidale, l’art. 2055 cod. civ. stabilisce che “se il fatto dannoso è imputabile a più persone, tutte sono obbligate in solido al risarcimento del danno”. Nei casi in cui il danno derivi dalla combinazione di un difetto del sistema e di un utilizzo non conforme alle istruzioni, fornitore e utilizzatore rispondono solidalmente nei confronti del danneggiato, con possibilità di regresso interno secondo la gravità delle rispettive colpe.
- Altri soggetti della catena di fornitura
Il Regolamento prevede la responsabilità anche di altri operatori economici:
- l’importatore, che introduce nell’Unione un sistema di IA proveniente da paesi terzi, assume responsabilità analoghe a quelle del fornitore per quanto riguarda la conformità al Regolamento;
- il distributore, che mette a disposizione sul mercato un sistema di IA, risponde quando contribuisce all’immissione in commercio di un sistema non conforme o quando non adempie agli obblighi di verifica della conformità;
- il fabbricante del prodotto che integra un sistema di IA in un prodotto assume la qualifica di fornitore del sistema di IA per quanto riguarda la componente algoritmica.
La responsabilità lungo la catena può configurarsi secondo il modello della responsabilità solidale: il danneggiato può agire indifferentemente nei confronti di uno qualsiasi dei soggetti responsabili, salvo il regresso interno tra coobbligati.
- Il fornitore (provider)
Criteri di imputazione della responsabilità
- Responsabilità per colpa o responsabilità oggettiva?
La disciplina dell’AI Act non contiene norme esplicite di responsabilità civile, limitandosi a fissare obblighi di sicurezza e conformità. La determinazione dei criteri di imputazione della responsabilità resta quindi rimessa alle norme generali di diritto civile, con possibili modulazioni future ad opera dei decreti delegati previsti dall’art. 24 della legge n. 132/2025.
Allo stato attuale, la responsabilità per danni da algoritmi può configurarsi secondo diversi paradigmi:
- Responsabilità contrattuale ex art. 1218 cod. civ.
Quando tra danneggiato e responsabile (fornitore o utilizzatore) intercorre un rapporto contrattuale, trova applicazione la disciplina dell’inadempimento. La Cassazione civile, sez. II, ordinanza n. 25855 del 5 settembre 2023 ha affermato che “in tema di vendita di prodotti specializzati destinati ad uso professionale, la responsabilità del venditore per inadempimento contrattuale va valutata alla luce degli artt. 1218 e 1176, comma 2, cod. civ., attribuendo contenuto complesso alle nozioni di prestazione e risultato atteso dal creditore. Il dovere di diligenza qualificata, determinato dalla natura dell’attività esercitata e dalla pericolosità della prestazione, implica non solo l’obbligo di consegnare il prodotto munito di adeguata etichettatura, ma anche obblighi informativi integrativi”.
Applicando tali principi ai sistemi di IA, il fornitore che conclude un contratto di fornitura di un sistema algoritmico non adempie correttamente la propria obbligazione se non fornisce informazioni adeguate sulla logica di funzionamento, sui limiti del sistema e sulle misure di sorveglianza necessarie. Gli obblighi informativi previsti dal Regolamento si integrano nel contenuto dell’obbligazione contrattuale secondo i criteri della buona fede oggettiva ex artt. 1175 e 1375 cod. civ. - Responsabilità extracontrattuale per colpa ex art. 2043 cod. civ.
In assenza di rapporto contrattuale, il danneggiato può invocare la responsabilità aquiliana, dimostrando: i) il fatto illecito (la condotta colposa o dolosa del danneggiante); ii) l’evento dannoso; iii) il nesso causale tra fatto ed evento; iv) l’elemento soggettivo (dolo o colpa). La colpa si declina diversamente a seconda del soggetto responsabile:
- per il fornitore: violazione degli obblighi di valutazione del rischio, gestione dei dati, accuratezza del sistema, monitoraggio successivo all’immissione sul mercato;
- per l’utilizzatore: violazione degli obblighi di utilizzo conforme alle istruzioni, di sorveglianza umana efficace, di monitoraggio del funzionamento.
- Responsabilità oggettiva ex art. 2051 cod. civ. (custodia)
L’applicabilità dell’art. 2051 cod. civ. (“ciascuno è responsabile del danno cagionato dalle cose che ha in custodia, salvo che provi il caso fortuito”) ai sistemi algoritmici è discussa. La giurisprudenza ha chiarito che il criterio di imputazione della responsabilità ex art. 2051 cod. civ. “ha carattere oggettivo, essendo sufficiente, per la sua configurazione, la dimostrazione da parte dell’attore del nesso di causalità tra la cosa in custodia ed il danno, mentre al custode spetta l’onere della prova liberatoria del caso fortuito” (Cassazione civile, sez. VI-3, ordinanza n. 30775 del 22 dicembre 2017).
La Cassazione civile, sez. III, ordinanza n. 14065 del 22 maggio 2023 ha precisato che “il caso fortuito è rappresentato da un fatto naturale o del danneggiato o di un terzo, connotato da imprevedibilità e inevitabilità dal punto di vista oggettivo e della regolarità o adeguatezza causale”.
Per i sistemi algoritmici, la configurabilità della responsabilità da custodia potrebbe applicarsi all’utilizzatore che abbia la disponibilità materiale del sistema. Tuttavia, il carattere immateriale e la complessità dei sistemi di IA pongono problemi applicativi: l’utilizzatore potrebbe non avere conoscenza né controllo effettivo sui meccanismi decisionali interni del sistema, rendendo ardua la prova liberatoria del caso fortuito. - Responsabilità da prodotto difettoso (Direttiva 85/374/CEE)
La responsabilità per danno da prodotti difettosi, disciplinata dalla Direttiva 85/374/CEE (recepita in Italia con d.P.R. 24 maggio 1988, n. 224, ora artt. 114 ss. del Codice del consumo), costituisce un modello di responsabilità oggettiva particolarmente rilevante per i sistemi di IA. La Direttiva si applica quando: i) vi è un prodotto difettoso; ii) il danno rientra nelle categorie risarcibili (morte, lesioni personali, danni a cose destinate ad uso privato); iii) sussiste il nesso causale tra difetto e danno.
La Corte di Giustizia UE, sentenza del 5 marzo 2015 (C-503/13 e C-504/13) ha affermato che “l’accertamento di un potenziale difetto dei prodotti appartenenti al medesimo gruppo o alla medesima serie di produzione, quali i pacemaker e i defibrillatori automatici impiantabili, consente di qualificare come difettoso un siffatto prodotto senza che occorra riscontrare il suddetto difetto in tale prodotto”. Tale principio è applicabile ai sistemi di IA: la scoperta di un difetto algoritmico comune a una serie di sistemi consente di qualificare come difettoso anche il singolo sistema, senza necessità di provare il malfunzionamento specifico.La Corte di Giustizia UE, sentenza del 10 giugno 2021 (C-800/19) ha tuttavia precisato che “la nozione di ‘prodotto difettoso’ non comprende la copia di un giornale stampato che contenga un consiglio sanitario errato, dalla cui applicazione sia derivato un danno alla salute del lettore”. La Corte ha chiarito che “i servizi non rientrano nell’ambito di applicazione della direttiva, che si riferisce esclusivamente ai beni mobili oggetto di produzione industriale” e che “un consiglio inesatto pubblicato su un giornale costituisce un servizio che non riguarda il supporto fisico che lo veicola e non è idoneo a conferire carattere difettoso al giornale stesso”. Tale orientamento solleva interrogativi per i sistemi di IA: se l’algoritmo viene considerato un “servizio” anziché un “prodotto”, potrebbe restare escluso dalla responsabilità oggettiva per prodotti difettosi. Tuttavia, la distinzione tra prodotto e servizio deve essere valutata caso per caso: un software incorporato in un dispositivo fisico (ad esempio, un sistema di guida autonoma in un’automobile) può essere considerato parte integrante del prodotto complessivo.
La Cassazione civile, sez. II, ordinanza n. 25855/2023 ha chiarito che “la normativa speciale sulla responsabilità del produttore di cui al D.P.R. n. 224 del 1988 non trova applicazione quando il danneggiato sia una persona giuridica e le cose danneggiate non siano destinate ad uso privato ma alla commercializzazione”. - Responsabilità da processo decisionale automatizzato (art. 22 RGPD)
Quando il sistema di IA tratta dati personali, trova applicazione la disciplina del Regolamento (UE) 2016/679 (GDPR). L’art. 22, paragrafo 1, GDPR stabilisce che “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.
La Corte di Giustizia UE, sentenza del 7 dicembre 2023 (C-634/21) ha affermato che “il calcolo automatizzato, da parte di una società che fornisce informazioni commerciali, di un tasso di probabilità relativo alla capacità di una persona di onorare impegni di pagamento futuri costituisce di per sé un processo decisionale automatizzato ai sensi di tale disposizione quando da tale tasso dipende in modo decisivo la stipula, l’esecuzione o la cessazione di un rapporto contrattuale con tale persona da parte di un terzo al quale è comunicato il tasso”.La violazione dell’art. 22 GDPR può generare responsabilità sia amministrativa (sanzioni dell’Autorità Garante) sia civile (risarcimento del danno ex art. 82 GDPR).
La Corte di Giustizia UE, sentenza del 27 febbraio 2025 (C-117/25) ha chiarito che “in caso di processo decisionale automatizzato, compresa la profilazione, l’articolo 15, paragrafo 1, lettera h) del regolamento (UE) 2016/679 riconosce all’interessato un vero e proprio diritto alla spiegazione, che impone al titolare del trattamento di fornire informazioni significative sulla logica utilizzata mediante la descrizione, in forma concisa, trasparente, comprensibile e facilmente accessibile, della procedura e dei principi concretamente applicati”. La sentenza ha precisato che “non soddisfano tale obbligo né la mera comunicazione di una formula matematica o di un algoritmo, né la descrizione dettagliata di tutte le fasi del processo, dovendo invece le informazioni consentire all’interessato di comprendere quali suoi dati personali sono stati utilizzati e in che modo nel processo decisionale”.
- Responsabilità contrattuale ex art. 1218 cod. civ.
- La responsabilità solidale e il concorso di colpe
Quando più soggetti contribuiscono al verificarsi del danno, trova applicazione l’art. 2055 cod. civ., che prevede la responsabilità solidale di tutti i concorrenti nel fatto dannoso.
La Cassazione civile, sez. I, ordinanza n. 13758 del 22 maggio 2025 ha affermato che “in tema di assicurazione della responsabilità civile, quando l’assicurato sia responsabile in solido con altri soggetti, l’obbligo indennitario dell’assicuratore si estende all’intero importo dovuto al terzo danneggiato e non può essere limitato alla sola quota di responsabilità diretta dell’assicurato”.Nei casi di danni da sistemi di IA, possono configurarsi situazioni di concorso:
- tra fornitore e utilizzatore, quando il danno derivi sia da un difetto del sistema sia da un utilizzo non conforme;
- tra fornitore del sistema di IA e produttore del dispositivo fisico in cui l’algoritmo è integrato;
- tra più fornitori, quando il sistema di IA integri componenti software di diversa provenienza.
Il danneggiato può agire nei confronti di uno qualsiasi dei corresponsabili, ottenendo l’intero risarcimento. Il regresso interno tra coobbligati avviene “nella misura determinata dalla gravità della rispettiva colpa e dall’entità delle conseguenze che ne sono derivate” (art. 2055, comma 2, cod. civ.).
- Responsabilità per colpa o responsabilità oggettiva?
Il nesso causale nei sistemi algoritmici
- Le peculiarità del nesso causale algoritmico
L’accertamento del nesso di causalità tra il funzionamento di un sistema algoritmico e il danno pone problemi specifici, legati all’opacità (black box problem) e alla complessità dei sistemi di IA, in particolare di quelli basati su machine learning.
La Cassazione civile, sez. III, ordinanza n. 28722 del 7 novembre 2024 ha chiarito che “in tema di accertamento del nesso di causalità nella responsabilità civile, il nesso causale materiale consiste nella relazione probabilistica concreta tra comportamento ed evento dannoso, secondo la regola dell’ascrivibilità in termini di ponderanza dell’evidenza o del ‘più probabile che non’, criterio che si differenzia da quello penale dell’elevato grado di credibilità razionale prossimo alla certezza”.La sentenza ha precisato che “qualora l’evento dannoso sia ipoteticamente riconducibile a una pluralità di cause, il giudice di merito deve eliminare dal novero delle ipotesi valutabili quelle meno probabili e successivamente scegliere, tra le rimanenti ipotesi ritenute più probabili, quella che abbia ricevuto il maggior grado di conferma dagli elementi di fatto, anche se tale ipotesi non raggiunga una elevata probabilità in termini assoluti, essendo sufficiente che risulti più probabile rispetto alle altre ipotesi alternative”.
Applicando tale criterio ai sistemi algoritmici, il danneggiato dovrà dimostrare che, sulla base degli elementi disponibili, è più probabile che non che il danno sia derivato dal malfunzionamento o dal difetto del sistema di IA, piuttosto che da altre cause. La prova può essere data anche mediante presunzioni gravi, precise e concordanti.La Cassazione civile, sez. III, ordinanza n. 33897 del 23 dicembre 2025 ha ribadito che “la responsabilità ex art. 2051 cod. civ. ha natura oggettiva – in quanto si fonda unicamente sulla dimostrazione del nesso causale tra la cosa in custodia e il danno, non già su una presunzione di colpa del custode – e può essere esclusa o dalla prova del caso fortuito (che appartiene alla categoria dei fatti giuridici), senza intermediazione di alcun elemento soggettivo, oppure dalla dimostrazione della rilevanza causale, esclusiva o concorrente, alla produzione del danno delle condotte del danneggiato o di un terzo”.
- Il concorso di cause e la causalità efficiente
Il principio di cui all’art. 41 c.p., richiamato dalla giurisprudenza civile, stabilisce che il concorso di cause preesistenti, simultanee o sopravvenute non esclude il rapporto di causalità, essendo l’evento riconducibile a tutte le concause, salvo che si verifichi l’esclusiva efficienza causale di una di esse.
Nei sistemi algoritmici, è frequente che il danno derivi dalla combinazione di più fattori:
- un difetto di progettazione o di addestramento del sistema;
- dati di input errati o incompleti;
- un utilizzo non conforme alle istruzioni;
- l’intervento (o la mancata intervento) dell’operatore umano.
La Cassazione penale, sez. IV, sentenza n. 24566 del 21 giugno 2024 ha affermato che “in tema di responsabilità civile per colpa, il giudizio di accertamento del nesso causale presuppone un’attenta verifica, tramite giudizio controfattuale ipotetico, della valenza impeditiva del comportamento alternativo lecito, non essendo sufficiente la mera constatazione della violazione di una regola cautelare”. La sentenza ha precisato che “la ricorrenza di un profilo di rimproverabilità in capo all’agente non comporta, in presenza del verificarsi dell’evento, un automatico addebito di responsabilità colposa, dovendo il principio di colpevolezza verificare in concreto sia la sussistenza della violazione di una regola cautelare, sia la prevedibilità ed evitabilità dell’evento dannoso che la regola cautelare violata mira a prevenire”.
Applicato ai sistemi di IA, ciò significa che la violazione di un obbligo previsto dal Regolamento (ad esempio, l’omessa valutazione del rischio o l’inadeguata sorveglianza umana) non determina automaticamente la responsabilità, dovendo il giudice accertare in concreto se l’adempimento di tale obbligo avrebbe evitato il danno. - L’interruzione del nesso causale
Il nesso causale può essere interrotto dalla condotta del danneggiato o di un terzo, quando tale condotta sia caratterizzata da imprevedibilità e inevitabilità.
La Cassazione civile, sez. III, ordinanza n. 33897/2025 ha statuito che “quanto più la situazione di possibile danno è suscettibile di essere prevista e superata attraverso l’adozione da parte del danneggiato delle cautele normalmente attese e prevedibili in rapporto alle circostanze, tanto più incidente deve considerarsi l’efficienza causale del comportamento imprudente del medesimo, fino a rendere possibile che detto comportamento interrompa il nesso eziologico tra fatto ed evento dannoso”.Nei sistemi di IA, l’interruzione del nesso causale può verificarsi quando:
- l’utilizzatore impiega il sistema per finalità radicalmente diverse da quelle previste, nonostante gli avvertimenti del fornitore;
- l’operatore umano disattiva i sistemi di sicurezza o ignora gli allarmi del sistema;
- un terzo manomette il sistema o altera i dati di input in modo imprevedibile.
- Le peculiarità del nesso causale algoritmico
L’onere della prova e le presunzioni
- Il regime ordinario dell’onere probatorio
Secondo il principio generale di cui all’art. 2697 cod. civ., “chi vuol far valere un diritto in giudizio deve provare i fatti che ne costituiscono il fondamento”. Applicato alla responsabilità civile, ciò significa che il danneggiato deve provare:
- il fatto illecito (la condotta colposa o dolosa del danneggiante, ovvero l’esistenza dei presupposti della responsabilità oggettiva);
- l’evento dannoso;
- il nesso causale tra fatto ed evento;
- l’ammontare del danno.
Nei casi di sistemi algoritmici, tale onere probatorio si scontra con l’asimmetria informativa tra danneggiato e responsabile: il danneggiato spesso non ha accesso al codice sorgente, ai dati di addestramento, alla documentazione tecnica del sistema, rendendo estremamente difficile la dimostrazione del difetto e del nesso causale.
- Gli strumenti per superare l’asimmetria informativa
- Obblighi di trasparenza e documentazione del Regolamento AI
Il Regolamento UE 2024/1689 impone al fornitore di sistemi ad alto rischio obblighi stringenti di documentazione. L’Allegato IV richiede che la documentazione tecnica includa:
- una descrizione generale del sistema, compresi la finalità prevista, la logica generale e gli algoritmi utilizzati;
- la descrizione dettagliata degli elementi del sistema e del processo di sviluppo;
- le specifiche di progettazione, le principali scelte di progettazione e le motivazioni;
- la descrizione dell’architettura del sistema;
- i requisiti in materia di dati, con schede tecniche sui set di dati di addestramento;
- le procedure di convalida e di prova utilizzate, con i relativi risultati.
Il danneggiato può richiedere l’esibizione di tale documentazione ai sensi dell’art. 210 c.p.c., che consente al giudice di ordinare alle parti l’esibizione di documenti o altre cose di cui si ritiene necessaria l’acquisizione al processo.
- Diritto di accesso e spiegazione per l’interessato
L’art. 86 del Regolamento UE 2024/1689 riconosce alla “persona interessata oggetto di una decisione adottata dal deployer sulla base dell’output di un sistema di IA ad alto rischio […] il diritto di ottenere dal deployer spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura decisionale e sui principali elementi della decisione adottata”.
Tale diritto si affianca a quello previsto dall’art. 15, paragrafo 1, lettera h), GDPR, che consente all’interessato di ottenere “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento”.
La Corte di Giustizia UE, sentenza del 27 febbraio 2025 (C-117/25) ha chiarito che tale diritto “impone al titolare del trattamento di fornire informazioni significative sulla logica utilizzata mediante la descrizione, in forma concisa, trasparente, comprensibile e facilmente accessibile, della procedura e dei principi concretamente applicati per utilizzare i dati personali al fine di ottenere un risultato determinato”. La Corte ha precisato che “qualora il titolare ritenga che le informazioni da fornire contengano dati di terzi protetti dal regolamento o segreti commerciali ai sensi della direttiva (UE) 2016/943, è tenuto a comunicare tali informazioni all’autorità di controllo o al giudice competente, cui spetta ponderare caso per caso i diritti e gli interessi in gioco per determinare la portata del diritto di accesso, non potendo una norma nazionale escludere di regola tale diritto in presenza di segreti commerciali o aziendali”. - Consulenza tecnica d’ufficio
In presenza di sistemi complessi, il giudice può disporre consulenza tecnica d’ufficio (CTU) ai sensi degli artt. 61 ss. c.p.c., nominando un esperto in informatica e intelligenza artificiale che analizzi il funzionamento del sistema, verifichi l’esistenza di difetti e accerti il nesso causale.
La Cassazione civile, sez. III, ordinanza n. 28722/2024 ha chiarito che “il giudice non può limitarsi a sostituire un sapere scientifico con un postulato logico di rilievo inferenziale senza utilizzare gli strumenti del metodo scientifico, dovendo le valutazioni risultare modulate in fatto e trovare conforto in argomenti tecnici che supportino la prospettazione causale”. - Inversione o attenuazione dell’onere probatorio
L’art. 24, comma 5, lettera d), della legge n. 132/2025 prevede tra i criteri direttivi della delega la “previsione di strumenti di tutela del danneggiato, anche attraverso una specifica regolamentazione dei criteri di ripartizione dell’onere della prova, tenuto conto della classificazione dei sistemi di intelligenza artificiale e dei relativi obblighi come individuati dal regolamento (UE) 2024/1689”.
I futuri decreti delegati potranno quindi introdurre meccanismi di:
- inversione dell’onere della prova: per i sistemi ad alto rischio, il fornitore o l’utilizzatore dovranno dimostrare che il sistema era conforme a tutti i requisiti del Regolamento e che il danno non è derivato da un difetto del sistema;
- presunzioni di causalità: in presenza di violazione di obblighi previsti dal Regolamento (ad esempio, assenza di valutazione del rischio o di sorveglianza umana), si presume che tale violazione abbia causato il danno, salvo prova contraria del responsabile;
- abbassamento dello standard probatorio: sarà sufficiente per il danneggiato dimostrare la probabilità prevalente del nesso causale, anziché la certezza.
- Obblighi di trasparenza e documentazione del Regolamento AI
- Le presunzioni semplici e il ragionamento presuntivo
In assenza di specifica disciplina normativa, il danneggiato può ricorrere alle presunzioni semplici di cui all’art. 2729 cod. civ., che consentono di desumere un fatto ignoto da un fatto noto, purché le presunzioni siano gravi, precise e concordanti.La Cassazione civile, sez. I, ordinanza n. 13758 del 22 maggio 2025 ha chiarito che “in tema di ricorso per cassazione, la violazione dell’art. 2729 c.c. si integra unicamente quando il giudice di merito affermi che il ragionamento presuntivo può basarsi su presunzioni non gravi, precise e concordanti, ovvero fondi la presunzione su un fatto storico privo di tali requisiti, e non anche quando la critica si concreti nella diversa ricostruzione delle circostanze fattuali o nella mera prospettazione di una inferenza probabilistica diversa da quella applicata dal giudice di merito”.
Nei casi di danni da algoritmi, possono costituire fatti noti idonei a fondare presunzioni:
- la violazione di obblighi previsti dal Regolamento (assenza di valutazione del rischio, inadeguata sorveglianza umana, mancanza di documentazione);
- la presenza di difetti noti in altri sistemi della stessa serie o famiglia;
- l’esistenza di precedenti incidenti o malfunzionamenti;
- l’assenza di registrazione automatica degli eventi (log), quando tale registrazione era obbligatoria;
- la dimostrata inadeguatezza dei dati di addestramento.
Da tali fatti noti il giudice può desumere, con ragionamento presuntivo, l’esistenza del difetto e del nesso causale.
- Il regime ordinario dell’onere probatorio
Prospettive e questioni aperte
- La responsabilità per danni da intelligenza artificiale generale
Il Regolamento UE 2024/1689 disciplina in modo specifico i modelli di IA per finalità generali (general purpose AI), definiti come modelli “caratterizzati da una generalità significativa” e capaci di “svolgere con competenza un’ampia gamma di compiti distinti” (art. 3, punto 63).
Per tali modelli, il Regolamento prevede obblighi specifici a carico del fornitore, tra cui la redazione di documentazione tecnica, l’adozione di politiche sul rispetto del diritto d’autore e la diffusione di informazioni sufficientemente dettagliate sull’uso dei dati di addestramento. Per i modelli con rischio sistemico (quelli con capacità di impatto elevato), gli obblighi si intensificano ulteriormente.
La responsabilità civile per danni causati da sistemi di IA generale pone problemi peculiari:
- difficoltà di individuazione del responsabile: quando il sistema è sviluppato da un soggetto, addestrato da un altro, integrato in applicazioni da un terzo e utilizzato da un quarto, diventa complesso determinare chi risponda del danno;
- imprevedibilità dei comportamenti emergenti: i sistemi di IA generale possono sviluppare capacità non previste in fase di progettazione (emergent capabilities), rendendo difficile l’addebito di responsabilità al fornitore;
- autonomia decisionale: più il sistema è autonomo, più si attenua il controllo effettivo dell’operatore umano, rendendo problematica l’imputazione della responsabilità per colpa.
Il Regolamento UE 2024/1732 del 17 giugno 2024, che modifica il Regolamento (UE) 2021/1173 sull’impresa comune per il calcolo ad alte prestazioni europeo, ha introdotto il concetto di fabbriche di IA (AI factories), infrastrutture centralizzate o distribuite che forniscono servizi di supercalcolo orientati all’IA per l’addestramento di modelli su larga scala. Tali infrastrutture, pur non essendo direttamente responsabili dei danni causati dai sistemi addestrati mediante i loro servizi, possono assumere obblighi di tracciabilità e documentazione utili all’accertamento delle responsabilità.
- La responsabilità dello Stato per violazione del diritto dell’Unione
La Cassazione civile, sez. III, ordinanza n. 19037 del 6 luglio 2021 ha sollevato la questione della responsabilità dello Stato per danni derivanti da violazione del diritto dell’Unione commessa da organi giurisdizionali nazionali di ultima istanza, in particolare per omesso rinvio pregiudiziale alla Corte di Giustizia. Tale responsabilità si distingue dalla responsabilità personale del magistrato ex legge n. 117/1988.
Nel contesto dei sistemi algoritmici, tale responsabilità potrebbe configurarsi quando:
- un giudice nazionale applichi in modo manifestamente errato la disciplina del Regolamento UE 2024/1689 o del GDPR, senza sollevare questione pregiudiziale alla Corte di Giustizia;
- le autorità nazionali di vigilanza omettano di esercitare i poteri loro attribuiti dal Regolamento, determinando danni ai cittadini.
La Cassazione civile, sez. I, ordinanza n. 31236 del 30 novembre 2025 ha chiarito che “in tema di responsabilità civile dei magistrati, la disciplina introdotta dalla legge 27 febbraio 2015 n. 18, che ha modificato l’art. 2 della legge 13 aprile 1988 n. 117 introducendo tra le ipotesi di colpa grave il travisamento del fatto o delle prove e la violazione manifesta del diritto dell’Unione europea, non ha efficacia retroattiva in assenza di una norma transitoria e si applica pertanto ai soli fatti illeciti posti in essere dal magistrato dalla data della sua entrata in vigore, ossia dal 19 marzo 2015”.
- La responsabilità per algoritmi utilizzati dalla Pubblica Amministrazione
L’art. 9 del d.lgs. n. 103/2024 disciplina l’utilizzo di soluzioni tecnologiche nelle attività di controllo della PA, imponendo principi di comprensibilità, conoscibilità, non esclusività della decisione algoritmica, non discriminazione e gestione efficace dei dati.
La responsabilità della PA per danni causati dall’uso di algoritmi decisionali si configura come responsabilità da provvedimento amministrativo illegittimo, soggetta alla giurisdizione del giudice amministrativo. Tuttavia, quando l’algoritmo sia utilizzato in attività di diritto privato dell’amministrazione (ad esempio, selezione di fornitori), la giurisdizione è del giudice ordinario e si applicano le regole della responsabilità civile.
- La responsabilità per danni da intelligenza artificiale generale
Conclusioni
L’impiego di algoritmi decisionali e sistemi di intelligenza artificiale impone un ripensamento dei tradizionali paradigmi della responsabilità civile. Il quadro normativo europeo e nazionale si sta gradualmente adeguando, attraverso il Regolamento UE 2024/1689 e la legge di recepimento italiana n. 132/2025, introducendo obblighi di sicurezza, trasparenza e sorveglianza umana a carico dei fornitori e degli utilizzatori di sistemi di IA. Sul piano della responsabilità civile, rimangono tuttavia aperte questioni fondamentali:
- l’opportunità di introdurre forme di responsabilità oggettiva per i sistemi ad alto rischio, sul modello della responsabilità per prodotti difettosi;
- la necessità di attenuare l’onere probatorio del danneggiato, introducendo presunzioni di causalità o inversioni dell’onere della prova;
- la definizione di criteri di imputazione della responsabilità nei casi di sistemi autonomi o di IA generale, caratterizzati da elevata complessità e imprevedibilità;
- la tutela dei diritti fondamentali delle persone interessate da decisioni algoritmiche, attraverso meccanismi effettivi di spiegazione, contestazione e ricorso.
I decreti delegati previsti dalla legge n. 132/2025 dovranno affrontare tali questioni, bilanciando l’esigenza di tutela adeguata delle vittime con quella di non ostacolare l’innovazione tecnologica. La giurisprudenza, nazionale ed europea, sarà chiamata a precisare i confini della responsabilità, applicando i principi generali del diritto civile ai nuovi scenari posti dall’intelligenza artificiale.
In tale contesto, assume rilievo centrale il principio di human oversight (sorveglianza umana) affermato dal Regolamento: l’essere umano deve mantenere il controllo effettivo sui sistemi di IA e la capacità di intervenire per correggere o arrestare decisioni errate. Solo garantendo tale controllo sarà possibile imputare responsabilità secondo criteri oggettivi e soggettivi coerenti con i principi fondamentali del diritto della responsabilità civile.

