Algoritmi Decisionali e Responsabilità Civile

Introduzione

L’impiego sempre più pervasivo di algoritmi decisionali e sistemi di intelligenza artificiale nelle relazioni giuridiche ed economiche solleva questioni fondamentali in tema di responsabilità civile. Il quadro normativo europeo e nazionale si sta progressivamente adeguando per rispondere alle sfide poste dall’automazione decisionale, in particolare attraverso il Regolamento UE 2024/1689 sull’intelligenza artificiale (AI Act), recepito in Italia con la legge 23 settembre 2025, n. 132, che si affianca alla disciplina generale della responsabilità civile contenuta nel Codice civile.

L’articolo analizza il rapporto tra sistemi algoritmici e responsabilità civile secondo quattro direttrici: i soggetti responsabili, i criteri di imputazione, il nesso causale e l’onere della prova.

Conclusioni

L’impiego di algoritmi decisionali e sistemi di intelligenza artificiale impone un ripensamento dei tradizionali paradigmi della responsabilità civile. Il quadro normativo europeo e nazionale si sta gradualmente adeguando, attraverso il Regolamento UE 2024/1689 e la legge di recepimento italiana n. 132/2025, introducendo obblighi di sicurezza, trasparenza e sorveglianza umana a carico dei fornitori e degli utilizzatori di sistemi di IA. Sul piano della responsabilità civile, rimangono tuttavia aperte questioni fondamentali:

  • l’opportunità di introdurre forme di responsabilità oggettiva per i sistemi ad alto rischio, sul modello della responsabilità per prodotti difettosi;
  • la necessità di attenuare l’onere probatorio del danneggiato, introducendo presunzioni di causalità o inversioni dell’onere della prova;
  • la definizione di criteri di imputazione della responsabilità nei casi di sistemi autonomi o di IA generale, caratterizzati da elevata complessità e imprevedibilità;
  • la tutela dei diritti fondamentali delle persone interessate da decisioni algoritmiche, attraverso meccanismi effettivi di spiegazione, contestazione e ricorso.

I decreti delegati previsti dalla legge n. 132/2025 dovranno affrontare tali questioni, bilanciando l’esigenza di tutela adeguata delle vittime con quella di non ostacolare l’innovazione tecnologica. La giurisprudenza, nazionale ed europea, sarà chiamata a precisare i confini della responsabilità, applicando i principi generali del diritto civile ai nuovi scenari posti dall’intelligenza artificiale.

In tale contesto, assume rilievo centrale il principio di human oversight (sorveglianza umana) affermato dal Regolamento: l’essere umano deve mantenere il controllo effettivo sui sistemi di IA e la capacità di intervenire per correggere o arrestare decisioni errate. Solo garantendo tale controllo sarà possibile imputare responsabilità secondo criteri oggettivi e soggettivi coerenti con i principi fondamentali del diritto della responsabilità civile.

Disclaimer

I contenuti presenti in questo sito web sono forniti a solo scopo informativo, senza assunzione di responsabilità dell'autore in merito alla correttezza o alla completezza dei relativi contenuti.

Questo si chiuderà in 0 secondi