
L’intelligenza artificiale e la responsabilità giuridica: profili normativi e applicazioni pratiche
A cura di Avv. Beatrice Donati
L'intelligenza artificiale costituisce oggi un elemento di trasformazione nei rapporti giuridici, che incide sulla responsabilità dei soggetti che la progettano, la impiegano o ne subiscono gli effetti.
Dalla sanità alla mobilità, dalla giustizia alla pubblica amministrazione, l'adozione di sistemi autonomi e generativi impone un ripensamento delle tradizionali categorie del diritto civile e penale.
A livello normativo, l'Unione Europea ha introdotto nel 2024 il Regolamento sull'intelligenza artificiale (AI Act), primo atto legislativo europeo destinato a regolamentare in modo unitario lo sviluppo, la commercializzazione e l'uso dei sistemi di intelligenza artificiale.[1]
Il Regolamento adotta un approccio basato sul rischio, distinguendo i sistemi in quattro classi: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo.
Il Regolamento si applica non solo ai fornitori europei ma anche a soggetti extra-UE che offrono o impiegano sistemi IA nel mercato europeo, estendendo la portata extraterritoriale delle prescrizioni.
Un esempio tipico è rappresentato da un software utilizzato per il reclutamento del personale: se considerato ad alto rischio, dovrà rispettare standard di non discriminazione, fornire una documentazione tecnica verificabile e garantire la possibilità di intervento umano.
Accanto agli obblighi regolamentari, si pongono questioni più strettamente legate alla responsabilità civile e penale.
In ambito civile, il danneggiato può solitamente agire nei confronti del produttore, dell'utilizzatore o del proprietario del sistema IA. Il modello di responsabilità varia a seconda del rapporto tra le parti e della dinamica del danno.
Di solito si distinguono tre categorie: responsabilità per difetto del prodotto ai sensi della direttiva 85/374/CEE[2], responsabilità del custode ex art. 2051 c.c. e responsabilità contrattuale per inadempimento o violazione di obblighi professionali.
Se, ad esempio, un veicolo autonomo investe un pedone, la responsabilità potrà essere imputata al produttore per vizi progettuali, al proprietario per mancata manutenzione o all'operatore per uso improprio. Il risarcimento può includere sia danni patrimoniali, come le spese mediche, sia danni non patrimoniali, come il danno biologico o morale.
In ambito penale, le problematiche si fanno più complesse, poiché l'imputazione penale presuppone l'esistenza di un soggetto agente dotato di capacità d'intendere e di volere. Un sistema autonomo non è un soggetto di diritto, né può essere considerato imputabile. Pertanto, la responsabilità penale viene solitamente attribuita a chi ha programmato il sistema, a chi lo ha utilizzato consapevolmente per commettere un reato, o a chi ha omesso di impedirne l'uso lesivo pur avendo un obbligo giuridico di controllo.
Ad esempio, se un software diagnostico sanitario fornisce una diagnosi errata che comporta il decesso di un paziente, il medico potrà rispondere per negligenza nell'aver omesso il controllo, oppure il dirigente per non aver implementato sistemi di supervisione. In tali ipotesi, il giudice dovrà valutare il grado di prevedibilità dell'errore e l'effettiva possibilità di intervento umano.
Un ulteriore profilo riguarda la diligenza tecnica richiesta a chi opera con sistemi IA. Secondo l'art. 1176 c.c., la diligenza si commisura alla natura dell'attività svolta e, nei casi professionali, richiede un livello superiore di attenzione.
In ambito tecnologico, ciò comporta il rispetto degli standard normativi e delle buone pratiche del settore. Si considerano indici di diligenza la certificazione del sistema, l'adozione di procedure di tracciabilità e l'impiego di soluzioni "spiegabili" che permettano la ricostruzione della logica decisionale. Un professionista che si avvale di un software di intelligenza artificiale per redigere un parere, ad esempio, è comunque tenuto a verificarne la correttezza, poiché una consulenza errata potrà comportare responsabilità contrattuale o disciplinare.
Alla luce di quanto esposto, emerge che l'intelligenza artificiale non determina l'abbandono dei principi classici della responsabilità, ma ne richiede un aggiornamento. Il sistema automatizzato resta, nella maggior parte dei casi, uno strumento nelle mani dell'uomo, la cui responsabilità è valutata in base al grado di controllo e alle cautele adottate.
Il Regolamento AI Act costituisce un primo tentativo di armonizzazione europea, ma lascia al diritto nazionale il compito di determinare, caso per caso, chi debba rispondere dei danni e con quali mezzi probatori. È pertanto opportuno, per operatori economici e professionisti, procedere a una valutazione preventiva dei rischi connessi all'uso dell'intelligenza artificiale, documentare le misure di sicurezza adottate e consultare specialisti legali in fase di progettazione e utilizzo dei sistemi. Solo un approccio fondato sulla perizia e sulla consapevolezza giuridica consente di coniugare l'innovazione tecnologica con la tutela dei diritti fondamentali.
[1] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, relativo a norme armonizzate sull'intelligenza artificiale e che modifica i regolamenti (CE) n. 300/2008, (UE) 2018/858, (UE) 2019/2144 e (UE) 2020/1056 del Parlamento europeo e del Consiglio, nonché le direttive 2014/90/UE, 2014/45/UE e (UE) 2016/797.
[2] Direttiva 85/374/CEE del Consiglio del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari e amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi.