Intelligenza Artificiale nella psicoterapia: rischio o opportunità?

16.03.2026

A cura di Avv. Mihaela Cristina Tirisca

A seguito dell'implementazione dell'intelligenza artificiale anche nella pratica psicologica, ci si pone il dubbio sui rischi e le opportunità sul piano giuridico che essa comporta sia per il professionista che il paziente.

Negli ultimi anni l'intelligenza artificiale ha assunto diverse forme, tra cui quella di vari strumenti digitali che affiancano gli psicologi nel lavoro clinico: chatbot di supporto, piattaforme dedicate alle sedute psicologiche da remoto,
app per il monitoraggio emotivo e software per la sintesi e la trascrizione automatica delle sedute e tanto altro.

L'intelligenza artificiale può fungere da ausilio e migliorare la psicoterapia, tuttavia, tali tecnologie implicano l'insorgere di responsabilità e rischi giuridici che necessitano attenzione. Tale analisi è fondamentale in quanto, seppur lo psicologo utilizzi l'intelligenza artificiale nello svolgimento della propria professione, la responsabilità resta in capo allo stesso, dunque al "professionista umano".

Essa consente ai terapeuti di interagire con i pazienti, analizzare le sedute e di valutare dettagliatamente le emozioni durante i dialoghi, suggerendo le strategie personalizzate per ogni cura oltre che per ogni tipologia di disagio umano. L'IA può anche riepilogare alla fine di ogni seduta il contenuto dell'incontro con il paziente.

In tale contesto, l'avvento di nuovi scenari legati all'IA comporta una serie di implicazioni normative che si pongono al centro del dibattito odierno.

Lo psicologo resta responsabile

Ai sensi degli artt. 1176 e 1218 c.c., il professionista che svolge attività intellettuali ha una responsabilità professionale nei confronti del paziente: egli dovrà eseguire la prestazione con la diligenza professionale qualificata richiesta dalla natura dell'attività ed in caso di inadempimento sarà tenuto al risarcimento dei danni, ad eccezione del caso in cui dimostri che la prestazione è impossibile per causa a lui non imputabile.

In caso di utilizzo dell'IA la responsabilità resta esclusivamente in capo al professionista che ne risponderà in via assoluta, in quanto l'IA non potrà autonomamente espletare le attività tipiche dello psicologo quali la formulazione di diagnosi o di decisioni terapeutiche, la sostituzione del ragionamento clinico e l'assunzione di responsabilità professionali.

Con l'entrata in vigore della Legge n. 132/2025 - che recepisce il Regolamento (UE) 2024/1689 (c.d. AI Act) - che regola l'uso dell'IA in Italia sono state introdotte delle novità anche per le professioni intellettuali. In particolare, l'art. 13 ribadisce che chi integra l'IA nella propria attività, lo potrà fare per le sole attività strumentali e di supporto all'attività professionale, con prevalenza del lavoro intellettuale oggetto della prestazione d'opera.

Il Codice Deontologico degli Psicologi, invece, non prevede un espresso divieto di impiego di sistemi di IA a condizione che quest'ultima sia un mero strumento di supporto che non sostituisce il giudizio clinico.

Ne consegue che l'utilizzo dell'IA in sostituzione dello psicologo configura un'ipotesi di illecito deontologico.

Il trattamento dei dati personali e la conformità al GDPR

Ai sensi dell'art. 9 del Reg. UE 2016/679 ("GDPR") i dati relativi alla salute mentale rientrano nelle categorie particolari di dati, pertanto, il loro trattamento richiede l'adozione di misure di sicurezza rafforzate. A ciò si aggiunge che, in virtù del principio di minimizzazione, saranno raccolti solo i dati necessari.

Lo psicologo ha inoltre l'obbligo del segreto professionale, oltre che di sapere e di poter provare come, in che modo, dove ed il tempo per il quale i dati vengono trattati. Tali obblighi, in alcuni casi, rischiano di non essere adempiuti: ciò potrebbe avvenire se l'AI conserva e/o riutilizza i dati oppure opera su sistemi informativi al di fuori dell'Unione Europea.

Onde evitare una violazione del GDPRe del Codice Deontologico degli Psicologi dovranno essere implementati in qualsiasi caso in cui vi sia una raccolta – anche parziale - dei dati determinati accorgimenti. Ciò in quanto si intende tutelare il paziente, evitando qualsivoglia ipotesi di identificazione di quest'ultimo.

Nel caso in cui vi sia un utilizzo di piattaforme di videoconsulto, app di monitoraggio emotivo o software di sintesi o trascrizione degli appunti presi durante le sedute, il professionista dovrà effettuare:

- la nomina come Responsabile del Trattamento delle piattaforme esterne, ai sensi dell'art. 28 GDPR;

- la valutazione d'impatto (DPIA), ai sensi dell'art. 35 GDPR;

- la raccolta del consenso informato (art. 32 Costituzione ed art. 1. L. 219/2017 ogni trattamento sanitario richiede un consenso libero e consapevole) accompagnato da un'adeguata informativa – specifica, dettagliata ed in forma scritta - dalla quale si evinca esattamente come e quali dati vengono trattati, come viene utilizzata nello svolgimento delle attività, quali sono le finalità, le garanzie, i rischi, i limiti dell'IA e le modalità di opposizione a tale uso.

Relazione terapeutica: riservatezza ed impatto umano

L'utilizzo dell'IA può influenzare la relazione psicoterapeutica, con la conseguenza che la fiducia alla base del rapporto possa alterarsi irrimediabilmente.

Affinché possa integrarsi l'IA senza snaturare il fulcro della psicoterapia è necessario preservare il primato della relazione umana tra lo psicologo ed il paziente poiché gli strumenti innovativi possono essere certamente delle risorse strategiche, ma solo se utilizzate nel pieno rispetto della normativa e tenuto conto della centralità del paziente.