Nel panorama in continua evoluzione della salute mentale, sempre più startup stanno puntando sui chatbot come potenziali sostituti dei terapeuti umani. L’idea di poter accedere a supporto psicologico attraverso un’applicazione è allettante: più accessibile, conveniente e senza le lunghe liste d’attesa delle tradizionali sedute terapeutiche. Tuttavia, la questione è complessa e non priva di controversie.
Una delle aziende più note in questo ambito è Sonia, fondata da tre ex studenti di informatica dell’ETH Zürich e del MIT. Questa startup offre un “terapeuta AI” che utilizza modelli di intelligenza artificiale per analizzare e rispondere alle conversazioni degli utenti, applicando tecniche di terapia cognitivo-comportamentale. Secondo il CEO, Dustin Klebe, Sonia mira a colmare un enorme divario tra domanda e offerta di assistenza psicologica.
Da un lato, ci sono evidenze che suggeriscono che i chatbot possano essere efficaci nel ridurre sintomi di depressione e ansia, oltre a essere apprezzati da molti utenti per la facilità d’uso e l’accessibilità economica. Tuttavia, dall’altro lato della medaglia, emergono preoccupazioni serie.
Una delle principali criticità riguarda la natura della relazione terapeutica. È ampiamente riconosciuto che il fattore umano, la connessione empatica tra terapeuta e cliente, sia uno dei migliori predittori di successo nel trattamento della salute mentale. I chatbot, nonostante le loro capacità avanzate di analisi e risposta, non possono replicare completamente questa interazione umana. Questo solleva domande cruciali sulla qualità dell’assistenza fornita e sulla sua capacità di cogliere segnali subdoli che potrebbero indicare problemi più profondi.
Inoltre, vi sono preoccupazioni etiche e di sicurezza riguardo alla gestione dei dati personali degli utenti. Mentre le startup come Sonia assicurano di mantenere solo le informazioni strettamente necessarie, come l’età e il nome, per l’amministrazione della terapia, la trasparenza sulle pratiche di conservazione dei dati e sull’uso per l’addestramento dei modelli rimane una questione cruciale.
Un’altra sfida significativa riguarda i pregiudizi incorporati nei modelli di intelligenza artificiale. I chatbot sono spesso addestrati su dati che riflettono bias occidentali e potrebbero non essere adeguatamente sensibili alle differenze culturali e linguistiche nell’espressione delle malattie mentali, soprattutto se l’inglese non è la prima lingua dell’utente.
Un esempio rivelatore di queste problematiche è stato il caso di un chatbot utilizzato dalla National Eating Disorders Association, che ha fornito consigli potenzialmente dannosi a individui con disturbi alimentari.
Nonostante queste criticità, le startup come Sonia continuano a guadagnare terreno, attratte da un mercato che spesso non ha accesso sufficiente ai servizi tradizionali di salute mentale, sia per motivi economici che geografici.