Logo

Una IA per “amica”: come funzionano e quali rischi comportano i chatbot relazionali

Le conseguenze non riguardano solo la salute psicologica, ma anche privacy, manipolazione commerciale e responsabilità delle piattaforme

16 marzo 2026
Condividi

Forse l’ultima frontiera dello sviluppo dell’intelligenza artificiale non riguarda tanto ciò che le macchine possono fare, ma il tipo di relazioni che gli utenti finiscono per costruire con questi sistemi. Oggi, sempre più persone utilizzano l’IA anche nella sfera più intima della vita quotidiana per avere compagnia e ricevere supporto emotivo. Un bisogno che è diventato un mercato: servizi come Replika, Paradot o Kindroid sono stati sviluppati da aziende tecnologiche che monetizzano su questo tipo di interazioni, offrendo chatbot relazionali spesso basati su modelli di abbonamento e presentati come interlocutori digitali sempre pronto all’ascolto.

A differenza di altre forme di intrattenimento online, che competono per catturare l’attenzione degli utenti nei feed dei social, questi “amici sintetici operano attraverso conversazioni private, in uno spazio di dialogo individuale, dove il sistema simula una relazione personale basata sulla percezione di ascolto, fiducia e intimità. 

La differenza tra assistenti e compagni digitali

Per capire il fenomeno è utile distinguere tra due categorie di chatbot. Da un lato esistono strumenti progettati come assistenti virtuali, pensati per aiutare a svolgere compiti, rispondere a domande o produrre testi; dall’altro lato stanno emergendo applicazioni concepite per costruire un legame emotivo duraturo. 

Molti sistemi oggi più diffusi – come ChatGPT o Gemini – si collocano in una posizione intermedia: sono progettati principalmente come assistenti generali, ma possono essere utilizzati in modo conversazionale e relazionale, avvicinandosi per certi aspetti alla logica degli “AI companions”.

Questi ultimi sono sistemi IA multimodali, nel senso che combinano diversi tipi di tecnologie e canali di interazione: modelli linguistici di grandi dimensioni (LLM), strumenti di elaborazione del linguaggio naturale per gestire il dialogo, e talvolta componenti visive o vocali come avatar animati. In molti casi è possibile anche personalizzarne caratteristiche come il nome, l’aspetto dell’avatar, lo stile comunicativo o alcuni tratti della personalità. Con il tempo, il sistema costruisce una memoria delle conversazioni precedenti e adatta progressivamente le risposte alle preferenze e ai comportamenti della persona che lo utilizza. 

Inoltre, alcuni servizi di “AI companions” includono funzionalità specifiche come giochi di ruolo romantici o erotici. Un esempio è Ani, la “fidanzata virtuale” introdotta da Grok, un avatar in stile anime che simula una relazione sentimentale e conversazioni intime. Questo tipo di design ha però sollevato critiche sui rischi di normalizzare la sessualizzazione dei personaggi femminili, favorendo un’escalation verso contenuti misogini e violenti.

Perché funzionano così bene

Un elemento chiave degli “AI companions” è la capacità di restituire l’impressione di una relazione emotivamente sicura, creando legami basati sulla falsa attribuzione di empatia alla macchina. Questi sistemi sono programmati per rispecchiare il linguaggio e il tono dell’utente tramite una sorta di “antropomorfismo verbale” che fa percepire la conversazione come più umana. 

Il fatto che questi interlocutori digitali siano sempre disponibili e non giudicanti risulta particolarmente rilevante in un contesto sociale segnato da un crescente senso di solitudine, che molti sperimentano quando non si sentono pienamente compresi da amici e familiari. In questo contesto, i sistemi tendono a privilegiare l’accordo con l’interlocutore rispetto all’accuratezza delle informazioni, in una forma di adulazione algoritmica nota come “sycophancy”. Le aziende che progettano queste IA mirano proprio a monetizzare su questo vuoto e, alcune ricerche suggeriscono che tali strumenti possono effettivamente attenuare la sensazione di isolamento nel breve periodo. Tuttavia, avvertono che, a lungo andare, rischiano di disincentivare la costruzione di relazioni umane più complesse.

Le implicazioni riguardano soprattutto alcune fasce della popolazione più vulnerabili, come gli anziani – spesso esposti a maggiore solitudine e con minori competenze digitali – e i giovanissimi, nativi digitali abituati a interazioni “gamificate” ma ancora in fase di sviluppo delle competenze relazionali e del pensiero critico.

La fine di una relazione sintetica

La profondità del rapporto affettivo che gli utenti sviluppano con questi “amici sintetici” emerge chiaramente quando il servizio cambia o viene addirittura interrotto. Uno studio di fine 2024 ha analizzato le reazioni di un gruppo di persone dopo lo shutdown del chatbot Soulmate, un servizio di compagnia virtuale basato su un partner romantico digitale. Molti partecipanti hanno descritto l’evento come una sorta di “morte sociale” paragonabile al lutto per la perdita di una persona amata.

Un episodio simile si è verificato nel 2023 quando Replika ha limitato le funzionalità che permettevano interazioni romantiche con il chatbot e numerosi utenti si sono sentiti arrabbiati e traditi, riportando un peggioramento proprio di quel disagio che il servizio prometteva di alleviare. Non mancano poi casi in cui le persone dichiarano di provare un amore incondizionato per il proprio chatbot o addirittura di aver celebrato forme simboliche di matrimonio con partner digitali

Esistono infine situazioni più estreme in cui questo genere di rapporto virtuale può contribuire a rafforzare comportamenti violenti o pericolosi, dai pensieri suicidari ai disturbi alimentari. Un caso noto riguarda Jaswant Singh Chail, che nel 2021 tentò di assassinare la regina Elisabetta II dopo essere stato incoraggiato in una conversazione con un chatbot. Si tratta di episodi complessi, che richiedono ulteriori studi per comprendere meglio di quelle che viene informalmente definita “psicosi da IA”: secondo lo psichiatra e professore americano Stephan Taylor, in particolare rimane da capire se l’intelligenza artificiale possa agire da elemento scatenante o come fattore di amplificazione di vulnerabilità esistenti.

Tra asimmetrie e rischi

Dietro l’apparente reciprocità di queste conversazioni si nasconde però una profonda asimmetria. I chatbot e gli avatar IA sono programmati per raccogliere grandi quantità di dati sulle abitudini, le emozioni e i comportamenti dell’utente in modo da offrire un’esperienza personalizzata. Allo stesso tempo, le aziende che sviluppano questi servizi ne controllano il design e i modelli IA su cui si basano, il cui funzionamento resta in gran parte una scatola nera. Il fatto che lo scambio avvenga su un canale privato rende poi difficile qualsiasi forma di monitoraggio, smentita o controllo editoriale

Oltre ai risvolti psicologici, esistono preoccupazioni legate alla privacy e alla manipolazione commerciale. Le logiche relazionali in gioco possono essere sfruttate per influenzare le preferenze degli utenti, ad esempio attraverso pubblicità personalizzata. In scenari più estremi, questo tipo di sistemi può contribuire a forme dialgocrazia”, cioè di governance mediata dagli algoritmi. Ad esempio, l’ONG Reporters Sans Frontières cita alcuni chatbot sviluppati in Cina che veicolano narrazioni filogovernative e orientano le risposte su temi politicamente sensibili. 

Non a caso, l’Autorità garante per la protezione dei dati personali italiana ha sanzionato Replika per violazioni legate all’insufficiente trasparenza nel trattamento di dati sensibili e gestione e all’inadeguata verifica dell’età. Infine, vi è il rischio di spostare la responsabilità dalle piattaforme agli utenti stessi che personalizzano il proprio compagno virtuale nonostante la forte disparità di potere tra chi usa un servizio e lo crea con obblighi di controllo e sicurezza.  

Il futuro della compagnia sintetica

Il punto centrale non è stabilire se queste forme di intimità sintetica siano autentiche, ma comprendere le conseguenze della loro diffusione. Con il tempo, infatti, queste relazioni rischiano di diventare una presenza ordinaria e dunque normalizzata nella vita quotidiana senza che vengano pienamente discusse le implicazioni sociali che comportano a livello individuale e collettivo.

Tra le possibili strategie di mitigazione, il ricercatore di IA Massimo Flore cita la necessità che i sistemi ricordino esplicitamente agli utenti la propria natura artificiale o di introdurre forme di contraddittorio quando emergono convinzioni pericolose o disinformazione, anche a costo di intaccare la fiducia di chi li utilizza e allontanare l’utente.

In ogni caso, la tecnologia da sola difficilmente potrà risolvere la cosiddetta epidemia di solitudine, perché se gli “amici sintetici” possono offrire una gratificazione immediata, alla lunga rischiano di far sentire ancora più soli e disconnessi.

 

L’immagine di copertina è stata realizzata tramite l’intelligenza artificiale generativa.

Potrebbero interessarti
Segnala su Whatsapp