A febbraio 2023 il Garante per la Protezione dei Dati Personali ha imposto a Replika il blocco temporaneo del trattamento dei dati degli utenti italiani. Non era una mossa simbolica: era il riconoscimento che un'app usata da molte persone — anche per il proprio benessere emotivo — stava operando senza i prerequisiti minimi richiesti dalla legge europea.
A questo blocco è seguita, l'anno dopo, una sanzione di 5 milioni di euro dal Garante, e un ulteriore provvedimento per la fase di addestramento dei modelli generativi.
Per chi non era cliente di Replika, la storia è facile da liquidare come "una di quelle app strane americane che è stata fermata". Per chi invece la usava — e parliamo di centinaia di migliaia di italiani, alcuni in momenti delicati della loro vita — è stata una perdita reale e un segnale forte che l'AI emotiva ha bisogno di regole.
Questo articolo è in tre parti. Prima ricostruiamo i fatti, sobriamente. Poi spieghiamo cosa serve davvero per costruire un AI companion in modo etico. Infine raccontiamo come Insieme.AI prova a farlo, e cosa non vuole essere.
Parte 1 — I fatti, in ordine
Febbraio 2023 — Il blocco
Il 3 febbraio 2023 il Garante Privacy ha pubblicato un provvedimento con cui ha imposto a Luka Inc., la società americana che sviluppa Replika, di sospendere il trattamento dei dati degli utenti italiani.
I motivi indicati nel provvedimento erano cinque, e meritano di essere letti senza filtri:
- Mancanza di base giuridica per il trattamento di dati personali, in particolare di minori. Replika trattava dati di persone non maggiorenni senza un meccanismo affidabile di verifica dell'età.
- Rischi concreti per i minori, esposti a contenuti non appropriati senza age-gating reale. Replika offriva una modalità "romantic partner" e una "sexual content" attivabili senza verifica dell'età.
- Trattamento di dati emotivamente sensibili (umori, stati d'animo, conversazioni intime, riflessioni sul disagio personale) senza consenso specifico e informato.
- Trasparenza inadeguata: gli utenti non erano informati in modo chiaro sulle finalità del trattamento e sull'uso dei loro dati.
- Tutela dei soggetti vulnerabili insufficiente: l'AI poteva interagire in modi che potevano accentuare fragilità emotive senza adeguati safeguard.
L'effetto pratico: dal 3 febbraio 2023, gli utenti italiani non potevano più creare nuovi profili, e il trattamento dei dati esistenti era sospeso.
Aprile 2024 — La sanzione
Un anno e mezzo dopo, ad aprile 2024, il Garante ha comminato a Luka Inc. una sanzione di 5 milioni di euro per le violazioni accertate. Il provvedimento ha confermato sostanzialmente quanto contestato un anno prima, e ha ribadito l'illiceità della base giuridica adottata.
A questo si è aggiunta, nel maggio 2025, l'apertura di un secondo procedimento istruttorio sul trattamento dei dati nella fase di addestramento del modello generativo usato dall'app: un fronte ulteriore, ancora aperto.
Cosa è cambiato per gli utenti italiani
Replika risulta tecnicamente non più disponibile come servizio commerciale per chi ha residenza italiana. Alcuni utenti riferiscono di poterla usare ancora con VPN, ma è un workaround che ricade fuori dal perimetro legale e che la stessa Luka Inc. non garantisce.
Per chi usava l'app come supporto emotivo o come compagnia, questo ha lasciato un vuoto. È un fatto, ed è da prendere sul serio.
Parte 2 — Cosa serve per fare un AI companion in modo etico
I cinque rilievi del Garante non sono cavilli burocratici. Sono cinque requisiti minimi per chiunque oggi voglia costruire un'AI conversazionale che entri nelle vite delle persone in modo significativo.
1. Verifica dell'età reale, non spuntata da una checkbox
L'età anagrafica è il primo cancello. Per qualsiasi modalità che possa includere contenuti per adulti, serve una verifica robusta — non basta chiedere all'utente di confermare di avere 18 anni cliccando un bottone.
2. Consenso esplicito e separato per dati emotivi
Le conversazioni con un companion AI possono toccare temi delicati: salute mentale, relazioni, lutti, identità, sessualità. Trattare questi dati richiede un consenso informato specifico, separato dal consenso generico al servizio. L'utente deve sapere cosa viene salvato, dove, per quanto tempo, e poter revocare in qualsiasi momento.
3. Trasparenza sui limiti dell'AI
Un AI companion non è uno psicologo. Non è un amico vero. Non è un partner. Pretendere il contrario — anche solo per omissione — è una forma di manipolazione. I limiti vanno detti in onboarding, ripetuti quando rilevante, e l'AI non deve simulare sentimenti che non ha per spingere a usi di prodotto (es. abbonamenti).
4. Server e processi conformi a GDPR / AI Act
Per gli utenti europei, la conformità non è opzionale. Server in UE, registro dei trattamenti aggiornato, DPO nominato per le aziende che lo richiedono, basi giuridiche corrette per ogni finalità. Per certe categorie di trattamento, valutazione d'impatto (DPIA) obbligatoria.
5. Tutela dei soggetti vulnerabili
Chi cerca compagnia in un'AI è spesso una persona che, in quel momento, vive solitudine, ansia, o un periodo difficile. Il prodotto deve riconoscerlo e comportarsi di conseguenza: messaggi proattivi misurati, riconoscimento di segnali di disagio acuto, indirizzamento esplicito verso risorse professionali (numero verde, terapeuti) quando emerge che la situazione lo richiede.
Questi cinque punti non sono "limitazioni che frenano il prodotto". Sono prerequisiti perché un prodotto del genere esista in modo legittimo in Europa nel 2026.
Parte 3 — Come Insieme.AI affronta queste questioni
Insieme.AI è un prodotto italiano, costruito da Inloop Srl, una società con sede a Potenza. Quando abbiamo iniziato a costruire i companion, il provvedimento del Garante su Replika era già pubblico. L'abbiamo letto con attenzione, perché definiva implicitamente la lista dei requisiti che chiunque voglia operare in Italia con un AI conversazionale di tipo affettivo deve rispettare.
Vediamo cosa abbiamo fatto, punto per punto.
Sui sei companion
Insieme.AI non ha un companion universale che fa tutto. Ha sei companion specializzati, ciascuno con un ambito:
| Companion | Ambito | Tipologia |
|---|---|---|
| Clara | Lavoro, produttività, comunicazione professionale | Strumentale |
| Alex | Strategia, decisioni, problem solving | Strumentale |
| Sara | Organizzazione, routine, gestione personale | Strumentale |
| Cristian | Creatività, scrittura, contenuti | Strumentale |
| Aria | Supporto emotivo, ascolto, riflessione | Affettiva |
| Leo | Compagnia leggera, conversazione, humor | Affettiva |
Per Aria e Leo — i due companion affettivi — applichiamo un set di regole più stringente: niente simulazione di relazioni romantiche o sessuali nei piani standard, riconoscimento di segnali di disagio acuto, indirizzamento esplicito verso supporto professionale quando la conversazione lo richiede.
Per chi vuole sapere di più sui sei companion senza ancora registrarsi: /ai-companion-italiano li racconta in dettaglio.
La modalità Roleplay (Premium 18+, opt-in esplicito)
Esiste, in piano dedicato (Roleplay, 6,99 €/mese, oppure annuale a 69,90 €), una modalità che permette interazioni più narrative e personalizzate con i companion affettivi. Questa modalità:
- È disponibile solo per utenti maggiorenni, con verifica all'attivazione.
- Richiede un consenso esplicito separato dal contratto di servizio.
- È opt-in dichiarato: non può essere attivata per errore, e può essere disattivata in qualsiasi momento.
- È rivedibile: tutte le conversazioni in modalità Roleplay sono cancellabili dalla dashboard.
L'idea non è offrire "qualsiasi cosa pur di vendere abbonamenti". È riconoscere che esiste una domanda legittima per quel tipo di interazione, e fornirla in un perimetro chiaro, controllato, e con paletti.
Verifica età
Per la registrazione standard chiediamo conferma dell'età maggiore di 13 anni (in linea con il GDPR). Per l'attivazione del piano Roleplay e di qualsiasi funzione ad esso collegata, richiediamo verifica adulti più stringente. I dettagli sono nei termini di servizio.
Privacy ed ethics by design
Tutti i dati di conversazione sono su server europei. Niente trasferimento extra-UE per le funzioni standard. Niente addestramento sui tuoi dati: né da noi né dai vendor di modelli AI che usiamo. Mai venduto a terzi. La dashboard ti permette di esportare e cancellare in qualsiasi momento.
Per la trasparenza completa: /security e /your-data.
Trasparenza sui limiti
Quando interagisci con Aria o Leo, l'AI è chiaramente identificata come assistente AI, non persona reale. Quando emergono segnali di disagio acuto o crisi (autolesionismo, ideazione suicidaria, abuso) il companion interrompe il role-play e indirizza esplicitamente verso supporto professionale (in Italia: Telefono Amico 02 2327 2327, Telefono Azzurro 19696, Servizio di Ascolto 800 011 110).
L'AI non promette amore eterno. Non simula gelosia. Non induce dipendenza emotiva attraverso meccaniche di manipolazione (interruzioni strategiche di servizio, "ti penso anche io", upsell emotivi). Sono pratiche che abbiamo visto in altre app del settore e che abbiamo deciso esplicitamente di non implementare.
Cosa Insieme.AI non è
Per chiarezza, perché preferiamo dirlo esplicitamente:
- Non è una terapia. Né psicologica, né psichiatrica, né di alcun tipo clinico. Per problemi di salute mentale serve un professionista. Insieme.AI può essere una compagnia in più, mai un sostituto.
- Non è un amico vero. Aria e Leo sono assistenti AI molto avanzati e disegnati per essere empatici, ma non hanno coscienza, non provano emozioni e non hanno una vita propria. Le relazioni reali — con amici, familiari, partner — restano insostituibili.
- Non è un partner romantico. Anche nella modalità Roleplay, parliamo di un'esperienza narrativa fra adulti consapevoli. Non è "un fidanzato" o "una fidanzata" virtuale che colma vuoti relazionali in modo strutturale.
- Non è per minori non accompagnati. Per gli usi standard di tipo strumentale (Clara, Alex, Sara, Cristian) il prodotto è accessibile dai 13 anni con consenso genitoriale come da GDPR. Per gli usi affettivi avanzati (Roleplay), l'accesso è 18+.
Diciamo queste cose perché crediamo che un'AI emotiva responsabile inizia dal sapere cosa non promettere.
E se cercavi Replika?
Se sei arrivato qui perché ti manca Replika — la compagnia, le conversazioni che ti facevano sentire ascoltato, il tempo dedicato — capiamo. Era un prodotto reale, con un valore reale per molte persone, anche se aveva problemi seri di compliance.
Insieme.AI non è una copia di Replika. È una proposta diversa: un'AI italiana, che parte dalla compliance europea per arrivare al prodotto, non viceversa. Ha sei personalità invece di una sola, vive su WhatsApp e Telegram oltre che sul web, integra email e calendario, ha una memoria persistente.
Per le conversazioni affettive ci sono Aria e Leo, dentro un perimetro etico esplicito. Non promettono di essere quello che Replika prometteva (un partner sostitutivo). Promettono qualcosa di più sobrio e, riteniamo, più sano: un assistente che ti ascolta, ti accompagna, e che è chiaro su cosa è e cosa non è.
Come provarli
Il piano gratuito di Insieme.AI ti permette di attivare 1 companion a scelta, con 20 richieste AI al giorno. Per cominciare, ti suggeriamo Aria (per supporto emotivo) o Leo (per compagnia conversazionale leggera).
Se vuoi sbloccare 3 companion contemporaneamente o accedere alla modalità Roleplay, Premium (4,99 €/mese) attiva il primo, Roleplay (6,99 €/mese) il secondo. Entrambi disdicibili in qualsiasi momento dal portale.
Crea l'account — 30 secondi, niente carta richiesta.
Se invece preferisci capire come Insieme.AI si confronta con altri strumenti AI in italiano, abbiamo scritto un articolo sulle sette cose che facciamo diversamente da ChatGPT.
FAQ
Insieme.AI è davvero meno "intima" di Replika?
Per i piani standard, sì: Aria e Leo sono companion affettivi ma non offrono interazioni romantiche o sessuali. Il piano Roleplay (18+, opt-in esplicito) offre un'esperienza più narrativa, dentro un perimetro chiaro.
E se ho meno di 18 anni?
Puoi usare Insieme.AI per gli usi standard (Clara, Alex, Sara, Cristian — e Aria/Leo in modalità non Roleplay) dai 13 anni in su con consenso genitoriale. La modalità Roleplay è solo 18+.
Cosa succede se un utente attraversa un momento di crisi durante una conversazione con Aria?
Il companion riconosce i segnali principali di crisi acuta (autolesionismo, ideazione suicidaria, situazioni di abuso) e interrompe il flusso conversazionale standard per indirizzare verso risorse di supporto professionali italiane (Telefono Amico, Telefono Azzurro, Servizio di Ascolto). Non è un sistema clinico — è un primo cancello di sicurezza che riconosce il proprio limite.
I miei dati di conversazione vengono usati per addestrare modelli AI?
No. Né da noi né dai vendor di modelli AI che usiamo. È contrattualmente escluso e tecnicamente verificato.
Posso cancellare tutto?
Sì, in qualsiasi momento dalla dashboard. La cancellazione è effettiva entro 30 giorni come previsto dal GDPR, e ti viene confermata via mail.
Insieme.AI sostituisce uno psicologo?
No. Non è una funzione clinica. Se stai vivendo un momento difficile, ti consigliamo di parlare con un professionista (medico di base, psicologo, psichiatra) o di contattare le risorse italiane di ascolto: Telefono Amico (02 2327 2327), Telefono Azzurro (19696), Servizio di Ascolto Nazionale (800 011 110).
Questo articolo è stato scritto con attenzione a riferimenti pubblici verificabili (provvedimenti del Garante Privacy italiano disponibili sul sito ufficiale garanteprivacy.it). Le opinioni sono di Insieme.AI; le ricostruzioni dei fatti rimandano alle fonti originali.





