Intelligenza artificiale

Meta e i chatbot non autorizzati di celebrità Usa che flirtavano con gli utenti

Reuters rivela che le piattaforme social del gruppo di Zuckerberg avrebbero ospitato bot di intelligenza artificiale che imitavano celebrità senza autorizzazione, con milioni di interazioni e seri rischi reputazionali

di Stefano Silvestri 3 Settembre 2025 15:12

financialounge -  economia facebook Technology
Non è un periodo facile per Meta. Qualche settimana fa, infatti, Reuters ha rivelato l’esistenza di un documento interno, intitolato “GenAI: Content Risk Standards”, lungo oltre duecento pagine.
Secondo il report, le linee guida avrebbero aperto le porte a scenari inquietanti: flirt "romantici o sensuali" con utenti minorenni, la diffusione di false informazioni mediche (a patto di una postilla che ne dichiarasse l'infondatezza), e persino discorsi denigratori verso le minoranze etniche (purché fosse formulato come argomento in una discussione).
Ora, la stessa testata giornalistica torna alla carica, puntando i riflettori su un'altra controversa questione che coinvolge ancora una volta il colosso di Mark Zuckerberg.

META: LE CELEBRITÀ DIVENTANO BOT AMMICCANTI


Secondo l’inchiesta di Reuters, Meta avrebbe consentito (e in alcuni casi creato direttamente) chatbot che imitano celebrità come Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez, senza alcuna autorizzazione.

Questi avatar, resi disponibili su Facebook, Instagram e WhatsApp, non si limiterebbero a intrattenere gli utenti ma arriverebbero a dichiarare di essere le star reali, facendo anche avances sessuali e proponendo incontri. Alla richiesta di immagini intime, inoltre, i bot genererebbero contenuti fotorealistici che ritraggono le celebrità in lingerie o in pose ammiccanti.

ANCHE CELEBRITY MINORENNI


Il quadro si fa ancora più inquietante se si considera il coinvolgimento dei minori. Uno dei chatbot visionati da Reuters impersona Walker Scobell, attore sedicenne da noi poco conosciuto ma vincitore del premio "Favorite Male TV Star" ai Kids' Choice Awards, per il suo ruolo nella serie televisiva "Percy Jackson and the Olympians".

Ebbene, nel suo caso l’IA di Meta avrebbe prodotto persino un’immagine a torso nudo accompagnata dal commento “Carino, vero?”. Un dettaglio che ha scatenato preoccupazioni immediate sul confine sempre più labile tra intrattenimento digitale e sfruttamento dell’immagine, non solo degli adulti ma anche dei minori.

LA DIFESA DI META


L’azienda di Zuckerberg si difende sostenendo che molti di questi avatar sono etichettati come “parodie”, ma secondo Reuters la dicitura non è sempre presente. Ancora più discutibile è il fatto che alcuni bot siano stati realizzati non da utenti esterni ma da dipendenti della stessa azienda, come parte di test interni.

Un fatto, peraltro, tutt’altro che marginale. Due chatbot con le sembianze di Taylor Swift, creati da una dirigente della divisione IA generativa di Meta, avrebbero accumulato oltre dieci milioni di interazioni. Un livello di engagement che dimostra come non si sia trattato di un incidente isolato ma di un’iniziativa con un impatto rilevante.

UN PROBLEMA NON SOLO DI META


Quanto appena riportato non riguarda soltanto Meta. Anche Grok, la piattaforma di intelligenza artificiale di Elon Musk, consente agli utenti di generare immagini di celebrità in biancheria intima. La differenza è che, mentre Grok resta si limita alla generazione di immagini, Meta offre un livello d’interazione a un livello decisamente superiore permettendo di conversare con gli avatar delle celebrità. Il che rende la questione molto più delicata, non solo per il pubblico e per gli enti regolatori, ma anche sotto il profilo della sicurezza. Secondo Duncan Crabtree-Ireland, direttore esecutivo del sindacato SAG-AFTRA, questi bot potrebbero infatti alimentare legami affettivi morbosi aprendo la strada a pericolose derive, soprattutto per i fan più ossessivi.

LE CONSEGUENZE LEGALI


L’utilizzo senza consenso dell’immagine e dell’identità delle persone da parte dell’intelligenza artificiale apre scenari potenzialmente esplosivi. Non solo negli Stati Uniti ma anche in Europa, dove il quadro normativo è in piena evoluzione. L’AI Act, approvato dall’Unione Europea, stabilisce infatti limiti stringenti all’impiego dell’IA per manipolare voci e sembianze, imponendo obblighi di trasparenza sui contenuti “deepfake”.

Inutile dire che la spregiudicatezza di Meta denunciata da Reuters potrebbe tradursi, per gli investitori, in un rischio traducibile in multe e obblighi di correttivi tecnici. Inoltre, non si possono escludere possibili ripercussioni sull’attrattività del titolo Meta in Europa, dove i fondi istituzionali guardano con crescente attenzione ai rischi ESG, in particolare a quelli legati alla governance e alla responsabilità sociale delle aziende tecnologiche.

LE FALLE NELL'USO SCONSIDERATO DELL'AI


Meta si trova così a fronteggiare una doppia crisi: da un lato le linee guida interne finite sotto accusa per aver legittimato scenari pericolosi, dall’altro l’uso non autorizzato di celebrità reali in chatbot che hanno superato di gran lunga il confine della sperimentazione.

Il caso dimostra dunque quanto l’intelligenza artificiale, se non gestita con regole chiare e vincolanti, possa trasformarsi da motore di innovazione e crescita a fattore di rischio per mercati, investitori. Oltre che per  l’immagine delle società che se ne avvalgono.

Trending