
La traduzione automatica su X ha abbattuto i confini della disinformazione
I contenuti diventano virali a prescindere dalla lingua in cui sono stati pubblicati, favorendo la circolazione di notizie false
Martedì 7 aprile, il responsabile del prodotto di X Nikita Bier ha annunciato l’arrivo della traduzione automatica per tutti i contenuti pubblicati sulla piattaforma nel mondo. L’obiettivo dell’azienda guidata da Elon Musk è dare ai post in qualsiasi lingua una portata globale. Bier ha precisato che le traduzioni sono elaborate da Grok, l’IA di X.
Gli utenti su X in diversi Paesi hanno reagito alla notizia in vari modi. Alcuni hanno lodato la nuova funzione perché permetterebbe di avvicinare le persone che vivono in varie parti del mondo. Altri invece hanno espresso un senso di confusione. «La traduzione automatica mi sta facendo venire mal di testa, non capisco chi sia italiano e chi no», ha scritto ad esempio un utente italiano. Altri ancora hanno ironizzato sul fatto che questa funzione stia esasperando il clima già teso e tossico della piattaforma, in cui ora, come afferma in inglese un altro utente, si potrà litigare «in 47 lingue diverse».
X since automatic translation was added: pic.twitter.com/xDdzua2jXX
— The Best (@Thebestfigen) April 16, 2026
L’aggiornamento di fatto automatizza una funzione già presente su X, che attraverso il comando “Traduci post” (un tasto posizionato sopra il claim) permetteva di vedere il post nella propria lingua. La novità riguarda sia i post che compaiono nei “Per te”, il feed che aggrega contenuti da account seguiti e non seguiti e li riordina seguendo le regole dell’algoritmo interno, sia i contenuti presenti nel feed “Following”, che riunisce tutti i post pubblicati dagli account seguiti. Come ha spiegato Bier nel suo post, se l’utente preferisce leggere il post nella lingua originale, può «sempre disattivare la traduzione automatica toccando l’icona dell’ingranaggio». Altrimenti, i post verranno mostrati nella lingua scelta dall’utente nella sezione “Accessibilità, aspetto e lingue” delle Impostazioni del proprio account.
Mancano però le informazioni relative a se e cosa sia cambiato nell’architettura interna di X dopo l’arrivo di questa funzione. Gli ultimi aggiornamenti all’algoritmo di raccomandazione – che stabilisce le regole relative a quali contenuti appaiano agli utenti – risalgono a 7 mesi fa, come si può osservare dalla pagina disponibile sul servizio di hosting Github. Anche per quanto riguarda le istruzioni a Grok (l’IA incaricata della traduzione), gli ultimi aggiornamenti disponibili sono di 5 mesi fa, prima dell’annuncio da parte di Bier sulla nuova funzione.
Finora il cambiamento più evidente è stato osservato nel feed “Per te”, che ha iniziato a popolarsi di post tradotti automaticamente e diventati virali a livello internazionale, a prescindere dalla lingua in cui sono stati originariamente pubblicati. La funzione ha inoltre facilitato l’interazione tra gli utenti, che ora possono discutere nella propria lingua madre senza conoscere quella dei propri interlocutori.

Il rischio di alimentare la disinformazione
In questo nuovo X “globale”, quindi, gli utenti sembrano essere più esposti a contenuti che altrimenti non avrebbero mai visto prima dell’arrivo della traduzione automatica. Un elemento che pone dei seri rischi dal punto di vista della disinformazione: adesso, infatti, i contenuti ottengono visibilità a prescindere dalla lingua usata dall’utente, facendo sì che qualsiasi post, anche quelli contenenti notizie false e fuorvianti o di propaganda, superi i confini linguistici.
Ad esempio, il 21 aprile è stato pubblicato in giapponese un post di propaganda anti-immigrazione sulla Polonia, poi commentato lo stesso giorno in polacco da vari utenti. Il 24 aprile, invece, è circolato un post originariamente pubblicato in urdu, lingua ufficiale del Pakistan, che punta a dipingere Meloni come un’icona anti-USA, un filone di disinformazione internazionale che, come abbiamo analizzato su Facta, esagera o inventa dichiarazioni della presidente del Consiglio italiano. Il post è stato poi commentato da utenti in italiano e in inglese. Uno scambio che non sarebbe stato così facile se non fosse stato per la traduzione automatica.


In altri casi, l’ironia esaspera le barriere linguistiche, e notizie false pubblicate con intento satirico vengono prese per vere al di fuori del loro contesto linguistico originario. Ad esempio, a metà aprile 2026 è circolata in inglese la notizia che il calciatore del Manchester United Matthijs de Ligt non avrebbe mai più giocato a calcio per via di un intervento di riassegnazione di genere. In realtà, de Ligt è temporaneamente impossibilitato a giocare per via di un infortunio alla schiena per il quale ha avviato un percorso di riabilitazione. Nonostante il post fosse stato inizialmente pubblicato in inglese in senso ironico per prendere in giro il calciatore con un insulto transfobico, in italiano alcuni utenti hanno preso la notizia per vera, creando un vero e proprio caso di disinformazione.

I pregiudizi di Grok
Tutto questo avviene nel contesto di un social network in cui già dilagano disinformazione, propaganda politica ed estremismo. In precedenza svariate inchieste giornalistiche hanno dimostrato che Elon Musk avrebbe apportato dei veri e propri cambiamenti strutturali all’algoritmo di X per favorire la circolazione dei suoi post e quelli degli utenti di estrema destra. Il risultato è che il social network ha un’inclinazione verso questi ultimi. Una ricerca condotta su un caso studio di 4.965 utenti e pubblicata su Nature a febbraio 2026 ha dimostrato che l’algoritmo promuove i contenuti conservatori e penalizza i post dei media tradizionali.
Proprio sui dati di questo social network è stato allenato il modello IA di X, Grok, che ora viene usato per tradurre i post di tutti gli utenti del mondo. Fin dal suo lancio, il modello Grok è spesso finito sui giornali per aver contribuito a diffondere teorie del complotto estremiste e informazioni false e infondate, sostenendo ad esempio che lo Zyklon B – il prodotto letale utilizzato nelle camere a gas dei campi di sterminio della Germania nazista – era in realtà impiegato «per la disinfezione (…) contro il tifo». Non si tratta di un caso isolato, in quanto il modello è stato fin da subito in grado di creare immagini e contenuti razzisti, e ad inizio 2026 ha contribuito alla diffusione di immagini intime di donne e minori.
Già in un’intervista del 2023 a Fox News, prima del lancio di Grok, Musk si era detto preoccupato che ChatGPT venisse «educato a essere politicamente corretto», e si era proposto di «creare un’alternativa» che all’epoca chiamava “TruthGPT” (in italiano, “VeritàGPT”). Peccato che la diffusione della verità non sembra essere una dote di Grok, come avevamo dimostrato a più riprese su Facta evidenziando che il chatbot aveva diffuso informazioni false durante le proteste di Los Angeles di giugno 2025 e la guerra dei 12 giorni tra Iran e Israele dello stesso mese.
Nonostante ciò, è proprio a Grok che è stata affidata la traduzione automatica di tutti i post pubblicati su X, che vengono proposti nel feed di ciascun utente senza alcun tipo di revisione. Un grosso rischio se si pensa che anche altri sistemi di traduzione, apparentemente ”neutrali” come Google Translate erano in passato finiti sotto accusa per via di pregiudizi razzisti o sessisti (il neutrale inglese “the president” tradotto come maschile in italiano, “il presidente”) insiti nella traduzione.
Gli errori delle traduzioni automatiche
Oltre ai pregiudizi estremisti e al rischio di disinformazione legato a Grok, c’è da tenere anche in considerazione il fatto che la traduzione automatica e generata con intelligenza artificiale non è ancora affidabile come quella umana, soprattutto nel contesto di internet in cui spesso gli utenti utilizzano un linguaggio gergale, fino ad arrivare all’algospeak volto a eludere i meccanismi di moderazione delle piattaforme.
Gli esempi non mancano: Japan Times riporta che a inizio aprile 2026, in Giappone, gli utenti erano rimasti perplessi quando Grok aveva tradotto in inglese il nome della prima ministra Sanae Takaichi come Yoshihiko Noda, un ex leader dimessosi nel 2012. Sempre nella prima metà di aprile, in Uganda, per colpa di un errore dell’IA su X si era iniziata a diffondere la notizia infondata secondo cui il principe David Kintu Wasajja fosse morto, come raccontato da Pulse Uganda.
La traduzione automatica, o in inglese machine translation, può dare quindi vita a dei veri e propri casi di disinformazione, come osservato nel corso degli anni dalla ricercatrice Khetam Al Sharou, che lavora sulla Machine translation all’Imperial College London. Secondo quanto spiegato da Al Sharou nel suo studio sulle implicazioni degli errori della traduzione, il problema è che le piattaforme social forniscono agli utenti gli output della traduzione automatica senza che questi vengano controllati da un essere umano.
In passato, errori della traduzione automatica dei post su Facebook avevano portato a una completa distorsione del significato originale, portando anche a gravi incidenti: ad esempio, nel 2017, un uomo palestinese era stato arrestato ingiustamente dalla polizia israeliana perché aveva pubblicato sul social una foto di sé stesso appoggiato a un bulldozer accompagnata dalla parola “buongiorno” in arabo; il sistema di traduzione automatica sul social, però, aveva tradotto dall’arabo con “fate loro del male” in inglese e “attaccateli” in ebraico. Più recentemente, nel 2020, il nome del presidente cinese Xi Jinping su Facebook era stato tradotto automaticamente dal birmano all’inglese come “Mr. Shithole” (in italiano, “Mr. Merdoso”).
Da questi episodi sono passati degli anni e i sistemi di traduzione automatica sono migliorati, ma ciò non significa che siano esenti da errori, soprattutto quando si tratta di traduzioni da o in lingue “sottorappresentate”, ossia con una bassa quantità di dati digitali disponibili, e per le quali i sistemi IA risultano quindi meno “allenati”. Rimane da capire come lo spazio informativo di X, già inquinato dall’estremismo e dall’informazione, verrà impattato dalla traduzione automatica, e se Grok finirà nuovamente al centro di nuovi casi di disinformazione internazionale.
- Ursula von der Leyen non vuole mettere delle maschere alle mucche contro il cambiamento climaticoUrsula von der Leyen non vuole mettere delle maschere alle mucche contro il cambiamento climatico
- Non è vero che il presidente argentino Milei ha ordinato di cancellare tutti i simboli comunisti nel PaeseNon è vero che il presidente argentino Milei ha ordinato di cancellare tutti i simboli comunisti nel Paese
