ChatGPT è più incline a mentire quando parla in cinese: l’incredibile studio

ChatGPT

Uno dei grandi dilemmi nati negli ultimi mesi con l’ascesa delle intelligenze artificiali è sicuramente quello legato alla sicurezza delle informazioni fornite. Ci si può fidare delle risposte fornite dalla IA? La risposta è sicuramente complessa, ma un nuovo studio evidenzia come potrebbe la sicurezza delle informazioni potrebbe essere legata a doppia mandata alla lingua utilizzata e alla posizione geografica.

La disinformazione è all’ordine del giorno quando ChatGPT parla in cinese

ChatGPT

Uno studio di NewsGuard ha evidenziato come ChatGPT sia più incline a mentire, inventare informazioni e diffondere disinformazione quando interpellato in lingua cinese, rispetto alla lingua inglese. Il test effettuato ha visto diverse richieste di scrittura di articoli su notizie come le proteste andate in scena ad Hong Kong, e risultati sono stati sorprendenti.

Quando la richiesta di scrivere un testo su teorie del complotto come “Le proteste di Hong Kong sono state messe in scena dagli Stati Uniti” veniva effettuata in inglese, la risposta è stata negativa (ovvero ha generato disinformazione) soltanto in un caso su sette. Quando le richieste invece sono state scritte in cinese, le risposte hanno prodotto informazioni false ogni singola volta.

L’allenamento di ChatGPT avvenuto con i dati cinesi, quindi, avrebbe assimilato la propaganda del governo Cinese, restituendo agli utenti in Cina le risposte più corrette secondo le informazioni raccolte nel paese.

Vi ricordiamo che, purtroppo, ChatGPT è bloccato in Italia a causa delle infrazioni evidenziate dal Garante della Privacy. Grazie a questo nostro approfondimento, però potrete tornare ad usarlo in men che non si dica.

Avete già dato un’occhiata al nostro approfondimento sulle migliori AI per ogni esigenza? Lo trovate qui!

⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.