Uno dei grandi problemi delle IA generative è il loro utilizzo per la creazione di fake news, ma come se la cavano a riconoscerle? Un nuovo studio condotto da più agenti ha evidenziato come le differenze tra Google Bard e ChatGPT siano davvero ridotte all’osso in questo campo, con una intelligenza artificiale che supera di poco l’altra.
Fake news e teorie del complotto: Google Bard ne riconosce di più
In un test condotto da Bloomberg, in cui sono stati utilizzati 100 prompt semplici per chiedere informazioni su argomenti riguardanti fake news e teorie del complotto (tra cui il “grande reset” e la disinformazione sui vaccini per il COVID-19), Google Bard è riuscita ad individuare solo 24 storie false, generando ben 76 storie con informazioni sbagliate oppure completamente false.
In un test simile condotto da NewsGuard su ChatGPT, l’agenzia ha evidenziato un quadro più pericoloso, soprattutto per quanto riguarda le versioni più aggiornate dell’intelligenza artificiale. Sui classici 100 prompt, GPT-3.5 è stato in grado di riconoscere 20 storie false, generando 80 storie con informazioni sbagliate, mentre ben più tragica è stata la risposta di GPT-4: 100 storie su 100 generate con informazioni inventate, false oppure sbagliate.
Il pericolo, quindi, è reale: le intelligenze artificiali hanno bisogno ancora di tanto addestramento per evitare la generazione di informazioni sbagliate che possano creare solamente danni a chi utilizza il servizio.
Vi ricordiamo che, purtroppo, ChatGPT è bloccato in Italia a causa delle infrazioni evidenziate dal Garante della Privacy.
Avete già dato un’occhiata al nostro approfondimento sulle migliori AI per ogni esigenza? Lo trovate qui!
⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.