Di fronte alla crescita esponenziale dei video sintetici, il colosso cinese dei social media TikTok introduce nuovi strumenti per garantire agli utenti maggiore controllo sul proprio feed, mentre infuria il dibattito sulla moderazione automatizzata.
Meno IA su TikTok: era ora?

TikTok ha annunciato un cambiamento nella gestione dei contenuti sulla sua piattaforma, offrendo agli utenti il potere decisionale sulla quantità di materiale generato dall’Intelligenza Artificiale (IA) che appare nei loro feed. La stessa azienda ha rivelato di ospitare ormai oltre 1,3 miliardi di video generati dall’IA nei suoi archivi.
Questa nuova funzionalità, attualmente in fase di test e prevista per un rilascio globale nelle prossime settimane, risponde direttamente alla proliferazione di strumenti di generazione video sempre più sofisticati, come Sora di OpenAI e Veo 3 di Google.
Sebbene l’innovazione tecnologica abbia aperto nuove frontiere creative, ha anche saturato il web di quello che viene definito “AI slop”: contenuti di bassa qualità, prodotti in serie, spesso surreali o privi di senso logico. Un’inchiesta del The Guardian ha rivelato ad agosto che quasi uno su dieci dei canali YouTube in più rapida crescita a livello globale trasmette esclusivamente video generati dall’IA.
Come funziona il filtro IA di TikTok?
Jade Nester, direttore europeo delle politiche pubbliche per la sicurezza e la privacy di TikTok, ha commentato la novità durante il forum annuale sulla fiducia e la sicurezza tenutosi a Dublino: “Sappiamo dalla nostra community che molte persone apprezzano i contenuti realizzati con strumenti di IA, dall’arte digitale agli spiegoni scientifici, ma vogliamo dare alle persone il potere di vederne di più o di meno, in base alle loro preferenze“.
Operativamente, gli utenti potranno intervenire sulle impostazioni tramite la funzione “gestisci argomenti” (manage topic) dell’app, selezionando la voce “contenuti generati dall’IA”. Questo permetterà di ridurre o aumentare la frequenza di tali video nel feed “Per Te”, una funzionalità di personalizzazione che TikTok applica già ad altre categorie come attualità, moda, bellezza e danza.
Nonostante la cifra imponente di video etichettati come IA, l’azienda sottolinea che questi rappresentano ancora una frazione minoritaria dell’inventario totale, considerando che ogni giorno vengono caricati sulla piattaforma oltre 100 milioni di nuovi contenuti.
Trasparenza, etichette e sicurezza
Oltre ai filtri utente, TikTok sta rafforzando le misure di trasparenza. Le linee guida attuali richiedono già ai creatori di etichettare i contenuti IA “realistici”, vietando severamente i deepfake dannosi di figure pubbliche o eventi di crisi. Qualsiasi video realistico non etichettato rischia la rimozione immediata.
Per combattere i tentativi di evasione delle regole, l’app applicherà automaticamente una filigrana (watermark) “AI-made” ai contenuti creati con i propri strumenti o identificati tramite il protocollo C2PA, un’iniziativa industriale volta a certificare la provenienza digitale dei media.
Parallelamente, TikTok ha lanciato un fondo per l’alfabetizzazione sull’IA da 2 milioni di dollari, collaborando con organizzazioni no-profit come Girls Who Code per educare il pubblico a un utilizzo responsabile di queste tecnologie.
Il paradosso della moderazione: l’IA controlla l’IA
Mentre TikTok offre agli utenti strumenti per gestire l’IA, l’azienda stessa si affida sempre più agli algoritmi per la gestione interna, scatenando polemiche. È infatti in corso un piano di ristrutturazione che prevede il taglio di 439 posti di lavoro nel team “trust and safety” di Londra, con i sindacati e gli esperti di sicurezza online preoccupati dalla sostituzione dei moderatori umani con sistemi automatizzati.
Brie Pegum, responsabile globale del programma di fiducia e sicurezza di TikTok, ha difeso la strategia aziendale, sostenendo che l’IA è fondamentale per proteggere il benessere dei dipendenti. Secondo Pegum, l’intervento dei sistemi automatizzati ha portato a una diminuzione del 76% dei contenuti scioccanti e grafici visionati dai moderatori umani nell’ultimo anno.
“Pensiamo che sia essenziale bilanciare esseri umani e tecnologia per mantenere la piattaforma sicura“, ha dichiarato Pegum. “Gli umani faranno parte di quel processo, ma riteniamo anche molto importante ridurre l’esposizione a contenuti dannosi il più rapidamente possibile, ed è qui che il supporto delle macchine ci sta aiutando davvero a lavorare in velocità“.








