Le grandi aziende tech per addestrare le proprie intelligenze artificiali utilizzano la tecnica dello scraping, ovvero la raccolta indifferenziata e indiscriminata di informazioni dal web. Da oggi, grazie ad una nuova regola che è possibile impostare all’interno delle opzioni del proprio sito web, chi non vorrà dare in pasto all’AI le informazioni sul proprio sito potrà scegliere liberamente di farlo.
Maggior controllo sulle AI: il blocco arriva tramite robots.txt
Non tutti sono favorevoli al proliferare delle intelligenze artificiali o della raccolta di dati dal proprio sito web, per questo motivo Google ha pubblicato una nuova opzione da inserire nel file robots.txt del proprio spazio su internet per impedire che le AI come Bard possano essere addestrate utilizzando le informazioni del proprio sito.
Per bloccare l’addestramento, quindi, è necessario inserire il parametro “Disallow” per “User-Agent: Google-Extended” nel file robots.txt: in modo l’intelligenza artificiale di Google Bard (e tutte quelle future sviluppate da Big G) non potranno in alcun modo visitare ed ottenere informazioni dal proprio sito web.
Avete già dato un’occhiata al nostro approfondimento sulle migliori AI per ogni esigenza? Lo trovate qui!
⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.