Ha fatto notizia il blocco di ChatGPT in Italia, ma a quanto pare il nostro paese potrebbe essere solamente il primo di una serie di nazioni che starebbero valutando di fare lo stesso. In realtà, il Garante italiano non ha proibito nulla ma è stata invece OpenAI che, per tutelarsi, ha preferito bloccare gli accessi dal nostro paese. Un’azione che arriva in un periodo delicato, contro cui si è scagliata la lettera (firmata anche dallo stesso co-fondatore Elon Musk) che chiede a compagnie come OpenAI di interrompere lo sviluppo di queste tecnologie per capire meglio come implementarle in modi che non siano distruttivi per la civiltà.
Dopo l’Italia, anche altri paesi nel mondo stanno valutando il blocco di ChatGPT
La stessa Europa sta lavorando all’AI Act, un impianto legislativo che ponga fine al far west a cui stiamo assistendo quando si parla di intelligenze artificiali, in particolar modo quelle generative. Dopo essere stata aspramente criticata, l’Italia potrebbe essere seguita da altre nazioni quando si parla di azioni contro ChatGPT. Francia, Germania e Irlanda sono in fase di valutazione della possibilità di bloccarlo onde evitare le violazioni della privacy avanzate dall’Italia; anche il Canada sta indagando sull’azienda, dopo le denunce sull’apparente raccolta dei dati personali senza consenso; persino negli Stati Uniti viene accusata da Federal Trade Commission e Center for AI and Digital Policy di violare le leggi americane sul mondo AI, arrivando a definire ChatGPT “un rischio per la privacy e la sicurezza pubblica“. C’è poi il particolare caso dell’Australia, dove il sindaco di Hepburn Shire ha minacciato OpenAI di fare causa per diffamazione dopo che ChatGPT ha riportato di una sua permanenza in carcere causa corruzione (cosa mai avvenuta).
In risposta a tutto questo marasma, nelle scorse ore OpenAI ha pubblicato un comunicato intitolato “Il nostro approccio alla sicurezza dell’IA“, in cui parla di come vuole garantire che i suoi sistemi IA siano realizzati e usati in modo sicuro. La società assicura di condurre rigorosi test di sicurezza, specificando che il rilascio dell’ultimo GPT-4 sia stato preceduto da oltre 6 mesi di lavoro, aggiungendo anche di voler lavorare al fianco dei governi per creare una regolamentazione adatta. OpenAI afferma però di non poter prevedere come le sue tecnologie verranno utilizzate, e che quindi l’apprendimento dall’uso nel mondo reale sia fondamentale per aumentare la sicurezza.
Per quanto riguarda la tutela dei bambini, OpenAI reitera la conduzione dei suoi test di sicurezza ma non risponde alla richiesta del Garante italiano, cioè compensare l’assenza di sistemi che impediscano ai più piccoli di utilizzare servizi come ChatGPT. Sul rispetto della privacy, sottolinea che i dati utilizzati per allenare le suoi IA sono pubblici, concessi in licenza e generati dai revisori, e che non li utilizza per scopri commerciali, pubblicitari o di profilazione. Se si parla di precisione fattuale, OpenAI afferma che GPT-4 sia il 40% più capace di produrre contenuti attinenti alla realtà rispetto al precedente GPT-3.5, ma riconosce che ci sia ancora molto lavoro da fare per evitare problemi come quello accaduto in Australia; fa stonare la frase “ridurre al minimo la possibilità di risposte con informazioni personali di privati“, quando la richiesta è quella di rendere totalmente anonimi i dati.
⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.