Da quando l’intelligenza artificiale è diventato l’argomento clou nella discussione tecnologica, l’Europa si è mossa in prima linea per delineare quelle che saranno le leggi dell’AI Act. L’obiettivo è creare un mercato dove l’IA venga utilizzata in maniera “sicura e trasparente”, ma per farlo saranno necessarie delle norme che ne regolamentino l’utilizzo. Dopo avervene parlato negli scorsi mesi, siamo finalmente giunti alla bozza finale utile affinché i governi europei possano capire come muoversi.
Pubblicata la bozza finale dell’AI Act dell’Europa: ecco come cambierà il mercato IA
Di tutte le zone del mondo, l’Europa si sta dimostrando particolarmente attenta e suscettibile ai rischi dell’intelligenza artificiale: lo abbiamo visto prima con ChatGPT in Italia e adesso con Google Bard, il cui lancio europeo è stato nuovamente rimandato. Con 499 voti a favore su 620 (cioè l’80%), la bozza finale dell’AI Act prevede un divieto assoluto per l’utilizzo di qualsiasi tecnologia IA in contesti quali sorveglianza biometrica, riconoscimento delle emozioni, polizia predittiva e creazione di database tramite riconoscimento facciale. Il motivo è un livello di rischio definito “inaccettabile” per la sicurezza delle persone, specialmente quando si parla di punteggio sociale, cioè la classificazione dei cittadini in base a come sono fatti e come si comportano.
Ci sono poi le cosiddette intelligente artificiali ad alto rischio, cioè quelle che possono comportare danni a salute, sicurezza, ambiente e diritti fondamentali, oltre che quello in grado di influenzare le elezioni e raccomandare contenuti social (per piattaforme oltre i 45 milioni di utenti). Si parla anche di IA generativa, ChatGPT in primis ma non solo, che dovranno dichiarare se un contenuto è generato tramite IA e in che modo, contrastando rischi come quello dei deepfake e delle fake news in generale, oltre che chiarire quali dati protetti da diritto d’autore siano stati utilizzati per l’addestramento.