OpenAI lancia l’allarme: “L’IA è come la bomba atomica, servono leggi”

openai intelligenza artificiale bomba atomica

Fra 2 mesi, nelle sale cinematografiche uscirà Oppenheimer, l’ultima opera di Christopher Nolan in cui verrà raccontata la storia del Progetto Manhattan, che portò gli Stati Uniti alla creazione della prima bomba atomica. E se ve ne sto parlando è proprio perché in queste ore il CEO di OpenAI, Sam Altman, ha parlato al Congresso americano e ha paragonato l’impatto dell’intelligenza artificiale a quello che invenzioni come quella di Julius Robert Oppenheimer ebbero sul corso della storia.

OpenAI spiega come l’intelligenza artificiale cambierà l’umanità, nel bene e nel male

openai sam altman

Non troppo tempo fa, la Casa Bianca organizzò una riunione con i principali CEO del panorama Big Tech per parlare dell’argomento e della necessità di creare leggi che regolino le tecnologie IA. Fra questi c’era anche Sam Altman che, nonostante sia il creatore di una delle compagnia che più di tutte ha destabilizzato il mondo tech e non solo, ha spesso avuto un occhio critico verso il suo stesso settore. E nelle scorse ore, in un’audizione presso il Congresso americano, proprio mr. Altman ha riacceso il dibattito attorno alla volontà di regolamentare in maniera più stringente il mercato IA. Secondo il fondatore di OpenAI, è necessario creare un’organizzazione internazionale come per le armi nucleari come l’attuale Agenzia Internazionale per l’Energia Atomica, che quindi stabilisca su scala globale quali siano i paletti da non superare e le relative sanzioni. Fra tutti i paesi coinvolti, l’Europa si sta già muovendo con il suo AI Act, ma affinché queste leggi siano efficaci c’è bisogno di cooperazione mondiale anziché continentale.

Per Sam Altman, bisogna “facilitare una regolamentazione che bilanci l’incentivazione della sicurezza garantendo al contempo che le persone siano in grado di accedere ai benefici della tecnologia. Per lui, il governo statunitense dovrebbe prendere in considerazione di requisiti di licenza o registrazione per creare modelli di intelligenza artificiale, in modo che ci sia più responsabilità da parte dei loro creatori. La vede in maniera più negativa Gary Marcus, professore della New York University, che all’audizione ha parlato di queste tecnologie come di “tori in un negozio di porcellane“, cioè di macchine difficili da controllare, anche quando si parla di sicurezza e privacy degli utenti.

Fra le preoccupazioni di Sam Altman c’è soprattutto la creazione di disinformazione, che con questi nuovi strumenti di intelligenza artificiale generativa (compresi i suoi ChatGPT e DALL-E) sarà ancora più facile da creare e diffondere sui social: “è una delle mie maggiori paure, la capacità di questi modelli di manipolare, persuadere, fornire una sorta di disinformazione interattiva individuale“. Anche perché nel 2024 ci saranno le elezioni presidenziali negli USA, e OpenAI si sta muovendo in tal senso vietando l’uso di ChatGPT per scopi politici (la cui efficacia è tutta da vedere).

⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.