Se ChatGPT funziona così bene è grazie allo sfruttamento in Africa

chatgpt sfruttamento africa

Ebbene sì, anche tecnologie che nascono per essere quanto più automatizzate possibile come l’intelligenza artificiale necessitano dell’intervento umano per reggersi in piedi. Di ChatGPT si parla in lungo e largo, e se da un lato le discussioni vertono attorno alle sue enormi capacità, dall’altro evidenziano le falle di un sistema altamente energivoro, costosissimo e che a quanto pare si fonda sullo sfruttamento dei paesi emergenti e delle condizioni lavorative delle loro popolazioni.

Un’inchiesta svela i problemi strutturali di una tecnologia come GPT e dell’impatto psicologico sui suoi lavoratori

ChatGPT

La sigla “GPT” si traduce in “Trasformatore Generativo Pre-addestrato”, e il pre-addestramento di GPT-3 fu composto da due fasi: la prima in cui gli vennero dati in pasto 750 GB di dati testuali presi dalla rete e la seconda, in cui persone in carne e ossa filtrarono via contenuti controversi e illegali che inevitabilmente rientrano in quei gigabyte di dati. È grazie al pre-addestramento se GPT e servizi annessi, compresi ChatGPT e Bing, restituiscono risposte pulite, cercando di non soddisfano le richieste di chi vorrebbe tirare la corda; è comunque un sistema imperfetto, e lo dimostrano gli screenshot che girano in rete di chatbot in preda alle allucinazioni e in grado di generare contenuti pericolosi, illegali e di finire vittime di censura.

L’inchiesta del Time ha quindi analizzato documenti, buste paga e intervistato lavoratori in merito all’operato di Sama, azienda di outsourcing di San Francisco focalizzata sull’allenamento dei sistemi di intelligenza artificiale per realtà quali Google, Meta e Microsoft, assoldata da OpenAI per compiere la seconda fase del pre-addestramento. Con “outsourcing” si indica l’affidamento degli incarichi a lavoratori esterni, solitamente in paesi emergenti come in questo caso l’Africa, ma anche India, Sud-est asiatico e Sud America; Sama si fregia di essere un’azienda “per un’IA etica” e di aver fatto uscire dalla povertà oltre 50.000 persone in difficoltà.

L’obiettivo di OpenAI era quello di alimentare l’IA con esempi di contenuti controversi e illegali per farle imparare a riconoscerli ed eliminarli prima che arrivino all’utente finale. Ne nacquero tre contratti con Sama da 200.000$ per l’etichettature di contenuti riguardanti abusi sessuali, incitamento all’odio e violenza, con la creazione di team da 12 persone per ognuna di queste categorie, incaricati di leggere ed etichettare 150/200 parti testuali da 100/1.000 parole in turni da 9 ore. OpenAI ha confermato la collaborazione con Sama per la costruzione del sistema per la rilevazione e la rimozione di contenuti tossici, un obiettivo virtuoso ma sulla pelle di lavoratori che hanno barattato la propria stabilità psicologica per un lavoro altamente rischioso.

chatgpt openai sama

A fronte di una paga oraria di 12,50€, Sama pagava i lavoratori attorno agli 1/2$ l’ora, e tutti gli intervistati del Time si sono dichiarati “mentalmente segnati” dall’esperienza; un lavoratore ha dichiarato di aver avuto forti ripercussioni sulla psiche dopo essersi imbattuto in contenuti come la descrizione di un rapporto sessuale con un animale in presenza di un bambino: “Era una tortura, leggevo tutta la settimana cose del genere e quando arrivava il weekend non riuscivo a non pensarci, continuando a esserne disturbato“. Nonostante ci fossero psicologi a supporto dei lavoratori, gli intervistati lamentano il fatto di aver potuto partecipare solamente a sessioni di gruppo, meno efficaci di quelle individuali.

Inoltre, Sama iniziò a lavorare per OpenAI anche alla creazione di un sistema IA anche per le immagini, etichettando immagini sessuali, violente e in alcuni casi persino illegali, passaggio ritenuto “necessario” da OpenAI per la salvaguardia di sistemi come DALL-E; si parla di un archivio di 1.400 immagini siglate come C4 (abusi sessuali su minori), C3 (bestialità, stupro, schiavitù sessuale) e V3 (morte, violenza e gravi lesioni fisiche), per un compenso totale a Sama di circa 787$. Sono state talmente tante le segnalazioni di traumi emotivi che Sama ha deciso di cancellare il suo rapporto lavorativo con OpenAI otto mesi prima del previsto e annullare tutte le prossime collaborazioni; cercando sul sito ufficiale non si trovano menzioni all’azienda di Sam Altman. Tuttavia, OpenAI ha affermato di aver lavorato con Sama per “creare sistemi di intelligenza artificiale più sicuri e prevenire risposte dannose” ma di non aver mai richiesto l’analisi di contenuti C4 e che Sama abbia frainteso le richieste. L’azienda è stata coinvolta anche nell’outsourcing in Africa dei team di moderazione di contenuti per Facebook, sottoponendo i lavoratori a immagini e video di abusi minorili, stupri ed esecuzioni per 1,50€ all’ora, decidendo infine di non rinnovare il contratto da quasi 4 milioni con Meta

⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.