ChatGPT costa troppo, NVIDIA se la ride ma Microsoft non ci sta

microsoft chip ai bing chatgpt

ChatGPT costa 700.000$ al giorno: è questa la stima degli analisti di settore, che hanno ipotizzato uno scenario in cui Microsoft utilizzi le capacità di OpenAI per sconfiggere il motore di ricerca di Google. Un’impresa mastodontica, se considera la storia e l’esperienza maturate da Big G, ma che Microsoft ha già messo in atto con investimenti miliardari e l’ammodernamento di un Bing che adesso sembra possa diventare veramente competitivo. Ma c’è uno scoglio in cui Microsoft si sta imbattendo, ed è proprio quello degli elevati costi d’operazione di una tecnologia così avanzata.

Microsoft vuole creare chip IA per abbassare i costi e slegarsi dal vincolo di NVIDIA

Bing

Sul suo motore di ricerca, Google riceve circa 320.000 richieste al secondo, le quali generano 0,55 centesimi di profitto l’una, per un totale nel 2022 di 162 miliardi di incasso, 107 miliardi di spese e quindi 55 miliardi di profitto. Secondo le stime di SemiAnalysis, ogni domanda a ChatGPT costa 0,36 centesimi a OpenAI, il che sé traduce in un costo giornaliero di 694.000$, costi che si riferiscono all’hardware utilizzato per farlo funzionare, fra cui 3.617 server e 28.936 GPU NVIDIA A100. Questo significa che un motore di ricerca come quello di Google con un sistema IA come quello di ChatGPT sarebbe economicamente devastante. Da 55,5 miliardi scenderebbe a 19,5 miliardi di profitto annuale ma soprattutto con un utilizzo spropositato di hardware: oltre 4 milioni di GPU NVIDIA e oltre 500.000 server, il cui acquisto supererebbe i 100 miliardi di dollari.

Da qui nasce nel 2019 Project Athena per la creazione chip IA firmati Microsoft che abbattano questi costi e riducano la dipendenza da NVIDIA. Attualmente, è il chipmaker americano ad avere l’egemonia nel campo dei chip IA, con le GPU A100 e H100 che la fanno da padrona, al punto che gli USA ne hanno bloccato l’acquisto dalla Cina per impedirne l’avanzamento tecnologico a scopi militari. L’accordo fra OpenAI e Microsoft ha fatto sì che GPT si appoggi all’infrastruttura cloud Azure, pilotata proprio da migliaia di GPU NVIDIA, il cui costo si aggira attorno ai 30.000$ l’una (da qui i suddetti costi). Così come le varie Google, Apple, Meta e Amazon, anche Microsoft avrebbe quindi creato una divisione interna per la realizzazione di soluzioni proprietarie: i prototipi sarebbero già in fase di test con un gruppo ristretto di dipendenti, e se tutto va bene il debutto sarebbe previsto per inizio 2024; NVIDIA dovrebbe comunque continuare a fornirle GPU, anche se in minore quantità.

Si è spesso parlato del rischio di utilizzare sistemi IA come motore di ricerca, con la stessa Google che ha perso 100 miliardi dopo una risposta sbagliata di Bard, o i molteplici casi di ChatGPT che genera contenuti controversi, per non parlare degli enormi consumi idroelettrici. Ma Microsoft non ha molto da perdere nel mercato della ricerca, mentre Google gode di una posizione praticamente di monopolio e rischia di più in termini di guadagni e immagine mediatica; ma intanto la possibile alleanza fra Samsung e Microsoft potrebbe costarle miliardi.

⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.