Se la Silicon Valley sembra aver improvvisamente sviluppato una passione per la frutticultura, non è per un cambio di dieta, ma per la nuova, feroce fase della guerra sull’intelligenza artificiale generativa.
Mentre Google raccoglie i frutti del successo del suo strumento Nano Banana, Meta Platforms sta coltivando la propria risposta nei laboratori di Menlo Park.
Secondo indiscrezioni trapelate da una sessione interna di Q&A, il colosso guidato da Mark Zuckerberg sta sviluppando due nuovi modelli di punta, battezzati con i nomi in codice Mango e Avocado, il cui rilascio è previsto per la prima metà del 2026.
Meta sta lavorando ai modelli IA Mango e Avocado, a cosa serviranno?

Le novità sono state delineate da Alexandr Wang, il Chief AI Officer di Meta, durante un incontro a porte chiuse con i dipendenti tenutosi giovedì scorso insieme al Chief Product Officer, Chris Cox. Wang, figura chiave della recente riorganizzazione aziendale, ha illustrato come l’azienda stia diversificando i propri sforzi per coprire ogni aspetto della generazione sintetica.
Il progetto Avocado rappresenta la prossima evoluzione del modello linguistico testuale (LLM) della società. Tuttavia, l’obiettivo non è solo migliorare la conversazione: Wang ha specificato che uno dei focus primari di Avocado sarà il potenziamento delle capacità di programmazione (coding), un settore dove la richiesta di assistenza automatizzata è in crescita esponenziale.
Parallelamente, Mango sarà il modello dedicato a immagini e video, destinato a colmare il divario con i competitor che hanno fatto della multimedialità il loro punto di forza.
Ma le ambizioni di Meta vanno oltre la semplice generazione di contenuti. Wang ha rivelato che l’azienda è nelle fasi preliminari di esplorazione dei cosiddetti “world models“.
Si tratta di sistemi di intelligenza artificiale progettati non solo per replicare immagini, ma per apprendere il funzionamento dell’ambiente circostante analizzando le informazioni visive, un passo avanti verso una comprensione contestuale della realtà fisica.
Tutto questo nasce da una ristrutturazione profonda avvenuta durante l’estate, con la creazione della divisione Meta Superintelligence Labs. Per alimentarla, Mark Zuckerberg ha condotto personalmente una campagna di reclutamento aggressiva, assumendo oltre 50 nuovi professionisti tra ingegneri e ricercatori, e strappando più di 20 talenti direttamente dai laboratori della rivale OpenAI.
L’effetto Nano Banana e l’allarme rosso di Altman
La fretta di Meta è giustificata dai numeri che stanno ridisegnando gli equilibri del mercato. L’introduzione all’inizio dell’anno di Nano Banana, il tool di creazione immagini di Google, ha funto da catalizzatore per l’adozione di Gemini.
I dati sono eloquenti: gli utenti mensili sono balzati dai 450 milioni di luglio agli oltre 650 milioni registrati a fine ottobre, dimostrando come le funzionalità visive siano un driver fondamentale per la crescita della base utenti.
Questa dinamica non è sfuggita a Sam Altman, CEO di OpenAI. Dopo il rilascio della terza versione di Gemini a novembre, Altman ha dichiarato un “code red” interno, spingendo l’azienda a recuperare la leadership sui benchmark di performance.
La risposta è stata immediata con il rilascio di una nuova versione di ChatGPT Images. In un incontro con i giornalisti la scorsa settimana, lo stesso Altman ha sottolineato come la generazione di immagini sia diventata una funzionalità “sticky”, capace di garantire il ritorno frequente degli utenti sulla piattaforma e di mantenere alto l’engagement.
Il fronte video: Vibes contro Sora
Il terreno di scontro si sta allargando rapidamente anche al video. A settembre, Meta aveva già fatto una mossa tattica lanciando Vibes, un generatore video sviluppato in collaborazione con la startup Midjourney. La risposta della concorrenza è stata quasi istantanea: meno di una settimana dopo, OpenAI ha rilasciato la sua app di generazione video Sora, intensificando ulteriormente la competizione.
Con Mango e Avocado all’orizzonte del 2026, Meta sta chiaramente cercando di non lasciare alcuno spazio scoperto. La sfida non riguarda più soltanto chi possiede il modello più intelligente, ma chi riesce a offrire l’ecosistema più completo e accattivante, in una corsa dove immagini, video e codice sono diventati la valuta corrente del futuro tecnologico.







