Quando si pensa all’intelligenza artificiale, è difficile immaginare un suo luogo primigenio. Non solo perché le intelligenze artificiali siano più d’una e di forme e origini disparate, ma perché nell’immaginario collettivo capita spesso di associarle a un grumo di algoritmi intrappolato nei computer, a una ragnatela astratta di reti neurali. In realtà, ogni intelligenza artificiale ha una sua incubatrice fisica, uno o più centri dove ingegneri, sviluppatori, ricercatori e scienziati intraprendono lunghi percorsi di ricerca al servizio dei big del tech che ritengono prioritario questo campo. Prima del loro sviluppo vero e proprio.
Il Fair di Parigi
Uno di questi è FAIR (Fundamental AI Research), la culla della ricerca sull’AI di Meta, il gigante a capo di Facebook, Instagram e WhatsApp che da anni punta sullo sviluppo delle tecnologie AI (prima ancora del rebranding e dell’avvento del metaverso). Di Fair, al mondo, ce ne sono diversi, dislocati principalmente tra gli Stati Uniti e l’Europa. Noi abbiamo visitato quello di Parigi, il più grande hub di ricerca della regione EMEA, che lavora in coro con i centri di Londra, Zurigo e Tel Aviv su uno sterminato catalogo di progetti.
Il Fair di Parigi è il luogo dove hanno preso forma le innovazioni del passato e dove si modellano quelle del presente, ma è soprattutto il futuro a catturare l’attenzione, con progetti a lungo termine che spaziano dal riconoscimento delle immagini all’elaborazione del linguaggio naturale, fino ai modelli di apprendimento auto-supervisionato.
L'arsenale informatico di Meta
L’azienda di Menlo Park sta costruendo un armamentario informatico per la "messa a terra" della ricerca intrapresa dal Fair, che ha già portato all’integrazione della tecnologia AI nelle piattaforme e nei dispositivi di realtà aumentata e virtuale presenti nel suo catalogo. Ma, soprattutto, per rispondere all’ascesa di ChatGPT e degli altri modelli "rivali" di intelligenza artificiale generativa.
E non si può dire non abbia le spalle coperte: per rendere l’idea, entro la fine del 2024 Meta riceverà da Nvidia 350mila GPU H100 (schede grafiche potentissime alla base dello sviluppo di modelli linguistici di grandi dimensioni, come ChatGPT) e 600mila unità di elaborazione grafica da altri partner, un arsenale in grado di rendere in prospettiva il suo sistema uno dei più grandi del settore.
Un'AI con capacità cognitive complesse
La strada è ancora lunga e sfidante, complici le ambizioni di Mark Zuckerberg, che ha più volte ribadito di voler sviluppare un’AI "generale" con capacità cognitive complesse, in grado di superare i limiti dei modelli attualmente in circolazione (come il ragionamento e la memoria). E su questo, in azienda sembrerebbero avere le idee chiare: “Stiamo lavorando per capire come far ragionare questi modelli, come dar loro una memoria”, ha confessato Joelle Pineau, Vice President AI Research di Meta. Un pezzo mancante, spiegano gli esperti, per poter raggiungere il prossimo livello di intelligenza delle macchine.
Per ora pesano le azioni messe in campo, come l’imminente lancio del modello linguistico Llama 3 e dell’assistente virtuale MetaAI. E pesa la filosofia: Meta vuole democratizzare l’intelligenza artificiale per renderla alla portata di tutti con un approccio open source, mettendo cioè a disposizione dei ricercatori e alle aziende di tutto il mondo i suoi modelli, codici, demo e documenti per accelerare l’implementazione di queste tecnologie. E sfidare i grandi rivali.