Del 30 Luglio 2023 alle ore 07:58
Le due società, accanto ad altrettante startup a loro vicine, hanno fondato un ente (l’ennesimo) per lo sviluppo responsabile dell’AI. Tante buone intenzioni, ma anche la volontà di autoregolamentarsi per evitare obblighi imposti
di Paolo Fiore
Intelligenza artificiale
AGI – Si chiama Frontier Model Forum e si definisce “un ente per uno sviluppo sicuro e responsabile” dei modelli di intelligenza artificiale più evoluti. Non è il primo e non sarà l’ultimo, almeno stando al poco che si sa del progetto, ancora tutto da definire.
Asse Google-Microsoft per “l’AI di frontiera”
A oggi, gli elementi distintivi sono due. Si tratta di un’iniziativa che si concentra su quella che definisce “AI di frontiera”. È quindi un ente molto verticale, che guarda alle applicazioni più innovative dell’intelligenza artificiale. Il secondo, e probabilmente più significativo, fattore è la lista dei fondatori: Anthropic, Google, Microsoft e OpenAI. Startup che esplorano l’AI e giganti con le tasche piene pronti ad applicarla alla loro sterminata gamma di prodotti, dalle ricerche online ai software. Quattro società, ma con due – chiari – poli di riferimento. Perché Microsoft detiene una quota importante di OpenAI e Google, appena tre mesi dopo il lancio di ChatGPT, ha investito 300 milioni in Anthropic (fondata da un ex dipendente di OpenAI). Insomma: si ritrovano allo stesso tavolo le compagnie che negli scorsi mesi se le sono date di santa ragione. Nessun accordo anti-concorrenziale, ma un’organizzazione per discutere (si chiama “Forum”) il futuro.
Iniziativa “aperta”. Ma fino a un certo punto
L’adesione è aperta alle organizzazioni del settore che dimostrino “un forte impegno per la sicurezza” e volontà di “partecipare a iniziative” condivise. I fondatori, però, avranno sempre un ruolo di guida: saranno loro a definire i “modelli da sviluppare e implementare”, a stabilire “accordi istituzionali”, a decidere “statuto, governance e finanziamenti” e a consultarsi con “la società civile e i governi” sulle possibili collaborazioni. Difficile immaginare, a queste condizioni, l’adesione di altri big, come Amazon e Meta.
I due nomi non sono casuali. E non solo per la loro dimensione. Il 21 luglio, meno di una settimana prima di annunciare il Forum, sette società hanno sottoscritto alla Casa Bianca un impegno per lo sviluppo di “un’intelligenza artificiale responsabile”. Quattro firmatari sono i fondatori del Frontier Model Forum. Una è una startup vicina a Microsoft (il fondatore, Reid Hoffman, è il papà di LinkedIn – proprietà Microsoft – e membro del Cda guidato da Satya Nadella). Le altre due erano Amazon e Meta.
Gli obiettivi del Frontier Model Forum
L’iniziativa non è affatto da sottovalutare. Ma è presto per dire se possa essere utile. Perché, al di là della leadership dei fondatori, gli obiettivi che si propone il Frontier Model Forum sono già sentiti: promuovere lo sviluppo responsabile dell’AI, consentire valutazioni indipendenti e standardizzate sulla sua sicurezza, supportare la ricerca, identificare buone pratiche, aiutare gli utenti a comprendere “la natura, le capacità, i limiti e l’impatto della tecnologia”. E ancora: “Sostenere gli sforzi per far fronte alle maggiori sfide della società, come la mitigazione e l’adattamento ai cambiamenti climatici, la diagnosi precoce e la prevenzione del cancro e la lotta alle minacce informatiche”. Infine, “collaborare con i decisori politici, accademici, società civile e aziende”, facilitando “la condivisione di informazioni” tra pubblico e privato.ollaborazione e auto-regolamentazione
Il Forum afferma di voler “sostenere e alimentare” le iniziative promosse da G7, Ocse, Usa e Ue. E di voler affiancare quelle private già esistenti, come la Partnership on AI (di cui fanno già parte, tra i tanti, anche Microsoft, Google, Meta, Amazon e Apple) ed MLCommons (promosso nel 2018 da ricercatori di Baidu, Google, Harvard e Stanford).
Alcuni degli obiettivi del Forum somigliano molto ai “Sette principi” per lo sviluppo dell’AI che Google si è già data da tempo. Meta ha lanciato di recente la Open Innovation AI Research Community, un programma destinato a “ricercatori accademici e ai progettati che favoriscano la collaborazione e la condivisione delle conoscenze nel campo dell’intelligenza artificiale”. Iniziative diverse, accomunate da un vocabolario simile e dagli stessi obiettivi.
Una proliferazione che pare una conferma: le società statunitensi, come sempre, stanno cercando la strada dell’autoregolamentazione. Dimostrarsi responsabili per evitare vincoli normativi. In passato (ad esempio sulla gestione trasparente ed “etica” dei dati) non ha funzionato. L’amministrazione Biden sembra però assecondare questo approccio. L’impegno firmato il 21 luglio è, appunto, solo un impegno. Adesione volontaria, niente obblighi. Un po’ come fatto per il Gdpr, diverso è lo scenario in Europa, dove entro l’anno l’Ue punta ad approvare l’AI Act. E qui, al di là dei pur utili forum, si dovrà parlare di regole.
L’articolo Frontier Model Forum: la “pace armata” tra Google e Microsoft è già apparso su Il Corriere Nazionale.