Del 30 Luglio 2023 alle ore 07:54
Anthropic, Google, Microsoft e OpenAI stanno lanciando il Frontier Model Forum, un ente del settore dedicato a garantire uno sviluppo sicuro e responsabile dei modelli di IA ‘di frontiera’
di Ugo Barbàra
– Joe Biden con i leader delle aziende impegnate nello sviluppo dell’Intelligenza artificiale
AGI – Quattro aziende statunitensi leader nello sviluppo dell’intelligenza artificiale hanno annunciato la formazione di un gruppo dedicato ad affrontare i rischi che le versioni all’avanguardia di questa tecnologia potrebbero comportare.
Anthropic, Google, Microsoft e OpenAI, creatore di ChatGPT, hanno creato il Frontier Model Forum per ridurre al minimo i rischi dell’IA e supportare gli standard del settore. Le aziende si sono impegnate a condividere le loro migliori pratiche oltre che tra loro anche con legislatori e ricercatori.
I modelli di “frontiera” si riferiscono a piattaforme di machine learning nascenti e su larga scala che portano l’intelligenza artificiale a nuovi livelli di sofisticazione e hanno anche capacità che potrebbero essere pericolose.
“Le aziende che creano questa tecnologia hanno la responsabilità di garantire che sia sicura, protetta e rimanga sotto il controllo umano”, ha dichiarato il presidente di Microsoft Brad Smith in una nota, definendo questa iniziativa “un passo fondamentale per riunire il settore tecnologico nel far progredire l’IA in modo responsabile e affrontare le sfide in modo che vada a vantaggio di tutta l’umanità”.
Il presidente degli Stati Uniti Joe Biden aveva evocato gli “enormi” rischi e le promesse di questa tecnologia in un incontro alla Casa Bianca la scorsa settimana con i leader dei colossi tecnologici.
Di fronte ai massimi rappresentanti di Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, Biden aveva chiesto alle aziende di impegnarsi a “guidare l’innovazione responsabile” mentre l’IA si diffonde sempre più nella vita personale e aziendale.
Prima dell’incontro, i sette giganti dell’IA si erano impegnati in una serie di salvaguardie autoregolate e avevano concordato di sviluppare “robusti meccanismi tecnici”, come i sistemi di watermarking, per garantire agli utenti di sapere quando il contenuto proviene dall’intelligenza artificiale e non dall’uomo.
Gli obiettivi principali del Frontier Model Forum includono la riduzione al minimo dei rischi e l’abilitazione di valutazioni di sicurezza indipendenti delle piattaforme di intelligenza artificiale.
Il Forum sosterrà anche lo sviluppo di applicazioni destinate ad affrontare sfide come il cambiamento climatico, la prevenzione del cancro e le minacce informatiche.
“Le tecnologie avanzate di intelligenza artificiale hanno il potenziale per apportare profondi benefici alla società e la capacità di raggiungere questo potenziale richiede supervisione e governance”, ha affermato Anna Makanju, vicepresidente degli affari globali di OpenAI, “È fondamentale che le aziende di intelligenza artificiale, in particolare quelle che lavorano sui modelli più potenti, si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili”.
L’articolo I colossi dell’Intelligenza artificiale hanno deciso di darsi una regolata è già apparso su Il Corriere Nazionale.