Key4biz

Google, Microsoft, OpenAI e Anthropic: un organismo di autocontrollo per la sicurezza dell’Intelligenza Artificiale

 Alcuni dei principali player del mercato dell’IA si sono messi insieme per avviare il Frontier Model Forum, un organismo che si occuperà sullo sviluppo responsabile dell’IA.

I suoi membri, che al momento sono Anthropic, Google, Microsoft e OpenAI, si occuperanno di fare il bene di tutto l’ecosistema dell’IA a partire dalle valutazioni tecniche e dai benchmark necessari allo sviluppo di una biblioteca pubblica di soluzioni e standard a disposizione dell’industria.

Modelli di frontiera per l’autoapprendimento

Definisce i modelli di frontiera come “modelli di apprendimento automatico su larga scala che superano le capacità attualmente presenti nei modelli esistenti più avanzati e possono eseguire un’ampia varietà di attività”.

L’esempio per eccellenza sarebbe presumibilmente il ChatGPT di Open AI, che ha fatto più di ogni altra cosa per portare l’IA generativa all’attenzione dei media e dei politici mainstream.

Obiettivi

Gli obiettivi principali dell’ente sono elencati come:

L’organismo è aperto ad altre organizzazioni.

E’ chiaro che l’autoregolamentazione è complicata e i regolatori lo sanno bene.

Certo è un bene che le aziende si preoccupino, anche se non basta. L’occhio e il controllo di un ente terzo super partes sarà quanto mai fondamentale per lo sviluppo futuro dell’IA.

Exit mobile version