L'iniziativa

Google, Microsoft, OpenAI e Anthropic: un organismo di autocontrollo per la sicurezza dell’Intelligenza Artificiale

di |

Alcuni dei principali player del mercato dell’IA si sono messi insieme per avviare il Frontier Model Forum, un organismo che si occuperà sullo sviluppo responsabile dell’IA.

 Alcuni dei principali player del mercato dell’IA si sono messi insieme per avviare il Frontier Model Forum, un organismo che si occuperà sullo sviluppo responsabile dell’IA.

I suoi membri, che al momento sono Anthropic, Google, Microsoft e OpenAI, si occuperanno di fare il bene di tutto l’ecosistema dell’IA a partire dalle valutazioni tecniche e dai benchmark necessari allo sviluppo di una biblioteca pubblica di soluzioni e standard a disposizione dell’industria.

Modelli di frontiera per l’autoapprendimento

Definisce i modelli di frontiera come “modelli di apprendimento automatico su larga scala che superano le capacità attualmente presenti nei modelli esistenti più avanzati e possono eseguire un’ampia varietà di attività”.

L’esempio per eccellenza sarebbe presumibilmente il ChatGPT di Open AI, che ha fatto più di ogni altra cosa per portare l’IA generativa all’attenzione dei media e dei politici mainstream.

Obiettivi

Gli obiettivi principali dell’ente sono elencati come:

  • Promuovere la ricerca sulla sicurezza dell’IA per promuovere lo sviluppo responsabile di modelli di frontiera, ridurre al minimo i rischi e consentire valutazioni indipendenti e standardizzate di capacità e sicurezza.
  • Identificare le migliori pratiche per lo sviluppo responsabile e l’implementazione di modelli di frontiera, aiutando il pubblico a comprendere la natura, le capacità, i limiti e l’impatto della tecnologia.
  • Collaborare con i responsabili politici, il mondo accademico, la società civile e le aziende per condividere le conoscenze sulla fiducia e sui rischi per la sicurezza.
  • Sostenere gli sforzi per sviluppare applicazioni che possano aiutare a far fronte alle maggiori sfide della società, come la mitigazione e l’adattamento ai cambiamenti climatici, la diagnosi precoce e la prevenzione del cancro e la lotta alle minacce informatiche.

L’organismo è aperto ad altre organizzazioni.

E’ chiaro che l’autoregolamentazione è complicata e i regolatori lo sanno bene.

Certo è un bene che le aziende si preoccupino, anche se non basta. L’occhio e il controllo di un ente terzo super partes sarà quanto mai fondamentale per lo sviluppo futuro dell’IA.