Google, Microsoft y OpenAI crearán un organismo de supervisión de la seguridad de la IA

Inteligencia Artificial

Google, Microsoft y OpenAI crearán un organismo de supervisión de la seguridad de la IA

Entre los principales objetivos del organismo figuran promover la investigación de la seguridad de la IA.

Inteligencia artificial

Inteligencia artificial

La compañía Google anunció este miércoles que creará junto con Microsoft, Anthropic y OpenAI –laboratorio de investigación que desarrolló el chatbot de inteligencia artificial (IA) ChatGPT– un organismo para supervisar la seguridad del desarrollo de los modelos de IA.

«Hoy (miércoles), Anthropic, Google, Microsoft y OpenAI anuncian la formación del Frontier Model Forum, un nuevo organismo de la industria centrado en garantizar el desarrollo seguro y responsable de los modelos avanzados de IA», señala el comunicado.

Entre los principales objetivos del organismo figuran promover la investigación de la seguridad de la IA, identificar las mejores prácticas para el desarrollo e implementación responsable de los modelos avanzados, colaborar con los políticos, los académicos, la sociedad civil y las empresas para compartir los conocimientos sobre los riesgos de confianza y de seguridad y apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a resolver problemas sociales críticos.

En los próximos meses, Frontier Model Forum creará un consejo asesor que le ayude a definir su estrategia y prioridades, representando una diversidad de experiencias y perspectivas.

Las empresas fundadoras también establecerán acuerdos institucionales clave, incluidos los estatutos, la gobernanza y la financiación, con un grupo de trabajo y una junta ejecutiva para guiar estos esfuerzos.

Más información