Icono del sitio EL BOLETIN

Google, Microsoft y OpenAI crearán un organismo de supervisión de la seguridad de la IA

Inteligencia artificial

Inteligencia artificial

«Hoy (miércoles), Anthropic, Google, Microsoft y OpenAI anuncian la formación del Frontier Model Forum, un nuevo organismo de la industria centrado en garantizar el desarrollo seguro y responsable de los modelos avanzados de IA», señala el comunicado.

Entre los principales objetivos del organismo figuran promover la investigación de la seguridad de la IA, identificar las mejores prácticas para el desarrollo e implementación responsable de los modelos avanzados, colaborar con los políticos, los académicos, la sociedad civil y las empresas para compartir los conocimientos sobre los riesgos de confianza y de seguridad y apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a resolver problemas sociales críticos.

En los próximos meses, Frontier Model Forum creará un consejo asesor que le ayude a definir su estrategia y prioridades, representando una diversidad de experiencias y perspectivas.

Las empresas fundadoras también establecerán acuerdos institucionales clave, incluidos los estatutos, la gobernanza y la financiación, con un grupo de trabajo y una junta ejecutiva para guiar estos esfuerzos.

Acceda a la versión completa del contenido

Google, Microsoft y OpenAI crearán un organismo de supervisión de la seguridad de la IA

Salir de la versión móvil