noviembre 24, 2024

Intel se une a AI Safety Working Group de MLCommons

Intel se une al nuevo grupo de trabajo de seguridad IA: AI Safety Working Group de MLCommons

Intel se une a un grupo de expertos líderes en la industria y del mundo académico de la IA para establecer puntos de referencia estándar de seguridad que guiarán su desarrollo responsable.

Intel anuncia que se unirá al nuevo grupo de trabajo MLCommons AI Safety (AIS) junto con expertos en inteligencia artificial de la industria y el mundo académico. Como miembro fundador, Intel contribuirá con su experiencia y conocimiento para ayudar a crear una plataforma flexible para los análisis de referencia que miden la seguridad y los factores de riesgo de las herramientas y modelos de IA. A medida que las pruebas maduren, los puntos de referencia estándar de seguridad de IA desarrollados por el grupo de trabajo se convertirán en un elemento vital del enfoque de nuestra sociedad para el despliegue y la seguridad de esta tecnología.

«Intel se ha comprometido a hacer que la IA avance de manera responsable y a hacerla accesible a todos. Abordamos las preocupaciones de seguridad de manera integral y desarrollamos innovaciones en hardware y software para permitir que el ecosistema construya IA confiable. Debido a la presencia generalizada y constante de modelos de lenguaje grandes, es fundamental colaborar en todo el entorno para abordar las preocupaciones de seguridad en el desarrollo y la puesta en marcha de la inteligencia artificial. Con este fin, nos complace unirnos a la industria en la definición de los nuevos procesos, métodos y puntos de referencia para mejorar la IA en todas partes», mencionó Deepak Patil, vicepresidente corporativo y gerente general de Soluciones de IA para centros de datos. 

¿Por qué es importante? La capacitación responsable y el despliegue de grandes modelos lingüísticos (LLM) y herramientas son de suma importancia para ayudar a mitigar los riesgos sociales que plantean estas poderosas tecnologías. Intel ha reconocido desde hace tiempo la importancia de las implicaciones éticas y de derechos humanos asociadas con el desarrollo de la tecnología, especialmente la IA.

Este grupo de trabajo proporcionará un sistema de clasificación de seguridad para evaluar el riesgo que presentan las nuevas tecnologías de IA de rápida evolución. La participación de Intel en el grupo de trabajo AIS es el compromiso más reciente en los esfuerzos de la compañía por promover de manera responsable las tecnologías de IA.

Acerca de AI Safety Working Group: El grupo de trabajo de seguridad de IA está organizado por MLCommons con la participación de un grupo multidisciplinario de expertos en IA. El grupo desarrollará una plataforma y un conjunto de pruebas de colaboradores para respaldar los puntos de referencia de seguridad de IA para diversos casos de uso.

Acerca de la participación de Intel: Intel planea compartir los hallazgos de seguridad de la IA y las mejores prácticas y procesos para el desarrollo responsable, como equipos rojos y pruebas de seguridad. La lista completa de los miembros participantes se puede encontrar en el sitio web de MLCommons.

Lo que sigue: El enfoque inicial del grupo de trabajo será desarrollar puntos de referencia de seguridad para LLM, basándose en el trabajo preliminar de los investigadores del Centro de Investigación sobre Modelos de Fundación de la Universidad de Stanford y su Evaluación Holística de Modelos de Lenguaje (HELM). Intel compartirá sus rigurosos procesos de revisión multidisciplinarios que utilizan internamente para desarrollar modelos y herramientas de IA con el grupo de trabajo de AIS para ayudar a establecer un conjunto común de mejores prácticas y puntos de referencia para evaluar el desarrollo seguro y la implementación de una herramienta generativa de IA que aproveche los LLM.

Más contexto: MLCommons anuncia la formación de AI Safety Working Group