Icono del sitio

Tecnología Microsoft: ¿Cómo gobernamos mejor la IA?

Microsoft Cómo gobernamos mejor la IA

Los países de todo el mundo han comenzado a hacer preguntas comunes. ¿Cómo podemos utilizar esta nueva tecnología para resolver nuestros problemas? ¿Cómo evitamos o manejamos los nuevos problemas que podría crear? ¿Cómo controlamos una tecnología que es tan poderosa? Estas preguntas requieren no solo una conversación amplia y reflexiva, sino también una acción decisiva y efectiva. Este documento ofrece algunas de nuestras ideas y sugerencias como empresa.

Un plan de cinco puntos para la gobernanza pública de la IA

La sección uno de este documento ofrece un plan de cinco puntos para abordar varios problemas actuales y emergentes de IA a través de políticas públicas, leyes y regulaciones. Ofrecemos esto al reconocer que cada parte de este plan se beneficiará de una discusión más amplia y requerirá un desarrollo más profundo.

Primero, implementar y aprovechar los nuevos marcos de seguridad de IA liderados por el gobierno. A menudo, la mejor manera de tener éxito es basarse en los éxitos y las buenas ideas de los demás. En especial cuando uno quiere moverse con rapidez. En este caso, existe una importante oportunidad de aprovechar el trabajo realizado hace apenas cuatro meses por el Instituto Nacional de Estándares y Tecnología de EE. UU., o NIST. Parte del Departamento de Comercio, NIST completó y lanzó un nuevo marco de gestión de riesgos de IA.

Ofrecemos cuatro sugerencias concretas para implementar y desarrollar este marco, incluidos los compromisos que Microsoft hace en respuesta a una reunión reciente en la Casa Blanca con las principales empresas de inteligencia artificial. También creemos que la administración y otros gobiernos pueden acelerar el impulso a través de reglas de adquisiciones basadas en este marco.

En segundo lugar, exigir frenos de seguridad efectivos para los sistemas de IA que controlan la infraestructura crítica. En este enfoque, el gobierno definiría la clase de sistemas de IA de alto riesgo que controlan la infraestructura crítica y garantizan tales medidas de seguridad como parte de un enfoque integral para la gestión del sistema. Las nuevas leyes requerirían que los operadores de estos sistemas construyan frenos de seguridad en los sistemas de inteligencia artificial de alto riesgo por diseño. Luego, el gobierno se aseguraría de que los operadores prueben los sistemas de alto riesgo de manera regular, para garantizar que las medidas de seguridad del sistema sean efectivas. Y los sistemas de IA que controlan el funcionamiento de la infraestructura crítica designada se implementarían solo en centros de datos de IA con licencia que garantizarían una segunda capa de protección a través de la capacidad de aplicar estos frenos de seguridad, para asegurar un control humano efectivo.

Tercero, desarrollar un amplio marco legal y regulatorio basado en la arquitectura tecnológica para la IA. Este plan incluye información sobre algunas de las piezas críticas que intervienen en la construcción y el uso de nuevos modelos generativos de IA. Al usar esto como contexto, propone que diferentes leyes establezcan responsabilidades regulatorias específicas sobre las organizaciones que ejercen ciertas responsabilidades en tres capas de la pila de tecnología: la capa de aplicaciones, la capa de modelo y la capa de infraestructura.

Esto debería aplicar primero las protecciones legales existentes en la capa de aplicaciones para el uso de IA. Esta es la capa donde la seguridad y los derechos de las personas se verán más afectados, en especial porque el impacto de la IA puede variar de manera notable en diferentes escenarios tecnológicos.

Entonces habrá una necesidad de desarrollar nuevas leyes y regulaciones para modelos básicos de IA de alta capacidad, implementados mejor por una nueva agencia gubernamental. Esto tendrá un impacto en dos capas de la pila de tecnología. El primero requerirá nuevas regulaciones y licencias para estos modelos. Y la segunda supondrá obligaciones para los operadores de infraestructuras de IA sobre las que se desarrollen y desplieguen estos modelos.

En primera instancia, los desarrolladores de modelos de IA potentes y designados primero «conocen la nube» en la que se desarrollan e implementan sus modelos. Además, como en el caso de escenarios que implican usos sensibles, la empresa que tiene una relación directa con un cliente, ya sea el desarrollador del modelo, el proveedor de la aplicación o el operador de la nube en el que opera el modelo, debe «conocer a los clientes» que acceden a él.

Además, el público debe estar facultado para «conocer el contenido» que la IA crea mediante el uso de una etiqueta u otra marca que informe a las personas cuando un modelo de IA ha producido algo como un archivo de video o audio en lugar de un ser humano. Esto requerirá el desarrollo de nuevas leyes, y habrá muchas preguntas y detalles importantes que abordar. Pero la salud de la democracia y el futuro del discurso cívico se beneficiarán de medidas bien pensadas para disuadir el uso de nuevas tecnologías para engañar o defraudar al público.

Cuarto, promover la transparencia y garantizar el acceso académico y sin fines de lucro a la IA. Creemos que un objetivo público crítico es promover la transparencia y ampliar el acceso a los recursos de IA. Si bien existen algunas tensiones importantes entre la transparencia y la necesidad de seguridad, existen muchas oportunidades para hacer que los sistemas de IA sean más transparentes de manera responsable.

También creemos que es fundamental ampliar el acceso a los recursos de IA para la investigación académica y la comunidad sin fines de lucro. La investigación básica, en especial en las universidades, ha sido de fundamental importancia para el éxito económico y estratégico de los Estados Unidos desde la década de 1940. Pero a menos que los investigadores académicos puedan obtener acceso a muchos más recursos informáticos, existe un riesgo real de que la investigación científica y tecnológica se vea afectada, incluso en relación con la propia IA.

En quinto lugar, buscar nuevas asociaciones público-privadas para utilizar la IA como una herramienta eficaz para abordar los inevitables desafíos sociales que surgen con la nueva tecnología. Una lección de los últimos años es lo que las sociedades democráticas pueden lograr cuando aprovechan el poder de la tecnología y unen a los sectores público y privado.

Todos nos beneficiaremos de una fuerte dosis de optimismo claro. La IA es una herramienta extraordinaria. Pero, al igual que otras tecnologías, también puede convertirse en un arma poderosa, y habrá algunos en todo el mundo que buscarán usarla de esa manera. Cuando los sectores público y privado trabajan juntos, cuando los aliados de ideas afines se unen y cuando desarrollamos tecnología y la usamos como escudo, es más poderosa que cualquier espada en el planeta.

Ahora se necesita un trabajo importante para usar la IA para proteger la democracia y los derechos fundamentales, proporcionar un amplio acceso a las habilidades de IA que promoverán el crecimiento inclusivo y utilizar el poder de la IA para promover las necesidades de sostenibilidad del planeta. Quizás más que nada, una ola de nueva tecnología de IA brinda una ocasión para pensar en grande y actuar con audacia. En cada área, la clave del éxito será desarrollar iniciativas concretas y reunir a gobiernos, empresas respetadas y ONG enérgicas para promoverlas.

Gobierno de la IA dentro de Microsoft

En última instancia, toda organización que cree o utilice sistemas avanzados de IA deberá desarrollar e implementar sus propios sistemas de gobierno. La sección dos de este documento describe el sistema de gobierno de IA dentro de Microsoft.

Como se describe en esta sección, en los últimos seis años hemos creado una estructura y un sistema de gobierno de IA más completos en todo Microsoft. No empezamos desde cero, pues tomamos prestadas las mejores prácticas para la protección de la ciberseguridad, la privacidad y la seguridad digital. Todo esto es parte del sistema integral de gestión de riesgos empresariales (Enterprise Risk Management – ERM, por sus siglas en inglés) de la compañía, que se ha convertido en una parte crítica de la gestión de corporaciones y muchas otras organizaciones en el mundo de hoy.

Cuando se trata de IA, primero desarrollamos principios éticos y luego tuvimos que traducirlos en políticas corporativas más específicas. Ahora estamos en la versión 2 del estándar corporativo que incorpora estos principios y define prácticas más precisas para que las sigan nuestros equipos de ingeniería. Hemos implementado el estándar a través de sistemas de capacitación, herramientas y pruebas que continúan su maduración de manera rápida. Esto está respaldado por procesos de gobierno adicionales que incluyen medidas de seguimiento, auditoría y cumplimiento.

Cuando se trata de la gobernanza de la IA, algunos de nuestros aprendizajes más importantes provienen del trabajo detallado requerido para revisar casos de uso sensibles específicos de la IA. En 2019, fundamos un programa de revisión de uso confidencial para someter nuestros casos de uso de IA más sensibles y novedosos a una revisión rigurosa y especializada que da como resultado una guía personalizada. Desde entonces, hemos completado alrededor de 600 revisiones de casos de uso sensibles. El ritmo de esta actividad se ha acelerado para igualar el ritmo de los avances de la IA, con casi 150 revisiones de este tipo en los 11 meses.

Todo esto se basa en el trabajo que hemos hecho y haremos para promover la IA responsable a través de la cultura empresarial. Eso significa contratar talento nuevo y diverso para hacer crecer nuestro ecosistema de IA responsable e invertir en el talento que ya tenemos en Microsoft para desarrollar habilidades y capacitarlos para pensar en términos generales sobre el impacto potencial de los sistemas de IA en las personas y la sociedad.

A medida que se acelera el cambio tecnológico, el trabajo para gobernar la IA de manera responsable debe seguirle el ritmo. Con los compromisos e inversiones correctos, creemos que se puede.

Salir de la versión móvil