Dieciséis grandes usuarios y creadores de tecnología de inteligencia artificial (IA) —entre ellos pesos pesados como Microsoft, Amazon, Google, Meta y OpenAI— han suscrito los llamados ‘Compromisos de seguridad de la IA en la frontera’ (Frontier AI Safety Commitments), un nuevo conjunto de directrices de seguridad y criterios de desarrollo para esta tecnología.
Este documento se dio a conocer el pasado martes, coincidiendo con el inicio de dos días de conversaciones sobre IA en una cumbre celebrada esta semana en Seúl, en Corea del Sur. Los signatarios acordaron publicar unos marcos de seguridad que indiquen cómo medirán los riesgos de sus respectivos modelos de IA. Los riesgos pueden incluir, por ejemplo, el posible uso indebido del modelo por parte de un actor malintencionado.
Estos marcos también establecen un freno de mano de seguridad que puede minimizar los riesgos que asumen las organizaciones al utilizar tecnología de IA, indicando cuándo los riesgos “graves y no mitigados” asociados a la tecnología se “considerarían intolerables” y qué harán las empresas para garantizar que no se superen esos límites.
Las empresas también se han comprometido a no desarrollar ni implantar un modelo o sistema de IA si sus riesgos no pueden mantenerse por debajo de un determinado límite. Estos serán definidos por agentes de confianza —entre los que pueden figurar entidades gubernamentales— antes de su publicación con vistas a la Cumbre de Acción sobre la IA que se celebrará en Francia a principios del próximo año.
Las otras 11 empresas firmantes de los ‘Compromisos de seguridad de la IA en la frontera’ son: Anthropic, Cohere, G42, IBM, Inflection AI, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI y Zhipu.ai.
Comparación con otros compromisos de seguridad
El acuerdo sigue a otra alianza histórica similar firmada entre la UE, EE.UU., China y otros países para trabajar juntos en la seguridad de la IA. La llamada Declaración de Bletchley, realizada en la Cumbre sobre Seguridad de la IA celebrada en el Reino Unido en noviembre, estableció un entendimiento compartido de las oportunidades y riesgos que plantea la IA en la frontera y reconoció la necesidad de que los gobiernos trabajen juntos para hacer frente a los retos más importantes asociados a esta tecnología.
Una de las diferencias entre este último acuerdo sellado en Seúl y la Declaración de Bletchley es obvia: el nuevo acuerdo es a nivel organizativo, mientras que la Declaración de Bletchley fue realizada por los gobiernos, lo que sugiere un mayor potencial regulador asociado a la futura toma de decisiones en torno a la IA.
Los últimos compromisos también permiten que “las organizaciones determinen sus propios umbrales de riesgo”, lo que potencialmente puede no ser tan eficaz como establecerlos a un nivel más alto como hace otro de estos intentos de regular la seguridad de la IA: la Ley de IA de la UE, según señaló Maria Koskinen, directora de Políticas de IA del proveedor de tecnología de gobernanza de IA Saidot.
“La Ley de IA de la UE regula la gestión de riesgos de los modelos de IA de propósito general con riesgos sistémicos, que son exclusivos de estos modelos de propósito general de alto impacto”, afirmó.
Así, mientras que los últimos compromisos dejan en manos de las organizaciones la definición de sus propios límites, la Ley de IA de la UE “proporciona orientación al respecto con la introducción de la definición de ‘riesgo sistémico”, señaló Koskinen. “Esto da más seguridad no sólo a las organizaciones que aplican estos compromisos, sino también a quienes adoptan soluciones de IA y a las personas que se ven afectadas por estos modelos”.
Guiar a los CIO hacia la seguridad de la IA
Sin embargo, tanto Koskinen como otros coincidieron en que los compromisos son un paso más en la dirección correcta para garantizar que cualquier tecnología de IA desarrollada por aquellos que los han aceptado contará con un cierto nivel de seguridad. También sienta un precedente para los futuros modelos de IA y las innovaciones asociadas que surjan a medida que evolucione la tecnología, afirmó.
“Aunque los compromisos son voluntarios y no se hacen cumplir, sientan un precedente para otras organizaciones de IA”, señaló Koskinen. “Espero que veamos a otros seguir su ejemplo, beneficiando a toda la comunidad de IA mediante la creación de un ecosistema más seguro y más seguro para la innovación de IA”.
Los compromisos también pueden ayudar a guiar a los CIO en su comprensión tanto del riesgo relacionado con la IA como de las acciones de gestión de riesgos a medida que despliegan la tecnología en el futuro, señaló Pareekh Jain, CEO de Pareekh Consulting. “La seguridad es un componente esencial de la IA ética y, como parte de esta asociación, las empresas publicarán marcos de seguridad y trabajarán activamente en la gestión activa del riesgo”, afirmó. “Así que, en cierto modo, es un paso hacia la IA ética”.
Read More from This Article: Las grandes tecnológicas se comprometen a adoptar nuevas prácticas de seguridad para la IA
Source: News