La empresa de software Planview, con sede en Austin, empezó a utilizar la inteligencia artificial (IA) generativa para aumentar la productividad hace unos 18 meses. Durante ese mismo periodo, empezaron a integrar la IA generativa en sus productos, creando un copiloto con el que los usuarios interactúan para realizar la gestión estratégica de carteras y la gestión del flujo de valor. El copiloto crea escenarios de planificación para ayudar a los gestores a alcanzar los objetivos de lanzamiento de productos y sugiere formas de mover los entregables en las hojas de ruta, compartir el trabajo entre equipos y reasignar la inversión.
Como pioneros, Planview se dio cuenta muy pronto de que, si realmente querían apoyarse en la IA, tendrían que establecer políticas y gobernanza para cubrir tanto lo que hacen internamente como lo que hacen para mejorar su oferta de productos. A partir de la experiencia de la empresa y de otros directores de sistemas de información, se pueden extraer cuatro lecciones para ayudar a las organizaciones a desarrollar su propio enfoque de la gobernanza de la IA.
Apoyarse en un marco existente
La gobernanza de la IA no difiere mucho de cualquier otra gobernanza. De hecho, según Mik Kersten, CTO de Planview, dado que la mayor parte de la política de IA se refiere a los datos, debería ser fácil aprovechar los marcos existentes. Planview tomó las directrices que ya estaban utilizando para el código abierto y la nube, y las adaptó a lo que necesitaban para la gobernanza de la IA.
Planview
Una organización muy diferente, la Universidad Estatal de Florida (FSU), desarrolló la gobernanza de la IA a partir del consejo de gobernanza de TI existente, que se reúne periódicamente para priorizar las inversiones y el riesgo. “Clasificamos las inversiones, tanto financieramente como en términos de valor e impacto en todo el campus”, dice Jonathan Fozard, CIO de la universidad. “Los proyectos de IA se convirtieron en parte de esa discusión y así es como construimos nuestra gobernanza de IA”.
Los casos de uso de la FSU van desde la investigación científica hasta la productividad de oficina, y enseñan IA como parte de los planes de estudio, desde ingeniería y derecho hasta todas las demás carreras en las que es probable que los estudiantes utilicen la IA cuando se incorporen a la fuerza de trabajo. Fozard afirma que equilibrar el coste y el riesgo con el valor añadido potencial es como ponerse a tambalearse. Durante la primera ronda de debates, algunos proyectos ocupan los primeros puestos. Entonces, el consejo empieza a examinar esos proyectos de alta prioridad para asegurarse de que pueden proteger todo lo que la universidad necesita proteger, incluida la propiedad intelectual, las aspiraciones de investigación, la privacidad de los usuarios y los datos sensibles.
Florida State University
“Tanto si estás en la enseñanza superior como en un entorno corporativo, céntrese primero en la producción”, dice Fozard. “Vaya más allá de la ostentación y piense en lo que quiere conseguir. Averigüe cómo puede utilizar la tecnología para permitir la innovación en todos los niveles de la organización. Después, asegúrese de proteger sus datos y a su gente”.
Dejar claro qué se hace internamente y dónde se colabora
“Tenemos que hacer una política muy clara sobre lo que construimos frente a lo que compramos”, dice Kersten. “Tengo equipos de IA y ciencia de datos bastante grandes, y nuestra organización de éxito del cliente quería que esos equipos construyeran capacidades de soporte al cliente. Pero necesitamos a esos expertos para desarrollar funciones de producto. Para mantenerlos en el trabajo principal, nuestra política deja claro lo que construimos y lo que compramos”.
Kersten cree que también es importante establecer una política clara sobre cómo se utiliza el código abierto. Planview optó por integrar modelos de código abierto sólo para casos de investigación y uso interno. En cuanto a las funciones que venden, la empresa se basa en LLM que tienen unas condiciones de uso claras. “Parte de nuestra política es asegurarnos de que las condiciones de uso del gran proveedor de modelos lingüísticos satisfacen nuestras necesidades de privacidad y cumplimiento”, afirma.
En un sector completamente diferente, Wall Street English, la academia internacional de inglés con sede en Hong Kong, desarrolló su propia pila de IA para lograr el dominio de una tecnología que consideran fundamental para su negocio. “Nos esforzamos por conseguir una innovación más rápida, mejores resultados y una gama de soluciones personalizadas que se ajusten perfectamente a las necesidades de estudiantes y profesores”, afirma Roberto Hortal, director de Producto y Tecnología de la empresa. “Mantenemos un enfoque proactivo. Parte de nuestra política consiste en estar al tanto de los últimos avances, las mejores prácticas y los riesgos potenciales”.
Wall Street English
Como organización educativa, Wall Street English integra la IA en sus programas de autoaprendizaje. La utilizan para el reconocimiento de voz con el fin de proporcionar información sobre la pronunciación, así como una base para los agentes de conversación que permiten a los estudiantes practicar habilidades conversacionales imitando escenarios de la vida real. La empresa estableció un marco de gobernanza que incluye no sólo consideraciones tecnológicas, financieras y jurídicas, sino también éticas en un entorno multicultural.
Proteger lo correcto en toda la cadena de valor
Dado que utiliza herramientas de generación de código, la gobernanza de la IA de Planview incluye normas y directrices que garantizan que no infringen los derechos de autor. También protege su propio software para que ninguna de las herramientas de generación de código lo recoja y reutilice en otro lugar. Kersten afirma que la gobernanza de IA de la empresa no sólo deja claros estos puntos, sino que también indica a los usuarios cómo configurar las herramientas.
“GitHub Copilot tiene un ajuste que comprueba que no te da código protegido por derechos de autor”, dice Kersten. “Otro ajuste hace que compruebe el código final para asegurarse de que no se parece demasiado a algo que haya en sus repositorios. También hay un ajuste para decirle a GitHub Copilot que no guarde tu código”.
Naturalmente, lo que hay que proteger depende de la línea de negocio. Mientras que Planview se preocupa por proteger la propiedad intelectual, Wall Street English tiene en cuenta las sensibilidades culturales. Adaptan el contenido de sus cursos para evitar ofender a los estudiantes, y sus herramientas de IA tienen que hacer lo mismo. “Del mismo modo que protegemos nuestras clases en línea con profesores formados para garantizar que no se diga nada inapropiado, debemos asegurarnos de que la IA evite expresar opiniones no intencionadas o contenido inapropiado”, afirma Hortal. “Empleamos técnicas como la desinfección de entradas, el rastreo contextual y el filtrado de contenidos para mitigar riesgos y vulnerabilidades. Todas estas cosas forman parte de nuestra gobernanza de la IA”.
Sea lo que sea lo que esté protegiendo, las reglas no deberían detenerse dentro de su propia organización. Hay que esforzarse por garantizar las mismas protecciones cuando se subcontrata el trabajo. “Algunas de las empresas más sofisticadas del mundo tienen una increíble estructura de gobierno de IA internamente”, dice Matt Kunkel, CEO de LogicGate, una compañía de software que proporciona una plataforma holística de gobierno, riesgo y cumplimiento (GRC). “Pero luego envían todos sus datos a terceros que los utilizan con sus grandes modelos lingüísticos. Si tus terceros no están de acuerdo con tus políticas de uso de la IA, entonces en ese punto, pierdes el control de la gobernanza de la IA”.
Empezar ahora
El consejo más común que proviene de los líderes de TI que ya han implementado la gobernanza de la IA es comenzar ahora. Desde el momento en que la dirección de TI empieza a trabajar en la gobernanza de la IA hasta que comunican las normas a toda su organización pueden pasar meses. Por ejemplo, Planview tardó unos seis meses desde que empezó a pensar en su política hasta que la puso a disposición de toda la empresa en su sistema de gestión del aprendizaje.
Como uno de los primeros en adoptar la IA, Kersten suele hablar públicamente de la experiencia de Planview. “Las organizaciones que esperan son las que se quedarán atrás”, afirma. “Pongan en marcha sus políticas ahora. No es tan difícil como cree. Y una vez que estén ahí, realmente ayudará tanto a cómo construyes las cosas internamente como a lo que ofreces al mercado externamente”.
LogicGate
Kunkel está de acuerdo. “Ya se están creando casos de uso en la sombra, por lo que es importante que los CIO controlen la política de IA lo antes posible”, afirma. “Un punto de partida es llegar a un consenso en torno al riesgo que la organización considera aceptable en relación con la IA. La gente necesita tener una conversación franca sobre el equilibrio que quieren lograr entre moverse rápido y proteger los datos de los clientes.”
Una vez desarrollada la gobernanza y comunicada a toda la organización, los empleados pueden centrarse en añadir valor.
Read More from This Article: Cuatro lecciones esenciales sobre la gobernanza de la IA
Source: News