Según Gartner, un agente no tiene por qué ser un modelo de inteligencia artificial (IA). También puede ser un programa informático, otra entidad computacional o un robot. Cuando se combinan varios agentes independientes pero interactivos, cada uno capaz de percibir el entorno y emprender acciones, se obtiene un sistema multiagente.
Y, sí, las empresas ya los están desplegando. El Laboratorio de Propulsión a Chorro de la NASA, por ejemplo, utiliza sistemas multiagente para garantizar que sus salas limpias se mantengan limpias para que nada contamine el hardware de vuelo con destino a otros planetas.
A partir de 2018, la agencia utilizó agentes, en forma de ordenadores Raspberry PI que ejecutan redes neuronales de inspiración biológica y modelos de series temporales, como base de una red cooperativa de sensores.
“No se trataba de una sola medición de partículas”, dice Chris Mattmann, ex jefe de Tecnología e Innovación del JPL de la NASA. “Eran muchas mediciones a partir de las cuales los agentes decidían colectivamente si había demasiados contaminantes o no”.
Los anteriores sensores de última generación costaban decenas de miles de dólares, añade Mattmann, que ahora es director de Datos e IA de la UCLA. También tenían una sensibilidad de medición extrema. Pero un nuevo sistema multiagente tenía sensores que podían construirse por sólo cientos de dólares cada uno, aunque no eran tan sensibles como los más caros.
“Para compensar esa sensibilidad, tenían que trabajar juntos y compartir datos y conocimientos como lo haría un agente”, explica. Es un sistema que se sigue utilizando hoy en día. Pero la evolución de la IA implica que los sistemas de agentes se utilicen ahora para una mayor variedad de problemas. “El punto álgido es que, en lugar de basarse en reglas, estadísticas y umbrales, ahora estos sistemas están imbuidos de la potencia del aprendizaje profundo y el aprendizaje de refuerzo profundo que aportan las redes neuronales”, afirma Mattmann. “Los sistemas se alimentan de datos, se entrenan y mejoran con el tiempo por sí solos”.
Añadir IA más inteligente también añade riesgo, por supuesto. “Al menos con cosas como ChatGPT, DALL-E 3 y Midjourney, hay una interacción constante con los humanos”, dice, y añade que con la IA agéntica, hay potencial para la toma de decisiones autónoma. “El gran riesgo es que los humanos quedan fuera de juego cuando se les deja en libertad”.
Mientras tanto, la NASA no es la única que está desplegando estos primeros tipos de sistemas multiagente, ya que las empresas que se ocupan de operaciones y logística llevan años utilizando estas tecnologías.
“La noción de agentes es muy antigua”, confirma Anand Rao, profesor de Inteligencia Artificial de la Universidad Carnegie Mellon. “Yo trabajaba en sistemas multiagente en los años ochenta. Construíamos sistemas para el transbordador espacial, que era demasiado complejo para un solo sistema”. Con el tiempo, los agentes se han vuelto más independientes, dice, y actúan en función de metas y objetivos.
También está Hughes Network Systems, proveedor de comunicaciones por satélite y servicios gestionados, que lleva muchos años utilizando IA agéntica, dice Dan Rasmussen, vicepresidente senior y director general de la división Empresarial de Norteamérica de la empresa. Él y su equipo la utilizan para resolver problemas de degradación del servicio. “Alimentamos continuamente nuestros algoritmos con las estadísticas de la red y de los equipos de los clientes, lo que les permite adaptarse a las condiciones cambiantes e identificar anomalías”, afirma.
Explorar cuestiones relacionadas
Más recientemente, Hughes ha empezado a crear software para automatizar el despliegue de aplicaciones en Google Cloud Platform y crear canalizaciones CI/CD, al tiempo que genera código mediante agentes.
“Nuestro objetivo es analizar registros y métricas, conectándolos con el código fuente para obtener información sobre correcciones de código, vulnerabilidades, problemas de rendimiento y problemas de seguridad”, explica.
Hughes ya ha completado con éxito una prueba de concepto (PoC) para estos casos de uso y ahora los está convirtiendo en un producto.
La empresa también ha desarrollado sus propias herramientas internas de IA agéntica y utiliza distintos marcos agénticos para diferentes proyectos, como Microsoft AutoGen, y está explorando crewAI y LlamaIndex.
“Hughes utiliza estas herramientas para apoyar el funcionamiento de redes que dan servicio a más de un millón de nodos remotos”, afirma. Al principio, las herramientas se limitaban a hacer recomendaciones para que los humanos las revisaran y actuaran en consecuencia. “Después de observar este sistema durante unos meses”, prosigue, “Hughes permitió que el proceso se ejecutara automáticamente e informara de los cambios implementados. Utilizamos el mismo proceso de revisión para cualquier nueva mejora”.
Pero hay alarmas que se activan y detienen los comportamientos automatizados si el número de anomalías detectadas o las correcciones aplicadas van más allá de las normas estadísticas, para que la automatización no se desboque y afecte a la red.
Proliferación de la IA agéntica
Según una encuesta de Capgemini a 1.100 ejecutivos de grandes empresas, el 10% de las organizaciones ya utiliza agentes de IA, más de la mitad tiene previsto utilizarlos en el próximo año y el 82% tiene previsto integrarlos en los próximos tres años. Además, el 71% de los encuestados afirma que los agentes de IA aumentarán la automatización de sus flujos de trabajo, el 64% afirma que mejorarán el servicio y la satisfacción del cliente, y el 57% afirma que las posibles mejoras de productividad compensan los riesgos.
Además, de las empresas que tienen previsto utilizar agentes de IA, el mayor caso de uso fue en el desarrollo de software, para generar, evaluar y reescribir código, y el 75% dijo que tiene previsto utilizar agentes de IA de esta manera. Tiene sentido que el desarrollo sea el principal caso de uso de la IA con agentes, afirma Babak Hodjat, director de Tecnología de IA en Cognizant.
“La mayoría de los que trabajamos en IA somos ingenieros de software”, afirma. “Además, la ingeniería de software es más fácil de verificar, por lo que se pueden tener sistemas semisupervisados que comprueben el trabajo de los demás. Eso es lo primero que se está abordando”.
Más poder, más responsabilidad
El estudio de cine y televisión Legendary Entertainment tiene mucha propiedad intelectual que proteger, y utiliza agentes de IA, dice Dan Meacham, CISO de la empresa. “Aprovechamos la IA agéntica en varios verticales de nuestros programas de seguridad”, afirma. Por ejemplo, los agentes de IA utilizan inteligencia de código abierto para buscar filtraciones de películas y piratería en las redes sociales y la web oscura. Se negó a decir qué marcos específicos se utilizaron para construir los sistemas, pero dice que aprovecha una solución empresarial similar a OpenAI que permite algunas automatizaciones de procesos empresariales.
Sin embargo, cuando se trata de seguridad, la IA agéntica es un arma de doble filo con demasiados riesgos como para contarlos, afirma. “Esto nos quita el sueño”, afirma. Muchos de los riesgos son los mismos que los de la IA generativa en general, ya que es la IA genérica la que impulsa los sistemas agénticos. Eso significa que a Meacham le preocupa que se filtren contenidos y activos creativos a través de aplicaciones de IA y que la IA genere contenidos infractores.
Además, existe el riesgo de inyecciones de código malicioso, en las que el código se oculta dentro de documentos leídos por un agente de IA, y la IA ejecuta el código.
“Este vector de ataque no es nuevo, ya que se trata de un ataque clásico de inyección SQL o de procedimientos almacenados en bases de datos”, afirma Meacham. “Hay técnicas de mitigación emergentes que aprovechan patrones del tipo de prevención de pérdida de datos para limitar o excluir tipos de datos de ser aprendidos. Además, algunas soluciones emergentes afirman inspeccionar los conjuntos de instrucciones a medida que los módulos aprenden y crecen para ayudar a prevenir inyecciones, alucinaciones y código malicioso”. “Para el primer trimestre de 2025, deberíamos tener algunos competidores reales en la protección de la IA que sean algo más que las mejoras existentes de DLP y revisión de código colocadas delante o encima de los LLM”.
Sinclair Schuller, socio de EY, afirma que existen varias estrategias principales para proteger la IA multiagente, además de las barreras de protección ya establecidas para los modelos de IA genéricos subyacentes. Por ejemplo, un agente puede tener una personalidad determinada: “¿Es longevo o efímero? ¿Puede colaborar con otros agentes?”.
Los sistemas multiagente también pueden recurrir al consenso, pidiendo a agentes similares que evalúen el trabajo de los demás, o utilizar agentes adversarios para comprobar la respuesta original, crear otra distinta y comparar los dos resultados. Las empresas también tienen que pensar en cómo probarán estos sistemas para asegurarse de que funcionan según lo previsto. “Eso es lo más difícil”, afirma.
Los sistemas de agentes también pueden configurarse de forma que el alcance de lo que pueden hacer los agentes sea limitado, afirma, y hay que contar con humanos en el bucle. La aseguradora Aflac es una de las empresas que se asegura de que así sea para mantener la supervisión humana sobre la IA, en lugar de dejar que actúe de forma completamente autónoma. Esto significa mantener la participación humana, afirma Shelia Anderson, CIO, incluso cuando la empresa adopta un plan acelerado de creación de prototipos para proyectos de IA agéntica. Estos proyectos incluyen los que simplifican el servicio al cliente y optimizan los flujos de trabajo de los empleados. “Estamos adoptando el mismo enfoque con la IA agéntica que con la IA generativa y otras tecnologías emergentes”, afirma.
Esto significa que los proyectos se evalúan en función del riesgo que entrañan. Los casos de uso de bajo riesgo implican aplicaciones de back office o habilitación de procesos, y afectan a la forma en que las personas hacen su trabajo. Los riesgos medios son los que afectan a datos internos y usos internos. Y las iniciativas de riesgo alto implican a usuarios externos o datos protegidos.
El equipo de innovación de Aflac evalúa actualmente los casos de uso que explorará en las PoC a corto plazo. Esto implica la evaluación de varios modelos y plataformas para la IA agéntica, incluida la propia.
“Nuestra estrategia de IA de alto nivel nos está posicionando para una IA más específica, que podría incluir diferentes modelos y plataformas en función de cómo pretendamos aplicar la tecnología a la cadena de valor”, afirma Anderson.
Otro riesgo de la IA agéntica es que puede afectar potencialmente a los trabajadores humanos del bucle, ya que puede gestionar procesos empresariales más complejos.
“Considerar el impacto en los trabajadores y el aumento de su productividad es tanto una oportunidad como un riesgo”, añade. El plan es trasladar a los trabajadores del conocimiento a tareas de mayor valor, o utilizar la IA para ayudarles a tomar mejores decisiones y mejorar la experiencia del cliente. Así que, aunque Aflac está entusiasmada con las ventajas que la IA puede aportar en el futuro, “también seguimos centrados en apoyar a nuestros clientes con el toque personal que esperan y a menudo necesitan”.
La IA agéntica en sus primeras etapas
Aflac no es la única empresa que acaba de iniciar el viaje de la IA agéntica. Centric Consulting, por ejemplo, trabaja con una mediana empresa regional de seguros de propiedad y accidentes que utiliza dos proveedores diferentes para recopilar correos electrónicos de clientes relacionados con reclamaciones de seguros y procesar esos documentos.
La empresa pagaba medio millón al año en licencias, dice Joseph Ours, director de Soluciones de IA de Centric, y seguía habiendo mucho trabajo manual. Así que sustituir el proceso por un sistema agéntico podría ahorrar a la empresa en torno a un millón de dólares al año, por lo que merecía la pena invertir en costes de desarrollo en lugar de esperar a que alguno de los dos proveedores mejorara sus productos.
“Además, estos dos proveedores eran grandes y era poco probable que se compraran mutuamente, así que no ibas a conseguir sinergias”, afirma Ours.
Centric construyó entonces un marco agéntico personalizado, con un back-end agnóstico de LLM para los agentes. En la actualidad, la plataforma es compatible con OpenAI, OpenAI en Azure, Gemini de Google o Claude de Anthropic. Por ejemplo, el GPT-4o de OpenAI, que es multimodal, se utiliza para manejar documentos escaneados o imágenes como fotografías de daños. Y cuando un modelo de IA generativa sería excesivo, como desensamblar un correo electrónico en partes constituyentes o buscar números de póliza, la plataforma utiliza software o llamadas a funciones para gestionar las tareas en su lugar. El sistema ha superado la fase de prueba de concepto y ahora está en fase piloto.
“La prueba de concepto no incluía las barandillas de seguridad ni los detalles sobre la experiencia del cliente”, explica Ours. “Estamos trabajando para añadirlas. El objetivo es hacer una prueba piloto por fases. Queremos asegurarnos de que todo funciona como esperamos”.
Cuando el sistema entienda perfectamente lo que entra, lo que hay que hacer con ello y adónde tiene que ir, funcionará de forma autónoma, dice Ours. “Si en algún momento no entiende algo o no encuentra el registro adecuado, se pasa a la revisión manual”.
También habrá herramientas para capturar métricas de precisión y exactitud, y ayudar a protegerse contra la deriva, y se espera que el sistema esté en producción en el cuarto trimestre de este año, junto con la formación laboral y otra gestión del cambio.
“La IA es tan perturbadora como lo fue la revolución industrial para las sociedades agrícolas”, afirma Ours. “No deberíamos implantarla sin poner algunas herramientas, o la gente se va a resistir y se obtendrán resultados subóptimos”.
Atlantic Health System, una de las mayores redes sanitarias sin ánimo de lucro de Nueva Jersey, también ha empezado a construir un marco para aprovechar la IA agéntica como parte de su estrategia de automatización.
“Por ahora, estamos construyendo flujos de trabajo utilizando la generación aumentada de recuperación”, dice Sunil Dadlani, vicepresidente ejecutivo y director de Información y Transformación Digital de la compañía. Esto permite enriquecer las consultas LLM con contexto relevante.
“Empleamos PoCing agentic AI como una manera de ampliar el tipo de flujos de trabajo que pueden ser apoyados de una manera más flexible, pero centrado en la tarea”, añade.
La empresa también está explorando la posibilidad de utilizar la IA agéntica en ITSM.
“Vemos una gran oportunidad tanto en aprovechar la tecnología para mejorar nuestros procesos internos de TI, como en actuar como campo de pruebas para generar confianza en la tecnología tanto para nosotros como para el negocio”, afirma.
Para ello, Atlantic Health utiliza su propia plataforma interna de habilitación digital y está explorando LangChain para orquestar el flujo de datos entre los LLM junto con Amazon Bedrock. Esto podría ampliarse hasta convertirse en la base del marco de IA agéntica de la empresa.
“También estamos aprovechando Dialogflow con la plataforma Google Cloud, e iniciando conversaciones sobre cómo podríamos aprovechar Microsoft Bot Framework”, afirma.
El coste del progreso
La IA agenética ofrece muchas ventajas potenciales en la atención sanitaria, pero también introduce riesgos significativos que deben gestionarse cuidadosamente. Atlantic Health ya dispone de un marco para mantener la seguridad de su IA agéntica, que incluye prácticas de datos, seguridad robusta, supervisión humana y gobernanza transparente, combinadas con supervisión continua, pruebas, cumplimiento de los marcos legales y estructuras de responsabilidad. Pero los sistemas de IA agéntica están diseñados para funcionar con un cierto nivel de autonomía, afirma.
“La seguridad del paciente también está en peligro si la IA tiene problemas con casos complejos o retrasa intervenciones críticas”, afirma.
Incluso las grandes empresas tecnológicas están, en su mayoría, aún lejos de una adopción significativa. “Creemos que la IA agéntica multimodal es el futuro”, afirma Caiming Xiong, vicepresidente de investigación de IA e IA aplicada de Salesforce.
La IA multimodal significa que la IA de los agentes puede manejar algo más que texto. Ya existen plataformas de IA generativa que pueden manejar imágenes, audio e incluso vídeo. “Hay mucha información que no se puede describir sólo con texto”, afirma.
Pero los sistemas de IA multiagente aún están en fase experimental o se utilizan de forma muy limitada. Un caso de uso interno de la IA agéntica en Salesforce es el desarrollo de software. “Utilizamos nuestro propio modelo y el marco de trabajo que nosotros mismos construimos”, afirma Xiong. “Pero no creo que vayamos a sustituir a nuestros desarrolladores. No se puede confiar completamente en el código desarrollado por la IA, pero vamos a mejorar la productividad y la calidad, y los asistentes de codificación agéntica pueden ayudar a nuestros desarrolladores junior a ser más profesionales”.
También hay un marco de agentes que puede reunir información de distintas fuentes para responder preguntas, resolver problemas de los clientes o sugerir los siguientes pasos, dice. En este caso, los modelos back-end son GPT 4 y GPT 3.5 de OpenAI. Para mantener la IA agéntica en el buen camino, Salesforce está utilizando todas las barreras que ya tiene para la IA genérica.
“Analizamos todas las preguntas y respuestas”, afirma Xiong. “Analizamos la toxicidad, el sesgo, y buscamos la inyección rápida”.
Además, hay controles de seguridad y acceso para asegurarnos de que los agentes no intentan acceder a información que no deberían.
“También tenemos controles para asegurarnos de que su acción es algo que está autorizado a ejecutar”, afirma. “Tenemos esos componentes integrados en el marco del agente, para asegurarnos de que no está haciendo algo mal”.
Pero eso no significa que vaya a ser perfecto, así que hay supervisión humana incorporada. Por ejemplo, se puede pedir a un humano que confirme que una determinada acción debe ejecutarse.
“Y en la parte de desarrollo, tenemos equipos que hacen evaluaciones antes de que nada entre en producción”, dice.
Cualquier nuevo sistema tendrá que cumplir con los guardarraíles que Salesforce ha construido, confirma Juan Pérez, CIO de la compañía.
“Construimos toda una capa de confianza en nuestras soluciones de IA generativa”, dice Pérez. “Y tenemos una práctica de seguridad paraguas y una práctica de privacidad que guía todo lo que hacemos”. También hay un consejo de IA, añade, compuesto por personas de toda la empresa de los ámbitos legal, de privacidad, el grupo de uso ético de la IA, gente de datos, tecnólogos y usuarios empresariales.
Mientras tanto, también existe la posibilidad de que los sistemas multiagente sean más seguros que los modelos de IA genéricos monolíticos, afirma Xiong.
“Si tienes un solo sistema y te lo piratean, sería un desastre enorme para una empresa”, afirma. “Pero si tienes cien o mil agentes y uno de ellos es pirateado, no pasa nada”.
Además, cada agente puede optimizarse para sus tareas específicas. Si un LLM está optimizado para un propósito concreto, el rendimiento puede resentirse en otras áreas, pero con varios agentes, una tarea puede aislarse y mejorarse.
Agentes en producción
La mayoría de las empresas que despliegan agentes de IA no lo hacen como parte de un proceso completo de IA agéntica de extremo a extremo, afirma Craig Le Clair, analista de Forrester.
“Acabo de hablar con 30 bancos y empresas de inversión y todos dijeron lo mismo: ‘No estamos listos para dar todo un proceso a la IA generativa’”. En su lugar, dice, las empresas están añadiendo agentes de IA a los procesos centrales existentes donde todo el proceso está bajo el control de un agente de proceso tradicional. Por ejemplo, un proceso de negocio puede requerir la generación de un correo electrónico basado en cierta información, y la IA generativa puede utilizarse para crear un mensaje más personalizado, con otros agentes de IA recogiendo otras pequeñas piezas.
El nivel más avanzado de sistemas autónomos cerrados de extremo a extremo -el equivalente empresarial de un coche autoconducido- aún no ha llegado, afirma Le Clair. Pero algunas empresas dicen que se están acercando a ese punto. Indicium, una consultora de datos global con sedes en Nueva York y Brasil, es una empresa que ya cuenta con sistemas de IA agéntica en producción. Estos agentes de IA sirven tanto a usuarios internos como a clientes, afirma Daniel Avancini, director de Datos de la empresa.
Los agentes se utilizan para consultar y cruzar datos de diversas fuentes, como Moodle, GitHub, Bitbucket, wikis internos y el almacén de datos Snowflake de la empresa. Utilizan IA generativa para interpretar preguntas complejas e identificar las fuentes de datos más relevantes.
“Por ejemplo, uno de nuestros agentes puede extraer información de nuestra wiki interna, cruzarla con datos de nuestros repositorios de código y, a continuación, validarla con nuestros datos analíticos para ofrecer respuestas completas a las consultas empresariales”, explica. “Algunos de nuestros agentes más avanzados pueden realmente construir soluciones basadas en procesos existentes”.
Por ejemplo, un agente puede crear un grafo acíclico dirigido en Airflow a partir de una descripción de las necesidades de canalización de datos, lo que implica tareas complejas de varios pasos.
Otros agentes se encuentran aún en fases piloto, entre ellos uno que puede analizar repositorios de código y sugerir optimizaciones basadas en las mejores prácticas y en datos históricos de rendimiento.
El marco principal para construir estos agentes es LangChain, dice Avancini, e Indicium utiliza su componente LangGraph, que ofrece un control granular sobre los procesos de toma de decisiones de sus agentes.
“Podemos crear un gráfico en el que el agente analice primero la consulta del usuario, luego decida qué fuentes de datos consultar, ejecute las consultas necesarias y, por último, sintetice la información en una respuesta coherente”, explica. “En cada paso, podemos implementar puntos de decisión y opciones alternativas”.
Para alimentar estos agentes, dice Avancini, se prefieren los modelos OpenAI y Anthropic, pero la estrategia de despliegue es agnóstica de la nube. “Podemos implementar nuestros agentes en AWS, Azure o GCP, dependiendo de los requisitos específicos del proyecto”, dice. “Accedemos a estos modelos directamente a través de sus API o a través de servicios en la nube como AWS Bedrock o Azure OpenAI”.
Para el monitoreo y la observabilidad, la compañía utiliza LangSmith de LangChain, que permite a Indicium rastrear el rendimiento, identificar los cuellos de botella e iterar rápidamente.
“En algunos casos, particularmente para la creación rápida de prototipos o cuando trabajamos con partes interesadas menos técnicas, empleamos herramientas de desarrollo visual”, dice Avancini. “Azure AI Studio, por ejemplo, nos permite ensamblar agentes visualmente y luego exportar los resultados como código. Esto puede ser particularmente útil cuando estamos explorando nuevas arquitecturas de agentes o demostrando conceptos a los clientes”.
Para gestionar los requisitos de memoria de los sistemas de agentes, Indicium utiliza bases de datos vectoriales, como Pinecone.
“Estas bases de datos nos permiten almacenar y consultar de forma eficiente grandes cantidades de datos no estructurados, algo esencial para muchas de nuestras aplicaciones de IA”, afirma. “Para manejar documentos no estructurados, utilizamos herramientas como LlamaParse para ayudarnos a extraer información significativa de una variedad de formatos de documentos”.
Indicium también ha construido conectores personalizados para plataformas de mensajería populares, para que los agentes puedan interactuar mejor con los usuarios.
Read More from This Article: Los agentes de IA transformarán procesos y encararán riesgos
Source: News