En Cloud Next 2025, Google anunció varias actualizaciones que podrían ayudar a los directores de sistemas de información (CIO, por sus siglas en inglés) a adoptar y escalar agentes, al tiempo que reducen la complejidad y los costes de integración.
El evento se centró en proporcionar a las empresas una plataforma optimizada para la IA y marcos abiertos que hacen interoperables a los agentes.
Durante su discurso de una hora y cuarenta minutos, Thomas Kurian, director ejecutivo de Google Cloud, presentó actualizaciones sobre la mayoría de las ofertas de la empresa, incluidos nuevos grandes modelos de lenguaje (LGM), un nuevo chip acelerador de IA, nuevos marcos de código abierto en torno a los agentes y actualizaciones de sus análisis de datos, bases de datos y herramientas y servicios de productividad, entre otros.
Optimizaciones de coste-rendimiento a través de un nuevo chip
Una de las principales actualizaciones anunciadas la semana pasada fue el chip de séptima generación de la unidad de procesamiento Tensor (TPU) de Google, Ironwood, destinado a acelerar las cargas de trabajo de IA, especialmente la inferencia.
Con la nueva TPU, Google dijo que quiere ofrecer un mejor rendimiento por vatio por dólar que cualquier TPU que haya lanzado anteriormente y esta es una buena noticia para los directores de sistemas de información, ya que a menudo tienen que hacer más con menos o con recursos limitados.
Los CIO se ven presionados para acomodar el aumento exponencial de las cargas de trabajo de inferencia dentro de sus presupuestos, impulsado por la adopción de LLM para ejecutar aplicaciones impulsadas por IA generativa.
“Ironwood aporta mejoras de rendimiento para grandes cargas de trabajo de IA, pero lo que es igualmente importante, refleja el movimiento de Google para reducir su dependencia de Nvidia, un cambio que importa a medida que los CIO se enfrentan a problemas de suministro de hardware y al aumento de los costes de las GPU. En conjunto, estas herramientas tienen como objetivo hacer que la IA empresarial sea más práctica de implementar, escalar y gestionar”, dijo Kaustubh K, director de Prácticas de Everest Group.
Las cargas de trabajo de inferencia también experimentarán otro aumento de crecimiento con la adopción de la IA agéntica, que emplea agentes digitales para completar tareas sin intervención manual, ya que los LLM comenzarán a razonar de forma proactiva antes de tomar medidas para completar una tarea o solicitud de un usuario.
Resolver el problema de DevOps agencial con marcos abiertos
La semana pasada, Google también anunció nuevos marcos abiertos (el kit de desarrollo de agentes, ADK, y el protocolo Agent2Agent, A2A) para ayudar a las empresas a crear, gestionar y conectar múltiples agentes, incluso en diferentes ecosistemas.
Mientras que el ADK se centra en ayudar a los equipos de desarrollo a crear un agente de IA más rápido y con menos complejidad, aunque con suficientes controles para gestionarlo, el protocolo A2A tiene como objetivo ayudar a las empresas a conectar agentes creados en diferentes ecosistemas o plataformas de proveedores.
Los analistas creen que los marcos serán una bendición para los directores de informática y ayudarán a resolver los desafíos relacionados con la creación de agentes o aplicaciones de agentes.
“Google está redefiniendo silenciosamente la gestión del ciclo de vida de los agentes, ya que está destinado a convertirse en la próxima frontera de DevOps. Va a ser enorme para las TI, ya que DevOps de agentes va a ser uno de los mayores nuevos dolores de cabeza operativos para las empresas en el futuro”, dijo Dion Hinchcliffe, jefe de la Práctica de CIO en The Futurum Group.
“La gran jugada estratégica es estandarizar cómo un equipo de desarrolladores en una versión empresarial los supervisa, asegura y retira a través de nubes híbridas, y Google es el primer hiperescalar en enmarcar eso de manera coherente”, añadió Hinchcliffe.
Kaustubh, de Everest Group, dijo que los CIO pueden encontrar práctico el énfasis de Google en los estándares abiertos y las opciones de implementación híbrida, especialmente para integrar la IA en entornos existentes.
“Estas características ofrecen flexibilidad sin requerir grandes cambios de plataforma, lo que podría ser atractivo para una adopción gradual o específica para cada caso de uso”, añadió Kaustubh.
Al explicar con más detalle en qué se diferencia la estrategia de Google de la de sus rivales, como AWS y Microsoft, Hinchcliffe dijo que, mientras Microsoft se está optimizando para la “IA como capa de UX” y AWS se está anclando en los “primitivos”, Google está forjando un término medio: una arquitectura agentica lista para desarrolladores, pero escalable para empresas.
“Esta estrategia podría suponer una verdadera diferenciación para los CIO que desean agentes interoperables, observables y gobernados por la empresa, y no solo bots de chat atornillados a software como servicio”, añadió Hinchcliffe.
Mientras que Microsoft ofrece capacidades de creación de agentes a través de Copilot Studio y Azure Studio dentro de Azure AI Foundry, AWS ofrece capacidades de creación de agentes a través de Amazon Bedrock.
LLM más pequeños y otras actualizaciones
En Cloud Next 2025, Google también presentó LLM especializados para vídeo, audio e imágenes en forma de Veo 2, Chirp 3 e Imagen 3.
Según los analistas, estos LLM especializados podrían ayudar a las empresas a lograr una mayor precisión en las tareas relacionadas con la generación de vídeo, audio e imágenes, al tiempo que reducen los costes en cierta medida.
Los LLM especializados y las variantes Gemini más pequeñas y rápidas abordan directamente la optimización de la relación coste-rendimiento, una cuestión sin resolver en la ampliación de la IA empresarial, según Hinchcliffe.
“Para los CIO, estas actualizaciones hacen más realista la integración de los LLM en dispositivos periféricos, almacenes de datos privados o aplicaciones verticalizadas sin gastar de más”, dijo Hinchcliffe.
Para las empresas con productividad, Google actualizó la semana pasada su suite de productividad con nuevos agentes a través de Google Workspace e introdujo nuevos agentes CES.
Sin embargo, Hinchcliffe dijo que el valor real de estas actualizaciones para cualquier CIO radica en el hecho de que estos agentes o actualizaciones ayudan a cerrar la brecha entre la automatización de tareas empresariales y los flujos de trabajo de IA estructurados y gobernables.
“Esto es algo que la mayoría de los proveedores pasan por alto en su demostración de nuevas capacidades”, dijo Hinchcliffe. Otras actualizaciones que Google anunció incluyeron una serie de actualizaciones de análisis de datos, bases de datos, redes de trabajo y seguridad, junto con un nuevo Centro de Diseño de Aplicaciones.
Read More from This Article: Cloud Next 2025: las innovaciones en IA de Google que los CIO deberían conocer
Source: News