Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

Entre la sostenibilidad y el riesgo: por qué los CIO se plantean modelos lingüísticos pequeños

Mientras GPT-4 supera la prueba de Turing, Microsoft impulsa su asistente de inteligencia artificial (IA) Copilot en los productos empresariales y Google anuncia la disponibilidad de la aplicación Gemini en los teléfonos móviles en Italia, los CIO estudian la tecnología de IA generativa para mantenerse al día, pero sin dejarse distraer ni por el entusiasmo tecnológico ni por las propuestas comerciales.

“La IA generativa puede aportar muchos beneficios, pero no puede adoptarse sin las consideraciones adecuadas”, afirma Massimo Carboni, CTO y responsable del departamento de infraestructuras de GARR, la red de banda ancha dedicada a la comunidad italiana de investigación y educación. “La expectación es muy fuerte, pero el riesgo de sobrestimar sus posibilidades es igualmente alto. En el mundo digital, debemos ser cada vez más prudentes, y el primer riesgo con la IA y la IA generativa es confiar demasiado”.

Por otra parte, Gartner estimó recientemente que el gasto empresarial mundial en tecnologías de IA generativa es poco importante. De un total de 5 billones de dólares de inversiones en TI previstas para este año, un 8% más que en 2023, la IA generativa no representará gran cosa. El gasto se verá impulsado, en cambio, por fuerzas más tradicionales como los servicios clásicos de TI, cuyo valor superará los 1,5 billones de dólares, lo que supone un aumento del 9,7% interanual.

En cambio, los grandes proveedores de servicios están multiplicando su gasto en tecnología para apoyar los proyectos de IA generativa y, en previsión de un próximo auge, los servidores de aplicaciones de IA representarán casi el 60% de la inversión total en servidores de hiperescalares en 2024. Sin embargo, las empresas son más prudentes. Gartner ve un ciclo de “historia, plan, ejecución” para la IA generativa, ya que se habló de ella en 2023, se planeó implementarla en 2024 y se proyectó ejecutarla en 2025.

La IA generativa bajo la lupa del CIO

Edoardo Esposito, CIO de inewa, miembro del Grupo Elevion, una ESE certificada activa en la generación de biogás y biometano y la eficiencia energética, se encuentra actualmente en la fase de planificación probando Copilot, ya que las TI de inewa están todas en sistemas Microsoft, y este producto de IA generativa se integra perfectamente con el paquete Office. Sus experimentos los lleva a cabo junto con otros directivos como el director financiero, el director jurídico y el director de relaciones institucionales y regulación.

“Estamos probando usos en finanzas, como el análisis financiero de ingresos y gastos“, dice Esposito. “Creo que ahí es donde están las mayores oportunidades. De momento no veo tan prometedor el uso en el ámbito jurídico, pero estamos intentando utilizar la IA generativa para gestionar contratos y estudiar leyes”.

Por supuesto, la IA no da asesoramiento jurídico, pero ayuda a navegar por la enorme cantidad de normas que se actualizan o cambian constantemente. “Incluso un simple resumen en viñetas de una nueva ley generado con IA para enviar a un ejecutivo para su revisión ayuda”, dice. “Al final, para nosotros como pequeña empresa, a 30 dólares al mes, es como tener una persona más en la oficina”.

Pero aunque no tiene reparos en automatizar tareas sencillas, Esposito no está convencido de que la IA generativa pueda automatizar por completo tareas complejas, entre otras preocupaciones. “Estos modelos no me parecen sostenibles. Tienen parámetros enormes y requieren mucha energía para entrenarlos“, afirma.

La insostenibilidad de la IA

Carboni también hace hincapié en lo intensiva que es la IA desde el punto de vista energético y cómo se suma a los ya elevados costes de la tecnología.

“Las TIC en el mundo representan el 9% de los costes totales de energía, o alrededor de 300.000 millones de dólares en 2023”, dice. “Esta cuota ha aumentado hasta un 60% en los últimos 10 años y está destinada a seguir creciendo”.

Luego está el problema de la formación, según Carboni. “La IA generativa está anulando el enfoque tradicional centrado en el ser humano“, afirma. “En lugar de que las personas formen a los modelos, que luego cambian la organización de la empresa, hoy son las personas las que tienen que adaptarse a los modelos que vienen del mercado. Esto representa un riesgo para mí. Cuanto más disminuyen los actores de la IA generativa, más se crea una dependencia y una pérdida de control por parte de las empresas”.

Además, añade Carboni, la IA corre el riesgo de limitar el funcionamiento de lo digital a unos pocos sujetos que determinan comportamientos y costes, porque el umbral de entrada a la IA generativa es alto y la mayoría de las empresas sólo pueden comprar servicios sin tener los conocimientos necesarios para distinguir las diferencias entre un producto y otro. Hay pocas opciones y el riesgo es la estandarización de los productos para todos. “Así que, en mi opinión, siempre es mejor seguir construyendo algo internamente”.

Empresas que compiten con las grandes tecnológicas

La competencia entre empresas es cada vez mayor y muchos, entre ellos Carboni, creen que la forma en que los grandes proveedores venden sus modelos es injusta en muchos aspectos, porque algunos actores del mercado tienen capacidades que otros no tienen.

“Empresas como Microsoft y Google tienen ecosistemas de productos, y este oligopolio que controla hasta el 80% del mercado de datos tiene una enorme ventaja sobre otras compañías”, afirma. “Las estrategias de las grandes tecnológicas también buscan incorporar startups que les permitan reforzar su dominio sobre los datos”. Así que es difícil pensar en nuevos participantes que puedan competir. Las startups que ofrecen productos alternativos existen, sin duda, y son una buena forma de desarrollar algoritmos, pero no son suficientes para tener éxito.

Para Carboni, esto no significa un fracaso de la IA generativa, sino un deseo de estudiarla a fondo y gobernarla. “Creo que la IA es muy relevante y trabajaremos en ella en GARR porque tenemos muchos datos que explotar”, añade. “La intención es derivar un modelo de IA generativa para definir mejor nuestra base de conocimientos interna. Actualmente no es pública, pero si quisiéramos exponerla, habría que desarrollarla para su lectura externa. Y para ello podríamos utilizar un pequeño modelo lingüístico (SLM, por sus siglas en inglés)“.

Los SLM: el CIO en busca de control

Los modelos lingüísticos pequeños son algoritmos de aprendizaje automático entrenados en conjuntos de datos mucho más pequeños y específicos que los LLM, los grandes modelos de aprendizaje profundo en los que se basan productos como GPT. Las pruebas iniciales demuestran que son más eficientes, menos costosos y más precisos en su tarea. De hecho, Esposito también sigue la evolución de los SLM y los considera mucho más prometedores para usos empresariales, y más sostenibles. Los grandes productos tienen una formación excelente, pero son genéricos, mientras que las empresas necesitan aplicaciones verticales.

“Utilizar grandes modelos de IA generativa a través de API para entrenar tus propios productos de IA generativa con tus propios datos requiere importantes recursos energéticos”, afirma Esposito. “Es como traer un colega digital a tu casa, pero un colega que cuesta mucho. Tienes que entrenarlo con la información específica de tu empresa y proporcionarle constantemente nuevos datos para mantenerlo actualizado. También hay que alimentarlo con mucha electricidad. Por eso no me fascinan los grandes modelos lingüísticos, pero los pequeños me parecen muy interesantes. Las empresas necesitan algo más específico y con menos riesgo de sesgos y violaciones de la privacidad”.

Por ejemplo, dice Esposito, TI puede aislar una tarea lingüística estrecha, tomar un SLM, ponerlo en su nube y darle acceso sólo a la base de datos de documentos corporativos. A partir de ahí, formula al modelo solo preguntas relacionadas con esos documentos.

“Por los primeros experimentos, parece que no solo se reduce el consumo de energía, sino también la probabilidad de alucinaciones“, afirma. “Al fin y al cabo, los modelos de IA de las empresas no tienen por qué saberlo todo, sino responder sólo a determinadas aplicaciones. Los SLM pueden seguir haciendo traducciones, realizar análisis de tendencias de mercado, automatizar el servicio de atención al cliente, gestionar tickets de TI, crear un asistente virtual empresarial y mucho más. Me parece más eficiente limitar el dominio y especializarlo, manteniéndolo bajo control de TI”.

Sopesando los negocios de IA generativa y los modelos pequeños

El control es clave. Alessandro Sperduti, director del Centro de Aumento de la Fundación Bruno Kessler (FBK), afirma que en IA corremos el riesgo de que las empresas privadas dominen. “En el pasado, los sistemas de IA más importantes del mundo se desarrollaban en las universidades, mientras que hoy no es así porque han surgido gigantes tecnológicos privados con un poder adquisitivo con el que lo público no puede competir”, afirma.

En la comunidad científica, de hecho, algunos preferirían una intervención política para que la IA volviera a estar bajo control, como ocurrió con la física de altas energías y la creación del CERN, el organismo que reúne a varios países para colaborar en la teoría y experimentación de la física de partículas. Pero otros investigadores no ven riesgos en la hegemonía de algunos actores privados, siempre y cuando los gobiernos regulen el uso de las herramientas de IA, como se ha hecho en la Unión Europea con la Ley de IA.

“La diferencia con lo ocurrido en el mundo de la física es que allí no hay grandes negocios, mientras que en la IA hay enormes beneficios”, afirma Sperduti. “Por eso empresas como Microsoft y Google compiten hoy ferozmente. Cada día leemos sobre nuevas metas alcanzadas que superan las anteriores. Las startups del sector existen, pero en comparación con otros sectores, son pocas porque las inversiones necesarias son enormes. No creo, por tanto, que puedan realmente amenazar el predominio de los actores actuales y crear una fuerte dinámica competitiva”.

En los modelos más pequeños, sin embargo, Sperduti destaca la presencia de sistemas de generación aumentada de recuperación (RAG), que utilizan LLM para responder a preguntas sobre documentos almacenados en bases de datos locales. De este modo, los documentos siguen siendo privados y no se ceden a la organización que proporciona el LLM. Los RAG dan a las empresas más control sobre los datos y cuestan menos.

“Pero tienen que gestionarse localmente”, subraya. “También se pueden utilizar localmente modelos lingüísticos de código abierto, que son más pequeños que los LLM pero tienen menor rendimiento, por lo que se pueden considerar SLM”.

En cuanto a la sostenibilidad de los costes, Sperduti afirma que los LLM son gestionados por las grandes tecnológicas como un servicio público, como si compráramos electricidad, mientras que tener un SLM significa mantener la turbina en casa para generar electricidad. “Por tanto, hay que hacer una evaluación económica”, dice. “Incluso podría ser favorable si el uso del modelo es intenso. Pero es una elección que debe hacerse tras un análisis minucioso, teniendo en cuenta el coste del modelo, su actualización, las personas que trabajan en él, etc”.

El CIO al timón: gobernanza y experiencia

Carboni también advierte de que si se opta por un SLM, la tarea de TI es mayor y la vida del CIO no se simplifica necesariamente.

“En los LLM, la mayor parte del trabajo con los datos se hace estadísticamente y luego TI entrena al modelo en temas específicos para corregir errores, dándole datos de calidad específicos”, dice. “Los SLM cuestan mucho menos y requieren menos datos, pero, precisamente por eso, el cálculo estadístico es menos eficaz y, por tanto, se necesitan datos de muy alta calidad, con un trabajo considerable de los científicos de datos. De lo contrario, con datos genéricos, el modelo corre el riesgo de producir muchos errores”.

Además, los SLM son tan prometedores e interesantes para las empresas que incluso las grandes tecnológicas los ofrecen y publicitan, como Gemma de Google y Phi-3 de Microsoft. Por eso, según Esposito, la gobernanza sigue siendo fundamental, dentro de un modelo que debe seguir siendo un sistema cerrado.

“Un SLM es más fácil de gestionar y se convierte en un activo importante para la empresa con el fin de extraer valor añadido de la IA”, afirma. “De lo contrario, con modelos grandes y sistemas abiertos, tienes que aceptar compartir información estratégica de la empresa con Google, Microsoft y OpenAI. Por eso prefiero trabajar con un integrador de sistemas que pueda desarrollar personalizaciones y ofrecer un sistema cerrado, para uso interno. No creo que sea prudente dejar que los empleados utilicen el producto de uso general introduciendo en él datos de la empresa, que también pueden ser sensibles. La gobernanza de los datos y la IA es esencial para las empresas“.

Igualmente importante es la competencia del CIO. “En mi trabajo, considero importante no solo evaluar el coste de acceso a un servicio, sino también mi capacidad para influir en un servicio”, dice Carboni. “El CIO debe construir su propio bagaje de conocimientos tecnológicos y dotarse de un equipo de personas capaces, incluida una buena parte de jóvenes, capaces de operar en contextos modernos, con tecnologías nativas de la nube. De este modo, el CIO no se limita a comprar un producto y esperar un rendimiento, sino que actúa e incide en ese producto o servicio”.

Así que el CIO sigue al timón. Sea cual sea la trayectoria de desarrollo de la IA generativa, es el responsable de TI quien debe decidir las orientaciones, las aplicaciones y los objetivos.


Read More from This Article: Entre la sostenibilidad y el riesgo: por qué los CIO se plantean modelos lingüísticos pequeños
Source: News

Category: NewsAugust 8, 2024
Tags: art

Post navigation

PreviousPrevious post:Qué hace falta para ganar tu primer rol como CIONextNext post:Ecco come i leader IT ripensano le strategie sul cloud per ottimizzarne il valore

Related posts

Barb Wixom and MIT CISR on managing data like a product
May 30, 2025
Avery Dennison takes culture-first approach to AI transformation
May 30, 2025
The agentic AI assist Stanford University cancer care staff needed
May 30, 2025
Los desafíos de la era de la ‘IA en todas partes’, a fondo en Data & AI Summit 2025
May 30, 2025
“AI 비서가 팀 단위로 지원하는 효과”···퍼플렉시티, AI 프로젝트 10분 완성 도구 ‘랩스’ 출시
May 30, 2025
“ROI는 어디에?” AI 도입을 재고하게 만드는 실패 사례
May 30, 2025
Recent Posts
  • Barb Wixom and MIT CISR on managing data like a product
  • Avery Dennison takes culture-first approach to AI transformation
  • The agentic AI assist Stanford University cancer care staff needed
  • Los desafíos de la era de la ‘IA en todas partes’, a fondo en Data & AI Summit 2025
  • “AI 비서가 팀 단위로 지원하는 효과”···퍼플렉시티, AI 프로젝트 10분 완성 도구 ‘랩스’ 출시
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.