Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

ChatGPT, más allá de la productividad

La inteligencia artificial es la tecnología de moda en los entornos corporativos. Según un reciente estudio de Salesforce, entre noviembre de 2024 y junio de 2025 se ha incrementado el uso diario de IA en trabajos de oficina en un 233%. Seis de cada diez dicen utilizar IA tradicional, mientras que el 40% utilizan agentes. Entre quienes emplean diariamente estas herramientas ha mejorado la productividad en un 64% y la satisfacción con su empleo en un 81%. El informe añade que no solo se está automatizando tareas, sino que se está utilizando para realizar otras labores para las que antes no se contaba con las habilidades necesarias. Incluso se está evaluando si podría tener más implicaciones: otro estudio, este de Jabra y The Happiness Research Institute, plantea que, más allá de la satisfacción laboral o la mejora en los resultados, hay también un incremento en las oportunidades de crecimiento laboral, de aprendizaje y desarrollo profesional.

Lo positivo de estas cifras no siempre revela las faltas detrás de su aplicación. De acuerdo a un informe de GAD3 para Planeta Formación y Universidades, aunque un 93% de participantes en España decía conocer alguna herramienta de IA, solo la mitad las utilizaba en entornos laborales, mientras que dos de cada tres lo hacían a nivel personal. Esto revela una falta de competencias profesionales indicativa de un problema mayor: solo una de cada diez personas decía haber sido formada en su empresa para su utilización. Emplear ChatGPT —o la herramienta que sea— sin unas nociones básicas de cómo hacerlo, de los riesgos o problemas que puede haber en su uso, puede llevar a situaciones que van desde contenidos incorrectos o inapropiados al mal uso de los datos corporativos, pasando por un problema reputacional para toda la compañía.

IA en la sombra

“Muchos empleados acceden de forma independiente a herramientas de IA generativa a través de navegadores o aplicaciones de terceros, a menudo eludiendo la supervisión de TI”, explica Corey Nachreiner, CSO de WatchGuard Technologies. “Esto genera riesgos de shadow IT —o un nuevo riesgo de shadow AI— y brechas de visibilidad para los equipos de seguridad”.Nachreiner cita varios de los casos de uso más habituales: investigación de temas en general, redacción de correos electrónicos, lluvia de ideas o redacción de textos, programación, resumen de documentos y automatización de tareas. “Sin embargo, algunos usuarios pueden incluir de forma no intencionada o por desconocimiento datos corporativos sensibles en sus prompts, o incluso fragmentos de código interno al utilizar generación de código con IA, o confiar en el código generado por IA sin una validación de seguridad adicional. Esto supone tanto un riesgo de filtración de datos corporativos como otros riesgos de seguridad”, incide. Más allá de la posibilidad de robo de información y la ampliación de la superficie de amenazas, el uso no controlado de estas herramientas puede llevar a problemas en el cumplimiento de las distintas normativas aplicables a entornos corporativos, como el RGPD, NIS2 o DORA; y a una menor capacidad de control sobre los activos de la compañía. “TI pierde la capacidad de aplicar la gobernanza y de hacer seguimiento del uso”.

“La falta de supervisión podría impactar en la gestión IT, con consecuencias importantes en el plano legal, ético, operativo y de ciberseguridad para la empresa”, considera Chabe Alcantarilla, CIO de Correos

Para evitar esto, en Correos cuentan con un entorno de trabajo altamente controlado que impide el uso de software no corporativo, como explica su CIO, Chabe Alcantarilla. “Nuestros sistemas de navegación segura proporcionan visibilidad sobre el uso de recursos externos no autorizados”, lo que incluye herramientas de IA. “Desde la dirección de IT se ha gestionado de manera temprana la llegada de la inteligencia artificial. Contar con plataformas tecnológicas para la monitorización y el control del riesgo en el endpoint ha facilitado la detección anticipada del uso incipiente de recursos de IA, lo que permitió tomar decisiones antes de que se produjera una utilización masiva y sin control”, profundiza. Entre las medidas puestas en marcha para paliar la problemática, el organismo apostó por la realización de estudios y monitorizaciones, junto con el despliegue de herramientas tecnológicas específicas y la formación y concienciación del personal.

En el caso de la empresa Damm, la compañía basa su estrategia en “un uso responsable y supervisado de herramientas de IA generativa”, como define su CISO, Ester Valverde. “En Damm tenemos la voluntad de ofrecer a todas los/las empleados/as las herramientas necesarias para desempeñar las funciones de su puesto de trabajo de manera eficiente y segura, minimizando así el uso indebido de aplicaciones no autorizadas en la compañía”. La cervecera ha integrado Copilot para favorecer un entorno seguro, en el que se garantice la protección de la información corporativa, y cuenta con un programa de formación y concienciación en ciberseguridad, que refuerce “la seguridad y la confianza en nuestras soluciones tecnológicas internas”. Además de los riesgos citados por Nachreiner, Valverde y Alcantarilla suman la problemática de que se dupliquen herramientas o procesos, lo que puede llevar a incompatibilidades y falta de soporte.

La CIO de Correos habla, también, de costes ocultos o ineficiencias operativas. “La falta de supervisión podría impactar en la gestión IT, con consecuencias importantes en el plano legal, ético, operativo y de ciberseguridad para la empresa”.  “Sin supervisión, la IA deja de ser un aliado estratégico para convertirse en un riesgo crítico”, añade Nachreiner. “La clave está en establecer políticas claras, controles de acceso, auditoría continua y soluciones de seguridad que unifiquen la protección de datos, identidades y aplicaciones”.

Corey Nachreiner, CSO de WatchGuard Technologies, “sin supervisión, la IA deja de ser un aliado estratégico para convertirse en un riesgo crítico”

Controlando el uso en la sombra de IA

Tanto Nachreiner como Valverde y Alcantarilla coinciden que una de las claves para evitar problemas en el empleo de herramientas inteligentes es el diseño de una política clara de IA, en la que se le explique a la plantilla bien cuándo y cómo utilizarla. “Como mínimo, no deberían poder compartir datos corporativos sensibles con herramientas de IA públicas y gratuitas que puedan recopilar esa información a cambio de su uso sin coste”, incide el CSO de Watchguard.

“En última instancia, la responsabilidad de garantizar la calidad y fiabilidad del trabajo recae en cada individuo”, opina Ester Valverde, CISO de Damm

Suministrar plataformas seguras y aprobadas o usar controles técnicos para monitorizar y bloquear el resto de herramientas forman parte esencial de esa estrategia. “La gestión de este tema no resulta sencilla”, comparte Alcantarilla. “En nuestra organización, tras identificar un uso incipiente de la inteligencia artificial, decidimos abordarlo desde diversas perspectivas y hemos obtenido resultados satisfactorios”, resume, planteando una estrategia similar: definición de políticas claras sobre el uso de IA, creación de un catálogo de herramientas aprobadas, monitoreo para la detección temprana de conductas de riesgo y capacitación y sensibilización del personal.

Este último punto resulta esencial, en tanto el factor menos predecible suele ser el factor humano. En esta línea, Valverde completa: “Es fundamental que cualquier respuesta generada por IA sea revisada y supervisada por la propia persona, aplicando su conocimiento y criterio profesional. En última instancia, la responsabilidad de garantizar la calidad y fiabilidad del trabajo recae en cada individuo, ya que se puede ver afectada la reputación corporativa”, apunta. “En Damm integramos la IA en los procesos de negocio de forma controlada, permitiendo que aporte valor sin comprometer la seguridad de nuestro entorno”. “En WatchGuard, defendemos un enfoque equilibrado que pasa por aprovechar la innovación mientras protegemos los activos críticos”, añade Nachreiner. “La IA generativa puede ser una herramienta poderosa, pero sin una supervisión adecuada se convierte en una responsabilidad”.


Read More from This Article: ChatGPT, más allá de la productividad
Source: News

Category: NewsOctober 2, 2025
Tags: art

Post navigation

PreviousPrevious post:Growth and resiliency: Diane Schwarz redefines the CIO roleNextNext post:서울 AI 허브, 캐나다 AI 연구소 밀라와 글로벌 공동연구 성과 공개

Related posts

Authentication in the age of AI spoofing
November 14, 2025
10 reasons computer science degrees must change for the AI era
November 14, 2025
A CIO’s roadmap to fix America’s least connected city
November 14, 2025
Los líderes europeos en TI aumentarán el gasto en nubes locales en medio de las preocupaciones geopolíticas
November 14, 2025
에이전틱 AI, 신뢰 부족이 가장 큰 걸림돌로 떠오르다
November 14, 2025
기업 보안의 새 변수 ‘MCP 서버’···CISO가 파악해야 할 주요 플랫폼 18개와 주요 위협
November 14, 2025
Recent Posts
  • Authentication in the age of AI spoofing
  • 10 reasons computer science degrees must change for the AI era
  • A CIO’s roadmap to fix America’s least connected city
  • Los líderes europeos en TI aumentarán el gasto en nubes locales en medio de las preocupaciones geopolíticas
  • 에이전틱 AI, 신뢰 부족이 가장 큰 걸림돌로 떠오르다
Recent Comments
    Archives
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.