Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

Diez formas de evitar las consecuencias de un uso sin control de la IA en las empresas

Como todo lo relacionado con la tecnología, la llamada ‘TI en la sombra’ o ‘shadow IT’, es decir, el uso de la tecnología por parte de los empleados sin que el área de TI tenga visibilidad y control sobre ello, también ha evolucionado. Ya no hablamos sólo de una aplicación SaaS (de software como servicio) que satisface una necesidad específica de un trabajador o de unos cuantos dispositivos BlackBerry personales que los comerciales introducen a hurtadillas para acceder a los archivos de trabajo sobre la marcha: en la actualidad, lo más probable es que las TI en la sombra impliquen el uso de la inteligencia artificial (IA), ya que los empleados prueban todo tipo de herramientas relacionadas con esta tecnología sin el conocimiento ni el beneplácito del departamento de TI.

El volumen de la ‘IA en la sombra’ es sorprendente, según un estudio de Cyberhaven, fabricante de software de protección de datos. Según su informe de primavera 2024 AI Adoption and Risk Report, el 74% del uso de ChatGPT en el trabajo se realiza a través de cuentas no corporativas; ocurre igual con Google Gemini en el 94% de los casos y con Bard en el 96%. En definitiva, la IA no autorizada por el área de TI está tragándose los datos corporativos, debido a que muchos empleados están introduciendo documentos legales, datos de recursos humanos, código fuente y otra información empresarial delicada en este tipo de herramientas de IA generativa sin control.

La IA en la sombra es prácticamente inevitable, afirma Arun Chandrasekaran, vicepresidente y analista de la firma de investigación Gartner. “Los trabajadores sienten curiosidad por las herramientas de IA, ya que las ven como una forma de descargarse de trabajo y aumentar la productividad. Otros quieren dominar su uso, con el fin de evitar ser desplazados por la tecnología. Y otros se sienten cómodos con la IA para tareas personales y ahora quieren la tecnología en el trabajo”.

¿Qué podría salir mal?

Esas razones parecen tener sentido, reconoce Chandrasekaran, pero no justifican los riesgos que la IA ‘en la sombra’ crea para la organización. “La mayoría de las organizaciones quieren evitar la ‘IA en la sombra’ porque los riesgos son enormes”, afirma. Por ejemplo, añade, hay muchas posibilidades de que se expongan datos confidenciales, y que los datos de propiedad puedan ayudar a un modelo de IA (sobre todo si es de código abierto) a ser más inteligente, ayudando así a los competidores que puedan utilizar el mismo modelo.

Al mismo tiempo, muchos trabajadores carecen de los conocimientos necesarios para utilizar la IA con eficacia, lo que aumenta aún más el nivel de riesgo. Es posible que no estén lo suficientemente capacitados para alimentar el modelo de IA con los datos adecuados para generar resultados de calidad; para incitar al modelo con las entradas correctas para producir resultados óptimos; y para verificar la exactitud de los resultados. Por ejemplo, los trabajadores pueden utilizar la IA generativa para crear código informático, pero no pueden comprobar de forma eficaz si hay problemas en ese código si no entienden su sintaxis o su lógica. “Eso podría ser muy perjudicial”, afirma Chandrasekaran.

Mientras tanto, la ‘IA en la sombra’ podría causar problemas entre la mano de obra, afirma, ya que los trabajadores que están utilizando subrepticiamente la IA podrían tener una ventaja injusta sobre aquellos empleados que no han incorporado este tipo de herramientas. “Todavía no es una tendencia dominante, pero es una preocupación que escuchamos en nuestras conversaciones [con líderes de organizaciones]”, dice Chandrasekaran.

Este uso sin control de la IA también podría plantear problemas legales. Por ejemplo, la IA no autorizada podría haber accedido ilegalmente a la propiedad intelectual de otros, dejando a la organización como responsable de la infracción. Podría introducir resultados sesgados que contravinieran las leyes antidiscriminación y las políticas de la empresa. O podría producir resultados con errores que se transmiten a los clientes. Todas estas situaciones podrían generar responsabilidades para la empresa, que tendría que responder de cualquier infracción o daño causado como consecuencia de ello.

De hecho, las organizaciones ya se enfrentan a consecuencias cuando fallan los sistemas de IA, como ocurrió con un tribunal canadiense que dictaminó el pasado mes de febrero que Air Canada era responsable de la información errónea proporcionada a un consumidor por su chatbot de IA. En ese caso, el chatbot era una pieza de tecnología autorizada, lo que, según los responsables de TI, demuestra que los riesgos ya son suficientemente altos para la tecnología que se emplea de forma oficial, así que ¿para qué añadir aún más desafíos?

Cómo evitar el desastre

Al igual que ocurría antaño con la gestión de las ‘TI en la sombra’, no existe una solución única que pueda evitar el uso de tecnologías de IA no autorizadas o las posibles consecuencias de su uso. Sin embargo, los CIO pueden adoptar varias estrategias para ayudar a eliminar su uso, prevenir desastres y limitar el radio de exposición si algo sale mal.

1. Establecer una política de uso aceptable de la IA

Un primer gran paso es trabajar con otros ejecutivos para crear una política de uso aceptable que describa cuándo, dónde y cómo se puede utilizar la IA y reiterar las prohibiciones generales de la organización contra el uso de tecnología que no haya sido aprobada por TI, dice David Kuo, director ejecutivo de cumplimiento de privacidad en Wells Fargo y miembro del Grupo de Trabajo de Tendencias Emergentes en la asociación de gobierno sin fines de lucro ISACA. Suena obvio, pero la mayoría de las organizaciones aún no lo tienen. Una encuesta de ISACA de marzo de 2024 a 3.270 profesionales de la confianza digital concluyó que solo el 15% de las organizaciones tienen políticas de IA (incluso cuando el 70% de los encuestados dijo que su personal usa IA y el 60% dijo que los empleados están usando IA generativa).

2. Crear conciencia sobre los riesgos y las consecuencias

Kuo reconoce los límites del paso 1: “Aunque se establezca una política de uso aceptable, la gente va a romper las reglas”. Hay que advertir, por tanto, qué puede ocurrir. “Tiene que haber más concienciación en toda la organización sobre los riesgos de la IA y los CIO tienen que ser más proactivos a la hora de explicar estos desafíos y difundirlos por toda la organización”, indica Sreekanth Menon, líder global de servicios de IA/ML en Genpact, una firma global de servicios y soluciones profesionales. “Hay que subrayar los riesgos asociados a la IA en general, así como los mayores desafíos que conlleva el uso no autorizado de la tecnología”.

Kuo añade: “No puede ser una formación única, y no puede limitarse a decir ‘No hagas esto’. Hay que educar a los trabajadores. Es necesario explicarles los problemas que pueden tener utilizando indebidamente la IA y las consecuencias de su mal comportamiento”.

3. Gestionar las expectativas

Aunque la adopción de la IA está aumentando rápidamente, la investigación muestra que los ejecutivos confían menos en aprovechar el poder de estas tecnologías inteligentes, señala Fawad Bajwa, responsable global de práctica de IA en Russell Reynolds Associates, una firma de asesoría de liderazgo. Bajwa cree que este descenso se debe en parte a la divergencia entre las expectativas de la IA y lo que realmente puede ofrecer.

Además, aconseja a los CIO que se informen sobre dónde, cuándo, cómo y hasta qué punto la IA puede aportar valor. “Tener esa alineación en toda la organización sobre lo que se quiere conseguir permitirá calibrar la confianza”, afirma. Eso, a su vez, podría evitar que los trabajadores busquen soluciones de IA por su cuenta con la esperanza de encontrar una panacea para todos sus problemas.

4. Revisar y reforzar los controles de acceso

Uno de los mayores riesgos en torno a la IA es la fuga de datos, dice Krishna Prasad, director de estrategia y CIO de UST, empresa de soluciones de transformación digital. Sin duda, ese riesgo existe en los despliegues planificados de IA, pero en esos casos los CIO pueden trabajar con compañeros de las áreas de negocio, datos y seguridad para mitigar los riesgos. Sin embargo, no tienen las mismas oportunidades de revisión y mitigación de riesgos cuando los trabajadores despliegan la IA sin su participación, lo que aumenta las posibilidades de que los datos sensibles queden expuestos.

Para ayudar a evitar estos escenarios, Prasad aconseja a los equipos de tecnología, datos y seguridad que revisen sus políticas y controles de acceso a datos, así como su programa general de prevención de pérdida de datos y capacidades de monitorización de estos para garantizar que sean lo suficientemente sólidos como para evitar fugas con despliegues de IA no autorizados.

5. Bloquear el acceso a las herramientas de IA

Otro paso que puede ayudar, dice Kuo, es poner en una lista negra las herramientas de IA, como ChatGPT de OpenAI, y disponer de una regla de firewall para evitar que se acceda a esas herramientas desde los sistemas de la empresa.

6. Conseguir aliados en el esfuerzo

Los CIO no deben ser los únicos que trabajen para evitar la IA en la sombra, afirma Kuo. Deben aliarse con otros directivos (a quienes les interesa proteger a la organización contra cualquier consecuencia negativa) para educar al personal sobre los riesgos de usar herramientas de IA que van en contra de las políticas oficiales de compra de TI y uso de IA. “Una mejor protección requiere un pueblo”, añade Kuo.

7. Crear una hoja de ruta de IA de TI que impulse las prioridades y estrategias de la organización

Los empleados normalmente adoptan tecnologías porque creen que pueden ayudarles a hacer mejor su trabajo, no lo hacen porque estén tratando de perjudicar a sus empleadores. Así que los CIO pueden reducir la demanda de IA no autorizada ofreciendo las capacidades de IA que mejor ayuden a los trabajadores a alcanzar las prioridades establecidas para sus funciones.

Bajwa dice que los CIO deben ver esto como una oportunidad para guiar a sus organizaciones hacia éxitos futuros mediante la elaboración de hojas de ruta de IA que no solo se alineen con las prioridades empresariales, sino que realmente den forma a las estrategias. “Este es un momento de redefinición empresarial”, afirma Bajwa.

8. El de TI no tiene que ser el “departamento del no”

Los expertos subrayan que los CIO (y los directivos de otras áreas) no pueden dar largas a la adopción de la IA porque perjudica la competitividad de la organización y aumenta las posibilidades de la ‘IA en la sombra’. Sin embargo, según Genpact y HFS Research, esto está ocurriendo en cierta medida en muchos lugares. Su informe de mayo de 2024 reveló que el 45% de las organizaciones han adoptado una postura de “esperar y observar” en lo que respecta a la IA generativa, mientras que el 23% niegan ser escépticos sobre esta tecnología.

“Limitar el uso de la IA es completamente contraproducente hoy en día”, afirma Prasad. En cambio, dice que los CIO deben habilitar las capacidades de IA que se ofrecen dentro de las plataformas que ya se utilizan en la empresa y capacitar a los trabajadores para que las usen.

9. Permitir que los trabajadores utilicen la IA como deseen

La encuesta de marzo de ISACA descubrió que el 80% de entrevistados cree que muchos puestos de trabajo cambiarán debido a la IA. “Si ese es el caso, dé a los trabajadores las herramientas para que usen la IA de forma que realicen las transformaciones necesarias para mejorar sus puestos de trabajo”, dice Beatriz Sanz Sáiz, líder global de datos e IA en EY Consulting. La portavoz aconseja a los CIO que proporcionen a los trabajadores de todas sus organizaciones (no sólo a los de TI) las herramientas y la formación necesarias para crear o cocrear con TI algunos de sus propios asistentes inteligentes. También aconseja a los CIO que construyan tecnología flexible para que puedan apoyar y habilitar rápidamente tales esfuerzos, así como pivotar a los nuevos grandes modelos de lenguaje (LLM, por sus siglas en inglés) y otros componentes inteligentes a medida que surjan las demandas de los trabajadores, lo que hace que los empleados sean más propensos a recurrir a TI (en lugar de fuentes externas) para crear soluciones.

10. Estar abierto a usos nuevos e innovadores

La IA no es nueva, pero el rápido ritmo de adopción está mostrando más de sus problemas y potenciales. Los CIO que quieran ayudar a sus organizaciones a aprovechar el potencial (sin todos los problemas) deben ser receptivos a las nuevas formas de utilizar la IA para que los empleados no sientan que tienen que hacerlo solos.

Bajwa ofrece un ejemplo en torno a las alucinaciones de la IA: sí, las alucinaciones han tenido una mala reputación casi universal, pero estas podrían ser útiles en espacios creativos como el marketing. “Las alucinaciones pueden aportar ideas en las que ninguno de nosotros había pensado antes”, afirma.

Los directores de sistemas de información que se muestren abiertos a estas posibilidades y establezcan las barreras adecuadas, como normas sobre el nivel de supervisión humana necesario, tendrán más probabilidades de que las áreas de TI participen en la innovación de la IA en lugar de ser excluidas de ella. ¿Y no es ese el objetivo?


Read More from This Article: Diez formas de evitar las consecuencias de un uso sin control de la IA en las empresas
Source: News

Category: NewsJuly 9, 2024
Tags: art

Post navigation

PreviousPrevious post:El Centro de IA de Granada arrancará en otoño de 2025 con contratos por un total de 36 millones de eurosNextNext post:El CIO Summit 2024 se mete de lleno en la era de la ‘IA en todas partes’

Related posts

휴먼컨설팅그룹, HR 솔루션 ‘휴넬’ 업그레이드 발표
May 9, 2025
Epicor expands AI offerings, launches new green initiative
May 9, 2025
MS도 합류··· 구글의 A2A 프로토콜, AI 에이전트 분야의 공용어 될까?
May 9, 2025
오픈AI, 아시아 4국에 데이터 레지던시 도입··· 한국 기업 데이터는 한국 서버에 저장
May 9, 2025
SAS supercharges Viya platform with AI agents, copilots, and synthetic data tools
May 8, 2025
IBM aims to set industry standard for enterprise AI with ITBench SaaS launch
May 8, 2025
Recent Posts
  • 휴먼컨설팅그룹, HR 솔루션 ‘휴넬’ 업그레이드 발표
  • Epicor expands AI offerings, launches new green initiative
  • MS도 합류··· 구글의 A2A 프로토콜, AI 에이전트 분야의 공용어 될까?
  • 오픈AI, 아시아 4국에 데이터 레지던시 도입··· 한국 기업 데이터는 한국 서버에 저장
  • SAS supercharges Viya platform with AI agents, copilots, and synthetic data tools
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.