Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

4 mandatos para que los CIO salven la brecha de confianza en la IA

Por tercer año consecutivo, el Thinkers360 AI Trust Index ha tomado el pulso a la opinión pública sobre la IA y, una vez más, sus resultados recuerdan a los CIO y CXO que la curva de innovación tecnológica sigue avanzando más rápido que la estructura ética y de gobernanza necesaria para sostenerla.

El índice de 2025 ofrece una visión crucial de la paradoja de la IA. La puntuación global del índice de confianza en la IA —que mide el nivel de preocupación en una escala de 100 (sin preocupación) a 400 (extremadamente preocupado)— se sitúa en 307. Esto no supone casi ningún cambio respecto a la puntuación de 2024 (308), lo que indica un estancamiento de la opinión tras el enorme salto en la preocupación, que pasó de 224 en 2023. Por lo tanto, nos encontramos en una rutina de confianza.

Un análisis más detallado revela una brecha crítica: los usuarios finales de la IA muestran un mayor nivel de preocupación (312) que los proveedores y profesionales de la IA (301). Los creadores son más optimistas que los beneficiarios. Esta brecha de percepción es la primera señal de alarma para cualquier CIO. Mientras que el 83% de los proveedores coincide en que los beneficios de la IA superan los riesgos, sólo el 65% de los usuarios finales comparte esa opinión. Esta disparidad constituye una auténtica crisis de confianza que las organizaciones deben abordar de forma directa.

Además, el 61% de los encuestados cree, en cierta medida o firmemente, en la posibilidad de una singularidad de la IA, en la que las máquinas superen la inteligencia humana y representen una amenaza. Aunque este escenario es terreno habitual de la ciencia ficción, las amenazas inmediatas y tangibles para las empresas —privacidad, responsabilidad y equidad— son las que requieren una atención urgente.

A partir del Índice de Confianza en la IA 2025, se derivan cuatro mandatos clave para que CIO y CXO transformen a sus organizaciones, pasando de ser observadores pasivos a líderes activos en la arquitectura de la confianza en la IA.

1. Priorizar los atributos de confianza del NIST que generan mayor preocupación

Los datos son claros sobre qué inquieta realmente a las personas. Al medir la preocupación en relación con los atributos del Marco de Gestión de Riesgos de IA del NIST, destacan tres áreas: la mejora de la privacidad (63%), la responsabilidad y la transparencia (61%), y la equidad mediante el control de los sesgos perjudiciales (59%). Todas ellas registran niveles elevados en las categorías de “muy preocupante” o “extremadamente preocupante”.

Por el contrario, atributos como la explicabilidad y la interpretabilidad (49%), así como la validez y la fiabilidad (53%), generan menor inquietud. Esto sugiere que, en términos generales, la población confía en que la tecnología funcione como se espera, pero duda de cómo se utiliza y se comporta.

Para el CIO, esto implica un cambio de enfoque: de métricas puramente funcionales a resultados éticos. Unos pocos puntos porcentuales adicionales de precisión no generan confianza. En el ámbito de la privacidad, la preocupación es especialmente profunda entre los usuarios finales (69%), frente a los proveedores (53%). Esta diferencia exige explicar de forma clara y concreta cómo se protege la privacidad, no sólo en términos generales, sino específicamente en el contexto de las tecnologías de IA.

2. Centrarse en el déficit de confianza en los escenarios públicos

La confianza en la IA no se distribuye de manera uniforme.

El índice revela que las mayores preocupaciones se concentran en los escenarios mediáticos (339) y personales (309). En cambio, la preocupación es menor —y, por tanto, la confianza mayor— en los entornos gubernamentales (291) y laborales (289).

Esta situación encierra una paradoja: los empleados suelen sentirse cómodos con la IA que respalda las operaciones internas de la empresa, pero muestran una profunda inquietud ante la IA que influye en su vida pública, en el acceso a la información o en los servicios civiles.

Como CIO, es fundamental reconocer que la baja confianza en la IA aplicada en el ámbito público acaba filtrándose en la empresa. Si clientes o empleados perciben un uso poco ético de la IA en los medios —a través de la desinformación o los sesgos— o en escenarios personales, como los delitos cibernéticos, ese escepticismo se trasladará inevitablemente a sistemas empresariales como el CRM o las plataformas de recursos humanos.

La recomendación es clara: aprovechar la confianza existente en el entorno laboral. Utilice la empresa como modelo de implementación responsable. Documente y comunique sus políticas internas de uso de la IA con una claridad excepcional y convierta esa transparencia en un factor diferenciador. Muestre a clientes y socios los estándares que aplica a su IA interna y, posteriormente, extrapólelos a sus productos y servicios externos.

3. Implantar una gobernanza y una transparencia específicas por sector

La confianza varía de forma significativa según el sector, un factor que los CIO deben integrar en sus modelos de gestión del riesgo.

Para los responsables tecnológicos de sectores altamente regulados, como el financiero o el sanitario, el mandato no es sólo mantener el nivel actual de rigor, sino elevarlo. El cumplimiento normativo existente debe entenderse como la base, no como el techo. El mercado penalizará duramente la primera infracción grave o incidente de sesgo, erosionando en cuestión de días una confianza construida durante años.

4. Cerrar la brecha de percepción mediante la confianza experiencial

La conclusión más relevante del índice de 2025 es la persistente diferencia de 11 puntos en el nivel general de preocupación entre proveedores y usuarios finales, así como la brecha de 18 puntos en el optimismo respecto a que los beneficios superan los riesgos. Se trata, ante todo, de un problema de comunicación centrado en las personas, no de una limitación técnica.

Es necesario dejar de decir a los usuarios finales que la IA es fiable y empezar a demostrárselo a través de experiencias tangibles. La confianza debe diseñarse desde el inicio, no añadirse como un elemento posterior.

El primer paso es implicar al cliente. Implemente programas de cocreación en los que usuarios finales y clientes —y no sólo los responsables de producto— participen en las fases de diseño y prueba de nuevas aplicaciones de IA. Si su base de clientes está preocupada por el sesgo, invítelos a colaborar en la obtención y anotación de datos de entrenamiento para garantizar la equidad.

Aunque, por lo general, no se recomiende la creación de nuevos cargos ejecutivos, puede considerarse la figura de un director de Ética en Inteligencia Artificial (CAIEO) o la identificación de un perfil interno adecuado para asumir esa función. El CIO necesita un socio en igualdad de condiciones que se centre exclusivamente en las consecuencias sociales y éticas de la IA. Este rol debe depender directamente de la alta dirección, garantizando que las decisiones éticas tengan el mismo peso que las relacionadas con la seguridad o la infraestructura.

El mandato de la innovación responsable

El Índice de Confianza en la IA de este año confirma que la revolución de la IA ha alcanzado un punto máximo de preocupación entre sus beneficiarios, y que dicha inquietud se concentra en las dimensiones humanas de la tecnología: gobernanza, ética y equidad.

Para el CIO, la misión es inequívoca. Ya no es únicamente el custodio de la pila tecnológica de la organización, sino el arquitecto principal de su confianza digital. Al abordar de forma directa las preocupaciones en torno a la privacidad y los sesgos, utilizar el entorno laboral como modelo de transparencia, adaptar la gobernanza al perfil de confianza de su sector y cerrar activamente la brecha de percepción entre usuarios y proveedores, podrá garantizar que su organización innove de manera responsable.


Read More from This Article: 4 mandatos para que los CIO salven la brecha de confianza en la IA
Source: News

Category: NewsDecember 26, 2025
Tags: art

Post navigation

PreviousPrevious post:Digitalizar y cooperar para… saber y poder cuidar o curarNextNext post:When scaling AI means foundational reform

Related posts

샤오미, MIT 라이선스 ‘미모 V2.5’ 공개···장시간 실행 AI 에이전트 시장 겨냥
April 29, 2026
SAS makes AI governance the centerpiece of its agent strategy
April 29, 2026
The boardroom divide: Why cyber resilience is a cultural asset
April 28, 2026
Samsung Galaxy AI for business: Productivity meets security
April 28, 2026
Startup tackles knowledge graphs to improve AI accuracy
April 28, 2026
AI won’t fix your data problems. Data engineering will
April 28, 2026
Recent Posts
  • 샤오미, MIT 라이선스 ‘미모 V2.5’ 공개···장시간 실행 AI 에이전트 시장 겨냥
  • SAS makes AI governance the centerpiece of its agent strategy
  • The boardroom divide: Why cyber resilience is a cultural asset
  • Samsung Galaxy AI for business: Productivity meets security
  • Startup tackles knowledge graphs to improve AI accuracy
Recent Comments
    Archives
    • April 2026
    • March 2026
    • February 2026
    • January 2026
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.