Por tercer año consecutivo, el Thinkers360 AI Trust Index ha tomado el pulso a la opinión pública sobre la IA y, una vez más, sus resultados recuerdan a los CIO y CXO que la curva de innovación tecnológica sigue avanzando más rápido que la estructura ética y de gobernanza necesaria para sostenerla.
El índice de 2025 ofrece una visión crucial de la paradoja de la IA. La puntuación global del índice de confianza en la IA —que mide el nivel de preocupación en una escala de 100 (sin preocupación) a 400 (extremadamente preocupado)— se sitúa en 307. Esto no supone casi ningún cambio respecto a la puntuación de 2024 (308), lo que indica un estancamiento de la opinión tras el enorme salto en la preocupación, que pasó de 224 en 2023. Por lo tanto, nos encontramos en una rutina de confianza.
Un análisis más detallado revela una brecha crítica: los usuarios finales de la IA muestran un mayor nivel de preocupación (312) que los proveedores y profesionales de la IA (301). Los creadores son más optimistas que los beneficiarios. Esta brecha de percepción es la primera señal de alarma para cualquier CIO. Mientras que el 83% de los proveedores coincide en que los beneficios de la IA superan los riesgos, sólo el 65% de los usuarios finales comparte esa opinión. Esta disparidad constituye una auténtica crisis de confianza que las organizaciones deben abordar de forma directa.
Además, el 61% de los encuestados cree, en cierta medida o firmemente, en la posibilidad de una singularidad de la IA, en la que las máquinas superen la inteligencia humana y representen una amenaza. Aunque este escenario es terreno habitual de la ciencia ficción, las amenazas inmediatas y tangibles para las empresas —privacidad, responsabilidad y equidad— son las que requieren una atención urgente.
A partir del Índice de Confianza en la IA 2025, se derivan cuatro mandatos clave para que CIO y CXO transformen a sus organizaciones, pasando de ser observadores pasivos a líderes activos en la arquitectura de la confianza en la IA.
1. Priorizar los atributos de confianza del NIST que generan mayor preocupación
Los datos son claros sobre qué inquieta realmente a las personas. Al medir la preocupación en relación con los atributos del Marco de Gestión de Riesgos de IA del NIST, destacan tres áreas: la mejora de la privacidad (63%), la responsabilidad y la transparencia (61%), y la equidad mediante el control de los sesgos perjudiciales (59%). Todas ellas registran niveles elevados en las categorías de “muy preocupante” o “extremadamente preocupante”.
Por el contrario, atributos como la explicabilidad y la interpretabilidad (49%), así como la validez y la fiabilidad (53%), generan menor inquietud. Esto sugiere que, en términos generales, la población confía en que la tecnología funcione como se espera, pero duda de cómo se utiliza y se comporta.
Para el CIO, esto implica un cambio de enfoque: de métricas puramente funcionales a resultados éticos. Unos pocos puntos porcentuales adicionales de precisión no generan confianza. En el ámbito de la privacidad, la preocupación es especialmente profunda entre los usuarios finales (69%), frente a los proveedores (53%). Esta diferencia exige explicar de forma clara y concreta cómo se protege la privacidad, no sólo en términos generales, sino específicamente en el contexto de las tecnologías de IA.
2. Centrarse en el déficit de confianza en los escenarios públicos
La confianza en la IA no se distribuye de manera uniforme.
El índice revela que las mayores preocupaciones se concentran en los escenarios mediáticos (339) y personales (309). En cambio, la preocupación es menor —y, por tanto, la confianza mayor— en los entornos gubernamentales (291) y laborales (289).
Esta situación encierra una paradoja: los empleados suelen sentirse cómodos con la IA que respalda las operaciones internas de la empresa, pero muestran una profunda inquietud ante la IA que influye en su vida pública, en el acceso a la información o en los servicios civiles.
Como CIO, es fundamental reconocer que la baja confianza en la IA aplicada en el ámbito público acaba filtrándose en la empresa. Si clientes o empleados perciben un uso poco ético de la IA en los medios —a través de la desinformación o los sesgos— o en escenarios personales, como los delitos cibernéticos, ese escepticismo se trasladará inevitablemente a sistemas empresariales como el CRM o las plataformas de recursos humanos.
La recomendación es clara: aprovechar la confianza existente en el entorno laboral. Utilice la empresa como modelo de implementación responsable. Documente y comunique sus políticas internas de uso de la IA con una claridad excepcional y convierta esa transparencia en un factor diferenciador. Muestre a clientes y socios los estándares que aplica a su IA interna y, posteriormente, extrapólelos a sus productos y servicios externos.
3. Implantar una gobernanza y una transparencia específicas por sector
La confianza varía de forma significativa según el sector, un factor que los CIO deben integrar en sus modelos de gestión del riesgo.
Para los responsables tecnológicos de sectores altamente regulados, como el financiero o el sanitario, el mandato no es sólo mantener el nivel actual de rigor, sino elevarlo. El cumplimiento normativo existente debe entenderse como la base, no como el techo. El mercado penalizará duramente la primera infracción grave o incidente de sesgo, erosionando en cuestión de días una confianza construida durante años.
4. Cerrar la brecha de percepción mediante la confianza experiencial
La conclusión más relevante del índice de 2025 es la persistente diferencia de 11 puntos en el nivel general de preocupación entre proveedores y usuarios finales, así como la brecha de 18 puntos en el optimismo respecto a que los beneficios superan los riesgos. Se trata, ante todo, de un problema de comunicación centrado en las personas, no de una limitación técnica.
Es necesario dejar de decir a los usuarios finales que la IA es fiable y empezar a demostrárselo a través de experiencias tangibles. La confianza debe diseñarse desde el inicio, no añadirse como un elemento posterior.
El primer paso es implicar al cliente. Implemente programas de cocreación en los que usuarios finales y clientes —y no sólo los responsables de producto— participen en las fases de diseño y prueba de nuevas aplicaciones de IA. Si su base de clientes está preocupada por el sesgo, invítelos a colaborar en la obtención y anotación de datos de entrenamiento para garantizar la equidad.
Aunque, por lo general, no se recomiende la creación de nuevos cargos ejecutivos, puede considerarse la figura de un director de Ética en Inteligencia Artificial (CAIEO) o la identificación de un perfil interno adecuado para asumir esa función. El CIO necesita un socio en igualdad de condiciones que se centre exclusivamente en las consecuencias sociales y éticas de la IA. Este rol debe depender directamente de la alta dirección, garantizando que las decisiones éticas tengan el mismo peso que las relacionadas con la seguridad o la infraestructura.
El mandato de la innovación responsable
El Índice de Confianza en la IA de este año confirma que la revolución de la IA ha alcanzado un punto máximo de preocupación entre sus beneficiarios, y que dicha inquietud se concentra en las dimensiones humanas de la tecnología: gobernanza, ética y equidad.
Para el CIO, la misión es inequívoca. Ya no es únicamente el custodio de la pila tecnológica de la organización, sino el arquitecto principal de su confianza digital. Al abordar de forma directa las preocupaciones en torno a la privacidad y los sesgos, utilizar el entorno laboral como modelo de transparencia, adaptar la gobernanza al perfil de confianza de su sector y cerrar activamente la brecha de percepción entre usuarios y proveedores, podrá garantizar que su organización innove de manera responsable.
Read More from This Article: 4 mandatos para que los CIO salven la brecha de confianza en la IA
Source: News

