La Asociación Española para la Digitalización, DigitalES, ha publicado el informe “Inteligencia Artificial y Ciberseguridad: recomendaciones para una implementación segura en las empresas”, en el constata el aumento acelerado de la adopción de inteligencia artificial (IA) en España y los riesgos de ciberseguridad que su expansión está generando en el tejido empresarial. El documento, que se presentará el próximo lunes en la CEOE, plantea un marco de actuación para reforzar la seguridad, la privacidad y el cumplimiento normativo en la implantación de soluciones basadas en IA.
La patronal tecnológica sitúa este informe en un contexto de crecimiento sin precedentes. A escala global, el 77% de las organizaciones ya utiliza o está explorando la integración de sistemas de IA. Sólo en España, el número de compañías que emplea estas tecnologías se duplicó entre 2022 y 2024, según datos de COTEC. Para DigitalES, este avance refleja la madurez digital del país, aunque también incrementa la superficie de ataque, especialmente en sectores intensivos en datos como retail, salud o servicios financieros.
Este crecimiento se acompaña de un aumento de los ciberataques dirigidos específicamente a modelos de IA. De hecho, el Informe de Amenazas de Ciberseguridad 2025 de Check Point expone que se han multiplicado por cinco desde 2023. Los atacantes aprovechan las vulnerabilidades propias de estos sistemas, como el prompt injection, el data poisoning o la manipulación de modelos para obtener respuestas comprometidas. A esto hay que sumar el impacto económico, que también crece. A modo de ejemplo, según el informe Cost of a Data Breach Report 2025, de IBM Security, el coste medio de una brecha de seguridad en IA alcanzó los 4,5 millones de euros en 2025, un 15% más que el año anterior.
El panorama en España muestra además un desafío particular: casi el 80% de las empresas declara haber sufrido incidentes relacionados con IA, mientras que solo el 27% de las pymes cuenta con una estrategia de ciberseguridad plenamente implementada. Para DigitalES, esta brecha exige medidas urgentes que permitan a las organizaciones adoptar la IA sin comprometer sus datos ni su operativa.
Ante este escenario, el informe propone un enfoque integral que combina medidas técnicas, cumplimiento normativo y cultura organizacional.
Miguel Sánchez Galindo, director general de DigitalES, “la inteligencia artificial es una palanca de innovación, pero sin ciberseguridad se convierte en un riesgo estratégico”.
El documento subraya la necesidad de aplicar el enfoque security by design durante todo el ciclo de vida de la IA —desde la recolección y procesado de datos hasta el despliegue de los modelos—, garantizando que la seguridad no sea un añadido, sino un elemento estructural de la tecnología.
En consecuencia, DigitalES recomienda implementar prácticas como la anonimización y el cifrado de datos, técnicas de privacidad diferencial para evitar sesgos y fugas, y la adopción de estándares internacionales como ISO/IEC 42001 para la gestión de sistemas de IA. Asimismo, aboga por realizar auditorías periódicas, pruebas de robustez frente a ataques y programas de formación para capacitar a los equipos en los riesgos emergentes de la IA.
El informe también detalla riesgos sectoriales. En retail, por ejemplo, la protección de datos en chatbots y asistentes inteligentes resulta crítica para cumplir con normativas como PCI DSS. En el sector salud, la anonimización de historiales clínicos y el estricto cumplimiento del RGPD son fundamentales para evitar la exposición indebida de información sensible. En grandes corporaciones, se enfatiza la segmentación de accesos, la detección de fraudes internos y la existencia de planes de respuesta ante incidentes centrados en amenazas específicas de IA.
Por otro lado, la patronal dedica un apartado destacado al auge de la IA generativa y los grandes modelos de lenguaje, cuya democratización está acelerando la adopción pero también ampliando el riesgo.
Tal y como explica Beatriz Arias, directora de Transformación Digital de la asociación, “en un contexto donde el 82% de los ataques se dirigen a modelos de lenguaje, la prevención no es opcional”. Para DigitalES, la trazabilidad, la explicabilidad y la estabilidad de los modelos serán claves para garantizar su uso responsable.
Como conclusión, Sánchez Galindo destaca que la confianza será determinante en el desarrollo de la IA en España y Europa. En su opinión, “una IA segura es también una IA sostenible, capaz de generar progreso económico, proteger los derechos de las personas y reforzar la resiliencia digital”.
Read More from This Article: DigitalES alerta de la escalada de riesgos en IA y propone un marco para una adopción empresarial segura
Source: News

