El lanzamiento del DeepSeek, de fabricación china, ha generado un acalorado debate, aunque los críticos han ignorado en gran medida un enorme problema: la posibilidad de que China utilice un modelo de IA de este tipo para impulsar una agenda cultural y política en el resto del mundo.
DeepSeek ha suscitado preocupaciones sobre la ciberseguridad, la privacidad, la propiedad intelectual y otras cuestiones, pero a algunos expertos en IA también les preocupa su capacidad para difundir propaganda.
Cuando en enero la empresa Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co. dio a conocer el modelo de IA y el chatbot, lo concibió como una especie de enciclopedia para entrenar a la próxima generación de modelos de IA.
Por supuesto, los temores sobre el sesgo en la IA no son nada nuevos, aunque los ejemplos pasados a menudo parecen involuntarios.
Quienes plantean preocupaciones sobre DeepSeek reconocen que no es el único modelo de lenguaje extenso (LLM) de IA que probablemente sirva como herramienta de entrenamiento para futuros modelos, y que el gobierno chino probablemente no sea el único gobierno u organización que considere utilizar modelos de IA como herramientas de propaganda.
Pero la decisión de la empresa china de publicar su modelo de representación bajo la licencia MIT de código abierto puede convertirlo en un modelo atractivo para utilizarlo en el proceso de destilación para entrenar IA más pequeñas.
Destilación fácil
DeepSeek se creó para facilitar la destilación de otros modelos a partir de él, sugieren algunos expertos en IA. Las organizaciones que construyen modelos de IA más pequeños a bajo coste, incluidas muchas de países en desarrollo, pueden recurrir a una IA entrenada para difundir la visión del mundo del gobierno chino.
Hangzhou no respondió a una solicitud de comentarios sobre estas preocupaciones.
La empresa utilizó hardware barato para construir DeepSeek, y el coste relativamente bajo apunta a un futuro de desarrollo de la IA accesible para muchas organizaciones, afirma Dhaval Moogimane, líder de la práctica de Alta Tecnología y Software de la consultora empresarial West Monroe. “Lo que hizo DeepSeek, en cierto modo, es resaltar el arte de lo posible”, añade.
Hangzhou desarrolló DeepSeek a pesar de los controles de exportación de EE. UU. sobre chips de alto rendimiento que se utilizan habitualmente para diseñar y probar modelos de IA, lo que demuestra la rapidez con la que pueden surgir modelos avanzados de IA a pesar de los obstáculos, añade Adnan Masood, arquitecto jefe de IA de la empresa de transformación digital UST.
Con un menor coste de entrada, ahora es más fácil para las organizaciones crear potentes IA con sesgos culturales y políticos incorporados. “Sobre el terreno, esto implica que poblaciones enteras pueden consumir sin saberlo narrativas moldeadas por una máquina de política exterior”, afirma Masood. “Para cuando los responsables políticos se den cuenta, las narrativas pueden estar ya incrustadas en la psique pública”.
La tecnología como propaganda
Aunque pocas personas han hablado de los modelos de IA como herramientas de propaganda, no debería ser una gran sorpresa, añade Moogimane. Después de todo, muchas tecnologías, como la televisión, Internet y las redes sociales, se convirtieron en vías para impulsar agendas políticas y culturales a medida que llegaban al mercado de masas.
Los directores de informática y otros líderes de TI deben ser conscientes de la posibilidad de que el gobierno chino y otras organizaciones impulsen sus propias narrativas en los modelos de IA, afirma.
Con los modelos de entrenamiento de IA, “existe la oportunidad de que los modelos moldeen la narrativa, moldeen las mentes, moldeen los resultados, de muchas maneras, de lo que se comparte”, añade Moogimane.
La IA está emergiendo como una nueva herramienta para el llamado poder blando, señala, y es probable que China tome la iniciativa especialmente cuando la administración del presidente estadounidense Donald Trump recorte fondos, como la ayuda exterior y los medios de comunicación financiados por el Estado.
Si DeepSeek y otros modelos de IA restringen las referencias a incidentes históricamente delicados o reflejan opiniones aprobadas por el Estado sobre territorios en disputa —dos posibles sesgos incorporados en las IA—, esos modelos se convierten en agentes de cambio en los debates culturales mundiales, añade Masood.
“En los tiempos que vivimos, la IA se ha convertido en un multiplicador de fuerzas para el cumplimiento ideológico y la exportación de poder blando nacional”, afirma Masood. “Con los deepfakes y los chatbots automatizados que ya inundan el discurso público, está claro que la IA se está convirtiendo en una herramienta de liderazgo de gran impacto para el posicionamiento cultural y político”.
La IA ya está engañando a mucha gente cuando se utiliza para crear deepfakes y otros tipos de desinformación, pero el sesgo dentro de una herramienta de entrenamiento de IA puede ser aún más sutil, añade Moogimane.
“A fin de cuentas, asegurarse de que se están validando algunas de las influencias culturales y los resultados del modelo requerirá algunas pruebas y formación, pero eso va a ser un reto”, afirma.
Tenga cuidado al elegir modelos de IA
Moogimane recomienda que las organizaciones creen arquitecturas de IA modulares, para que puedan adoptar fácilmente nuevos modelos de IA a medida que se publiquen.
“A medida que avancen, estos modelos serán objeto de una innovación constante”, afirma. “Asegúrense de crear una arquitectura escalable, de modo que puedan sustituir los modelos con el tiempo”.
Además de construir una infraestructura de IA modular, los CIO también deben evaluar cuidadosamente las herramientas y los marcos de IA en cuanto a escalabilidad, seguridad, cumplimiento normativo y equidad antes de seleccionarlos, afirma Masood.
Los líderes de TI pueden utilizar marcos establecidos como el NIST AI Risk Management Framework, los Principios de IA de la OCDE o las directrices de IA fiable de la UE para evaluar la fiabilidad y transparencia de los modelos, afirma. Los CIO deben supervisar continuamente sus herramientas de IA y practicar una gobernanza responsable del ciclo de vida.
“Hacerlo garantiza que los sistemas de IA no solo aporten valor empresarial a través de ganancias de productividad y eficiencia, sino que también mantengan la confianza de las partes interesadas y defiendan los principios responsables de la IA”, añade Masood.
Los CIO y otros responsables de la toma de decisiones sobre IA deben pensar de forma crítica sobre los resultados de sus modelos de IA, al igual que los consumidores de redes sociales deben evaluar la precisión de la información que reciben, dice Stepan Solovev, director ejecutivo y cofundador de SOAX, proveedor de una plataforma de extracción de datos.
“Algunas personas intentan entender qué es verdad y qué no, pero otras simplemente consumen lo que obtienen y no se preocupan por verificar los hechos”, afirma. “Esta es la parte más preocupante de todas estas revoluciones tecnológicas: la gente no suele mirar críticamente, especialmente con la primera indicación que se introduce en la IA o con los primeros resultados del motor de búsqueda que se obtienen”.
En algunos casos, los líderes de TI no recurrirán a LLM como DeepSeek para entrenar herramientas especializadas de IA y, en su lugar, confiarán en modelos de IA más especializados, afirma. En esas situaciones, es menos probable que los usuarios de IA se encuentren con un modelo de entrenamiento con sesgos culturales.
Aun así, los CIO deberían comparar los resultados entre los modelos de IA o utilizar otros métodos para comprobar los resultados, sugiere.
“Si una IA difunde un mensaje sesgado, otra IA, o verificadores humanos de hechos aumentados por IA, pueden contrarrestarlo con la misma rapidez”, añade. “Vamos a ver una dinámica del gato y el ratón, pero con el tiempo creo que la verdad y la transparencia ganan, especialmente en un mercado abierto de ideas”.
La competencia como cura
Solovev ve el potencial de la IA para difundir propaganda, pero también cree que muchos usuarios de IA acudirán en masa a modelos que sean transparentes sobre los datos utilizados en el entrenamiento y proporcionen resultados imparciales. Sin embargo, algunos líderes de TI pueden verse tentados a priorizar los bajos costes sobre la transparencia y la precisión, afirma.
A medida que más modelos de IA inundan el mercado, Solovev prevé una enorme competencia en muchas características. “El reto es mantener esta competencia justa y garantizar que tanto las empresas como los particulares tengan acceso a múltiples modelos, para que puedan comparar”, afirma.
Al igual que Solovev, Manuj Aggarwal, fundador y director de Información del proveedor de soluciones de TI e IA TetraNoodle Technologies, ve un mercado de IA en rápida expansión como un remedio para el sesgo potencial de DeepSeek u otros LLM.
“Es muy poco probable que un modelo tenga una gran influencia en el mundo”, afirma. “DeepSeek es solo uno de los muchos modelos, y pronto veremos miles de ellos procedentes de todos los rincones del mundo. Ninguna IA puede dictar narrativas a gran escala cuando interactúan tantos sistemas diferentes”.
Desde el lanzamiento de DeepSeek, Mistral AI ha cambiado su modelo de IA a una licencia de código abierto, aunque modelos como Llama de Meta y Grok de xAI ya estaban disponibles como software de código abierto, señalan Aggarwal y otros expertos en IA.
Aun así, Aggarwal recomienda que los CIO que utilizan grandes LLM para entrenar sus propios modelos de IA caseros se queden con las marcas en las que confían.
“Desde la primera elección de [Barack] Obama, las campañas han confiado en el análisis basado en la IA para dirigirse a los votantes con precisión”, afirma. “Ahora, con modelos como DeepSeek, hay mucho más en juego. La cuestión no es si la IA se utilizará para la propaganda, sino cuánto control tendrán las diferentes entidades”.
Read More from This Article: La guerra cultural de la IA: los sesgos ocultos en los modelos de entrenamiento pueden impulsar la propaganda política
Source: News