Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

LangBiTe, la herramienta que detecta prejuicios en desarrollos de IA

Los modelos de inteligencia artificial (IA) generativa como el popular chatbot de OpenAI, ChatGPT, se entrenan con una gran cantidad de datos que pueden inducir, consciente o inconscientemente, a diferentes sesgos dañinos o discriminatorios en sus respuestas. Investigadores de la Universitat Oberta de Catalunya (UOC) y de la Universidad de Luxemburgo han desarrollado LangBiTe, un programa de código abierto que evalúa si estos modelos están libres de sesgos y cumplen con las regulaciones vigentes sobre no discriminación.

“El objetivo de LangBiTe no es comercial, sino que aspira a servir como recurso útil tanto para creadores de herramientas de IA generativa como para perfiles de usuario no técnicos, contribuyendo a detectar y mitigar los sesgos de los modelos y ayudar, en definitiva, a tener mejores IA en el futuro”, explica Sergio Morales, investigador del grupo Systems, Software and Models del Internet Interdisciplinary Institute (IN3) de la UOC, cuyo trabajo de doctorado se basa en esta herramienta. El proyecto ha sido supervisado por el profesor de los Estudios de Informática, Multimedia y Telecomunicación e investigador líder del SOM Research Lab Robert Clarisó y por el investigador de la Universidad de Luxemburgo Jordi Cabot.

Más allá de la discriminación de género

LangBiTe se diferencia de otros programas similares por su alcance y, según los investigadores, se trata de la herramienta “más completa y detallada” que existe en la actualidad. “Anteriormente, la mayoría de los experimentos se centraban en la discriminación de género hombre-mujer, sin considerar otros aspectos éticos importantes o minorías vulnerables. Con LangBiTe hemos comprobado hasta qué punto algunos modelos de IA pueden responder a ciertas cuestiones de forma racista, desde un punto de vista político claramente parcial, o con connotaciones homófobas o tránsfobas“, explican.

Además, los investigadores señalan que, aunque en otros trabajos se han creado clasificaciones de modelos de IA respecto a varias dimensiones, su enfoque ético ha sido “demasiado superficial, sin detallar los aspectos específicos evaluados”.

Un programa flexible y adaptable

El nuevo programa permite analizar si una aplicación o herramienta que incorpora funciones basadas en modelos de IA se adapta a los requisitos éticos o comunidades de usuarios concretos de cada institución u organismo. “LangBiTe no prescribe ningún marco moral particular. Lo que es ético y lo que no lo es depende en gran medida del contexto y la cultura de la organización que desarrolla e incorpora características basadas en modelos generativos de IA en su producto. Por lo tanto, nuestro enfoque permite a los usuarios definir sus propias preocupaciones éticas y sus correspondientes criterios de evaluación para adaptar la evaluación del sesgo a su contexto cultural particular y al entorno regulatorio”, explican los investigadores.

Con este propósito, LangBiTe incluye bibliotecas con más de 300 prompts —instrucciones o preguntas que se utilizan para interaccionar con la IA— destinados a revelar sesgos en los modelos, cada uno de ellos especializado en una preocupación ética particular: edadismo, LGBTIQA-fobia, preferencias políticas, prejuicios religiosos, racismo, sexismo y xenofobia. “Cada uno de estos prompts tiene unas respuestas asociadas para poder valorar si la respuesta del modelo está sesgada”, sostienen. Además, también incluye plantillas de prompts que pueden modificarse, lo que permite al usuario ampliar y enriquecer la colección original con nuevas preguntas o preocupaciones éticas.

Mucho más que ChatGPT

Actualmente, LangBiTe proporciona acceso a los modelos propietarios de OpenAI (GPT-3.5, GPT-4) y otras decenas de modelos de IA generativa disponibles en Hugging Face y Replicate, que son plataformas que facilitan la interacción con gran variedad de modelos como los de Google y Meta. “Además, cualquier desarrollador interesado puede extender la plataforma LangBiTe para evaluar otros modelos, incluidos los suyos propios”, añade Morales.

El programa también permite comprobar en todo momento la diferencia entre respuestas de distintas versiones de un mismo modelo y entre modelos de distintos proveedores. “Por ejemplo, vimos que la versión disponible de ChatGPT 4 tenía una tasa de éxito de pruebas contra el sesgo de género del 97%, mayor a la obtenida por la versión disponible en aquel momento de ChatGPT 3.5, con un 42% de éxito. En esa misma fecha vimos que, para el modelo Flan-T5 de Google, cuanto mayor era el tamaño de este, menos sesgado se mostraba respecto a género, religión y nacionalidad”, recuerda el investigador.

Análisis multilingüe y multimedia

Los modelos de IA más populares nacieron a partir de contenido en inglés, pero gradualmente se están desarrollando iniciativas regionales con modelos entrenados en otros idiomas, como catalán o español. En esta línea, los investigadores de la UOC han incorporado la función de evaluar herramientas en distintos idiomas, lo que permite a los usuarios “detectar si un modelo muestra sesgos dependiendo del lenguaje empleado para sus consultas”, señala Morales.

Además, también están trabajando para ser capaces de analizar modelos que generan imágenes como Stable Diffusion, DALL·E y Midjourney. “La actual aplicación de estas herramientas va desde la elaboración de libros infantiles hasta el acompañamiento de noticias, lo que puede llevar a la propagación de estereotipos tergiversadores o dañinos, que obviamente la sociedad está interesada en erradicar. Esperamos que el futuro LangBiTe sea útil para detectar y apele a corregir cualquier tipo de sesgo presente en imágenes generadas por estos modelos”, destaca el investigador de la UOC.

Una herramienta para cumplir con la AI Act europea

Las características de esta herramienta pueden ayudar a cumplir con la reciente Ley de Inteligencia Artificial de la Unión Europea (EU AI Act), cuyo cometido es velar por que los nuevos sistemas con IA promuevan el acceso equitativo, la igualdad de género y la diversidad cultural, y que en ningún caso su uso comprometa los derechos de no discriminación estipulados por la Unión y las leyes nacionales de sus países miembros.

En este sentido, el programa ya ha sido adoptado por instituciones como el Luxembourg Institute of Science and Technology (LIST), que ha integrado LangBiTe para evaluar varios modelos de IA generativa populares.


Read More from This Article: LangBiTe, la herramienta que detecta prejuicios en desarrollos de IA
Source: News

Category: NewsDecember 11, 2024
Tags: art

Post navigation

PreviousPrevious post:The future of data: A 5-pillar approach to modern data managementNextNext post:Cost, security, and flexibility: the business case for open source gen AI

Related posts

휴먼컨설팅그룹, HR 솔루션 ‘휴넬’ 업그레이드 발표
May 9, 2025
Epicor expands AI offerings, launches new green initiative
May 9, 2025
MS도 합류··· 구글의 A2A 프로토콜, AI 에이전트 분야의 공용어 될까?
May 9, 2025
오픈AI, 아시아 4국에 데이터 레지던시 도입··· 한국 기업 데이터는 한국 서버에 저장
May 9, 2025
SAS supercharges Viya platform with AI agents, copilots, and synthetic data tools
May 8, 2025
IBM aims to set industry standard for enterprise AI with ITBench SaaS launch
May 8, 2025
Recent Posts
  • 휴먼컨설팅그룹, HR 솔루션 ‘휴넬’ 업그레이드 발표
  • Epicor expands AI offerings, launches new green initiative
  • MS도 합류··· 구글의 A2A 프로토콜, AI 에이전트 분야의 공용어 될까?
  • 오픈AI, 아시아 4국에 데이터 레지던시 도입··· 한국 기업 데이터는 한국 서버에 저장
  • SAS supercharges Viya platform with AI agents, copilots, and synthetic data tools
Recent Comments
    Archives
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.