Sesgos de la IA en las minorías étnicas

Sesgos de la IA en las minorías étnicas.

22 de abril de 2025. Un nuevo estudio académico realizado por el profesor José Luis Bustelo Gracia, de la Universidad Isabel I, ha arrojado luz sobre un problema cada vez más preocupante en el desarrollo de tecnologías de inteligencia artificial: los sesgos raciales y de género en los sistemas de reconocimiento facial. La investigación, titulada "Sesgos de género y raciales en la IA: Implicaciones éticas y legales del reconocimiento facial", evidencia que estos algoritmos cometen más errores al identificar a mujeres de piel oscura, lo que podría derivar en consecuencias graves en contextos como la seguridad pública, el sistema judicial y la contratación laboral. Este artículo se publica en número 13 de la revista Derecho y Economía de la Integración, que dedica un especial al uso de la Inteligencia Artificial, que recoge su ponencia en la II Jornada sobre Derecho e Inteligencia Artificial de la Universidad Isabel I.

La tecnología no es neutra

“La tecnología no es neutra. Los algoritmos aprenden de datos que ya están impregnados de las desigualdades estructurales de nuestra sociedad”, advierte el profesor José Luis Bustelo, docente del Máster en Asesoría Jurídica de Empresas y el Grado en ADE de la Universidad Isabel I. El análisis del profesor se basa en pruebas realizadas sobre sistemas comerciales ampliamente utilizados, como los desarrollados por IBM, Microsoft y Face++, cuyos errores en la identificación facial fueron “significativamente más altos” en mujeres de minorías raciales que en hombres blancos.

Según el investigador, esta disparidad no solo representa un problema técnico, sino una amenaza para la equidad y los derechos civiles. “Estos errores no son fallos triviales. Cuando se aplican en procedimientos de vigilancia o en decisiones judiciales, pueden tener efectos devastadores en la vida de las personas afectadas”, afirma.

El profesor Bustelo también advierte que el marco legal actual, incluyendo normativas como el Reglamento General de Protección de Datos (GDPR), resulta insuficiente: “Las leyes actuales se centran en la protección de datos y la transparencia, pero no regulan adecuadamente los sesgos algorítmicos ni establecen medidas de rendición de cuentas eficaces”.

Implementación urgente de auditorías algorítmicas

El estudio propone la implementación urgente de auditorías algorítmicas dinámicas, mecanismos de supervisión externa y el reentrenamiento obligatorio de sistemas cuando se detecten sesgos. Además, subraya la importancia de diversificar los datos de entrenamiento y fomentar la inclusión en los equipos de desarrollo de IA.

No podemos permitir que la inteligencia artificial se convierta en una nueva forma de discriminación automatizada. Necesitamos marcos éticos y legales que garanticen que estas tecnologías trabajen a favor de la justicia, no en su contra”, concluye Bustelo.

Base científica del estudio

La investigación se basa en un enfoque metodológico mixto, que combina análisis cuantitativo sobre más de 2.500 imágenes con entrevistas a expertos en derecho tecnológico e inteligencia artificial. Los resultados refuerzan hallazgos previos de estudios internacionales como el de Joy Buolamwini y Timnit Gebru, y se suman a un llamado global a favor de una IA más justa, inclusiva y transparente.

Este estudio pone de manifiesto que el debate sobre los sesgos en la inteligencia artificial no es un problema lejano o exclusivo de Silicon Valley, sino una cuestión urgente que afecta a todas las sociedades que adoptan estas tecnologías sin el debido control.