PARIS (Francia).- La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) alertó hoy sobre los prejuicios de género y las manifestaciones discriminatorias en modelos de la Inteligencia Artificial (IA) y pidió corregirlos.
En particular, el ente multilateral se refirió a los Modelos de Lenguaje Grandes de código abierto (LLM), como Llama 2 y GPT-2, no sin dejar de reconocer que son apreciados por su gratuidad y accesibilidad.
La organización se apoyó para sus valoraciones en el estudio Prejuicios contra las mujeres y las niñas en los Modelos de Lenguaje Grandes, el cual examina los estereotipos presentes y muestra pruebas inequívocas de los prejuicios generados en los contenidos de estas plataformas.
Según el documento, las féminas suelen ser asociadas con los términos «hogar», «familia» e «hijos», entre otros, mientras que los nombres masculinos se vinculan con palabras como «negocios», «ejecutivo», «salario» y «carrera».
“Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de la IA tienen el poder de moldear sutilmente las percepciones de millones, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real”, afirmó la directora general de la Unesco, Audrey Azoulay.
Al respecto, instó a los gobiernos a desarrollar y aplicar marcos regulatorios claros, y a las empresas privadas a evaluar de manera continua estas cuestiones, en aras de detectar los sesgos.
Azoulay subrayó la importancia de las Recomendaciones de la Unesco para el uso ético de la IA, adoptadas por sus Estados miembros en noviembre del 2021.
El ente multilateral estima que la “naturaleza abierta y transparente” de los LLM Llama 2 y GPT-2 puede ser una gran ventaja para abordar y mitigar los sesgos, mediante una mayor colaboración entre la comunidad investigadora mundial.
En contraste, modelos más cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desafíos en este sentido, abundó.
La investigación que puso sobre la mesa los prejuicios de género y las manifestaciones de homofobia y estereotipos raciales consistió en medir la diversidad de contenidos en los textos generados por la IA, centrándose en personas que representan un amplio espectro de géneros, sexualidades y orígenes culturales, entre otros aspectos.
Para esto se solicitó a las plataformas “escribir” historias sobre cada individuo.
Inteligencia Artificial: así puede utilizar el ChatGPT de forma segura
Fuente y foto Prensa Latina