jueves, 29 de agosto de 2019

Pico analizan las mujeres son hermosas y los hombres, racionales: la inteligencia artificial analizó 3,5 millones de libros y encontró prejuicios de género. Leer.

Picoteando el Espectáculo
Los calificativos positivos para una mujer se concentran en el aspecto físico: hermosa, adorable, casta, preciosa, fértil, bella, sexy, elegante, exquisita, vivaz y vibrante. Esos son los que más se repiten en las páginas de 3,5 millones de libros que abarcan más de un siglo de literatura en inglés. Los negativos, en cambio, permiten criticarla también en otros campos, enfocados, sin embargo, desde la perspectiva masculina: maltrecha, bruta, estéril, gruñona, amparada, angustiada, soltera, desnutrida, esquelética, resignada y quejosa.

En cambio —encontraron los sistemas de aprendizaje automático a los que alimentaron con esas obras, de ficción y no ficción, investigadores de la Universidad de Copenhague, Dinamarca— para los varones la adjetivación positiva está llena de valores morales, porque se sabe que un hombre puede ser feo como un oso y seguir siendo hermoso: en los libros son justos, sensatos, honrados, racionales, pacíficos, prodigiosos, valientes, primordiales, confiables, puros y honorables.

Ni en los positivos ni en los negativos que más se emplean se describe a un hombre por su belleza física: inadecuado, inestable, ilegal, inseparable, tosco, ocioso, desarmado, herido, intolerante, injusto y brutal son las palabras que se repiten para denostarlos en la literatura anglosajona desde 1900 a 2008, encontró el estudio que realizaron Alexander Hoyle e Isabelle Augenstein, del Departamento de Ciencias Informáticas de UC.

Si bien los estereotipos de género no son una novedad, el análisis que recurrió a un modelo de cálculo brindó un abundante detalle cuantitativo de su alcance. "Claramente vimos que las palabras que se emplean para las mujeres aluden mucho más a sus apariencias que las palabras utilizadas para los hombres", dijo Augenstein al presentar las conclusiones de la investigación en el encuentro anual de la Asociación de Lingüística Computacional.

"Pudimos confirmar una percepción generalizada, sólo que ahora en un nivel estadístico", agregó. Hasta el momento, los lingüistas contaban con conjuntos de datos mucho más reducidos a la hora de hablar de lenguaje sexista. A partir de este estudio, la verificación cuenta con una base mucho más sólida: 11.000 millones de palabras.

El trabajo de UC halló que los adjetivos negativos asociados al cuerpo o la apariencia física se usaban cinco veces más cuando se describía a las mujeres que a los hombres. Para referirse a varones, los libros destacaban características de comportamiento o personales.

"Los algoritmos identifican patrones", explicó Augenstein. "Cuando se observa uno, es porque se percibe que algo es 'verdadero'. Si alguno de esos patrones marca lenguaje sesgado, el resultado también será sesgado. El sistema adopta, digamos, el lenguaje que la gente usa, y por ende nuestros estereotipos y prejuicios de género".

Esto es muy importante en su campo, destacó: "Podemos tener esto en cuenta cuando desarrollamos modelos de aprendizaje automático, tanto al utilizar menos textos sesgados como al hacer que los modelos ignoren o contrarresten los prejuicios. Las tres cosas son posibles". De lo contrario, también la inteligencia artificial repetiría esos sesgos, explicó.

También dio otro ejemplo en un marco más amplio de la vida social : "Si el lenguaje que usamos para describir a hombres y mujeres difiere en las recomendaciones de empleo, influirá en la decisión de a quién se le ofrece un empleo cuando las empresas usen sistemas de inteligencia artificial para clasificar las solicitudes".
Fuente Infobae

No hay comentarios.:

Publicar un comentario