Los prejuicios del algoritmo

“¿Creéis que un puente tiene ideología?” La ingeniera y directora de comunicación digital en la Universidad de Deusto, Lorena Fernández, interpeló así a las mujeres asistentes al V encuentro de Madejas contra la Violencia Machista y las retó a ir más allá de las ideas preconcebidas.

“Nada es neutro en tecnología”, sentenció después de explicar que cuando se desarrolló la zona de ocio y lujo de Long Island, próxima a Nueva York, los puentes que se construyeron para comunicar ambas áreas tenían un techo que limitaba la altura de los vehículos de modo que sólo pudieran circular por él vehículos privados y el transporte público quedara vetado. De ese modo, se seleccionaba el público que se quería atraer a ese polo emergente.

Lorena Fernández. FOTO: DEUSTO

Fernández trabaja para reducir el impacto de los sesgos de género en Inteligencia Artificial y ese fue el tema que trató en el encuentro, que ofreció intervenciones muy interesantes y reunió a numerosas mujeres, tanto en directo como online.

“A los algoritmos les hemos otorgado la falsa idea de que van a tomar mejores decisiones que los seres humanos”

Esta especialista quiso incidir en la violencia simbólica que representa la escasa presencia de mujeres en el mundo virtual y los estereotipos sexistas que éste reproduce. Los algoritmos u operaciones de cálculo que deciden lo que nos presentan en las pantallas de nuestros dispositivos tecnológicos no son tampoco, pues, algo neutro y, sin embargo, “les hemos otorgado la falsa idea de que van a tomar mejores decisiones que los seres humanos”.

A los algoritmos se les da información para que extraigan modelos y reglas. Pero, ¿quién suministra los datos? ¿Quién tiene acceso a las tecnologías? “Les ofrecemos un trozo pequeño machista de la realidad y les enseñamos que el mundo es así”.

Varón, caucásico, de clase media

La información de que disponen se asemeja a la vida misma, teniendo en cuenta que el usuario y el beneficiario principal es el varón, caucásico, de clase media, heterosexual y sin discapacidades. De modo que los sesgos que presenta la inteligencia artificial no son sólo de género, sino también de raza, de edad, de orientación sexual y de ubicación física. Y esa característica tiene amplias repercusiones en todos los ámbitos.

En el de la salud, por ejemplo, “los estilos de vida, la dieta, la actividad física o el consumo de tabaco y alcohol afectan de forma diferente a hombres y mujeres”. Si esto no se tiene en cuenta, se aplica a unas y otros el mismo patrón, como ya ocurre con las investigaciones y estudios clínicos.

Otros ejemplos son las cámaras de reconocimiento facial, que no tuvieron en cuenta el maquillaje, o los cinturones de seguridad, a cuyos inventores no se les ocurrió que una mujer embarazada pudiera ir al volante. También los asistentes de voz, que dotan a las voces masculinas de un estilo más asertivo.

Pioneras en inteligencia artificial

Y eso que fueron mujeres las pioneras de la inteligencia artificial con Ada Lovelace a la cabeza. Pero, explicó Fernández, como con tantas otras cosas de dominio femenino, en cuanto la tarea se volvió más creativa y se le dotó de más prestigio fuimos expulsadas de la primera línea.

Un capítulo aparte lo dedicó este experta al sistema VioGen de seguimiento de datos de violencia machista, utilizado por el Ministerio del Interior. Su función es evaluar el riesgo futuro de agresión en base a datos estadísticos.

Presenta muchas limitaciones. Según explicó, sólo recoge datos de denunciantes, a quienes se les somete a una batería de preguntas que, cuando están en una situación de máximo estrés, no están en condiciones de responder adecuadamente.

Por otra parte, señala índices bajísimos de riesgo (95% sin riesgo o riesgo bajo) que se reducen aún más cuando la persona que recoge los datos está muy ocupada. Además, no tiene en cuenta los prejuicios quien formula las preguntas.

“Quieren que desaparezcamos de las redes sociales pero no os marchéis porque los principales algoritmos recogen sus datos de ellas”

Sororidad y resistencia en las redes sociales

La violencia machista en las redes sociales es otra cuestión que preocupa a esta especialista, quien ve la necesidad de crear “madejas, redes de sororidad y resistencia” para evitar que el machismo nos eche del universo digital. “No os apaguéis -urgió-. Quieren que nos vayamos, que desaparezcamos y es importante que estemos ahí porque los principales algoritmos aprenden de lo que recogen en redes sociales y, si no estamos nosotras, el discurso va a ser el hegemónico del patriarcado”.

Por otra parte, las chicas, que no eran muchas, están dejando a un lado las carreras relacionadas con esta materia. En Ingeniería Informática, donde ellas eran el 30% en el curso 1985-86 suponen ahora sólo el 12,7%. “Las mujeres no trabajamos en inteligencia artificial pero sí en ética e inteligencia artificial”. No obstante, destacó que “hay grandes mujeres” en este campo, como Ana Freire, que está diseñando algoritmos que salvan vidas pues detectan problemas de salud mental en redes sociales.