Makinak ere matxistak dira

Bortizkeria sinbolikoa ikusten ez den biolentzia da. Emakumeen gutxiespenean edo ikusezintasunean adierazten da eta egunero topatzen dugu hedabideetan eta liburuetan. Bada hori baliabide informatikoetara ere hedatu da.

Copenhagueko Unibertsitateko eta beste unibertsitate batzuetako informatikoek, 3,5 milioi liburu on-line aztertu zituzten, ordenagailu berri bat erabilita. Helbura zein izenondo erabiltzen diren emakumeak eta gizonak deskribatzeko zen.

Miatutako liburu guztiak ingelesez argitaratu ziren, 1900 eta 2008ren artean eta denetarik zegoen, fikzioa eta saiakera. Ikerlariek zera ondorioztatu zuten: gizonak irudikatzeko euren portaera deskribatzen da. Emakumeen kasuan, aldiz, itxura fisikoan ipintzen da arreta.

Diskriminazioa konfirmatu da

Copenhagueko Unibertsitateak bere web orrian azaltzen duenez, ‘ederra’ eta ‘sexia’ dira emakumeei atxikitutako izenondo ohikoenak. Gizonak ‘justuak’, ‘arrazionalak’ eta ‘ausartak’ bezala agertzen dira. Informatikarien bozeramaile Isabelle Augensteinek azpimarratzen duenez, “pentsatzen genuena orain estadistikoki konfirmatu dugu”. Hau da, diskriminazioa zenbakien bidez frogatu da.

Ikertzaileek generoari lotutako izen eta horien ondoan zeuden izenondoak aztertu zituzten -adibidez, ‘hegazkineko zerbitzari sexia’ edo ‘neska berritsua’-. Baita hitzek kutxu positibo, negatibo edo neutroa zuten ere. Itxurarekin eta gorputzarekin lotutako aditz negatiboak emakumeengan gizonengan baino 5 bider gehiago erabiltzen direla ikusi zuten.

Augensteinen arabera, nahiz eta liburuak aspaldi publikatu ziren, aktibo daude gure bizitzan, giza lengoaia ulertzen duten aplikazioak eta makinak egiteko algoritmoak on-line dagoen material horretan oinarritzen dira eta. Teknologia horrek smartphonei ahotzak identifikatzeko eta google-i hitzen iradokizunak egiteko ahalmena ematen die.

Sistema informatikoek genero aurreiritziak erabiltzen dituzte

Ikertzaile horren ustez, adimen artifiziala eta lengoiaren teknologia nabarmenagoak egiten diren heinean, garrantzitsuagoa izango da hizkuntza sexistari erreparatzea. “Algoritmoek patroiak identifikatzen dituzte eta bat topatzen dutenean benetakoa dela ulertzen dute. Sistemek gure hizkuntza erabiltzen dute eta horrekin batera gure estereotipo eta genero aurreritziak”. Hori guztia kontuan izan behar da ikasteko ereduak garatzean, patroiak indargabetzeko, uste du Augesteinek.

Copenhagueko irakasleaz gain ikerketa honetan partide izan dira Lawrence Wolf-Sonkin (Google Research), Ryan Cotterell (Johns Hopkins eta Cambridge Unibertsitateak) Hanna Wallach (Massachusetts-Amherst Unibertsitatea eta Microsoft Research) eta Alexander Hoyle (Maryland Unibertsitatea).