IA i bretxa de gènere: estem creant el futur o reprogramant el passat?

'La tecnologia no té gènere. La mirada que la construeix, sí. Triem-ne una que no deixi ningú enrere'

Si no eduquem els algoritmes en la igualtat, estem programant el passat en el nostre futur. La intel·ligència artificial no és neutra. Tot i el relat d'objectivitat que l'envolta, la IA reflecteix –i accelera– els biaixos de la societat que la crea. Si no eduquem els algoritmes en la igualtat, no estem innovant: estem codificant el passat en el nostre futur.

El problema té tres dimensions clares.

  1. Dades esbiaixades. Els algoritmes aprenen de la història. I la nostra història és desigual. Quan els conjunts de dades reprodueixen discriminacions prèvies, la IA les legitima amb aparença de decisió tècnica: dones descartades en processos de selecció, pitjors condicions de crèdit, menys visibilitat professional. No és una anomalia; és una herència.
  2. Disseny excloent. Només el 22% de les persones que desenvolupen IA són dones. Això vol dir que el món que s'està construint incorpora una mirada parcial. Quan falta diversitat a qui dissenya, falten preguntes, usos i solucions per a la meitat de la població.
  3. Estereotips programats. Per què les assistents que "obeeixen" tenen veu femenina (Siri, Alexa) i els sistemes de decisió adopten noms i identitats masculines? No és casualitat. És la traducció digital d'un clixé antic: cura i submissió per a unes, autoritat i decisió per a altres.


No és un error de programari; és un reflex social. La bona notícia és que la IA es pot corregir. Però cal voluntat política, criteris d'equitat en les dades i diversitat real als laboratoris. Passar de ser usuàries a ser arquitectes del codi. La tecnologia no té gènere. La mirada que la construeix, sí. Triem-ne una que no deixi ningú enrere.

Segueix-nos per saber què passa a la ciutat.

Subscriu-te gratuïtament al WhatsApp, Telegram i butlletí electrònic. I pots seguir-nos a Facebook, X, Instagram i TikTok.

 
Comentaris

Destaquem