Reflexiones, a partir de una nota de Oivavoi, sobre los sesgos de género en la “inteligencia” artificial
¿Has escuchado alguna vez la expresión traduttore, traditore (traductor, traidor)?
Bueno, parece que Facebook y Google aún no lo han hecho.
En nuestra nota “‘Amor frente al mal’, el pedido del enfermero judío que trató al asesino de Pittsburgh“, hemos reproducido el post de Facebook de Ari Mahler, el enfermero en cuestión.
Y ocurrió algo interesante: Facebook tradujo en forma automática el post al español (esto depende de como lo tengas configurado) y Ari Mahler (que es un hombre) pasó a ser “la enfermera judía”.
Lo mismo ocurre cuando se traduce el texto del post usando el traductor de Google.
Todo porque, en inglés, “nurse” es una palabra que se usa en forma indistinta para hombres y mujeres (es decir: tanto enfermera como enfermero se dicen nurse).
Estos nos habla de dos cosas:
1- En primer lugar, del camino que aún que le falta recorrer a la “inteligencia artificial” para reemplazar a los seres humanos.
Si es que algún día lo logra, dado el grosero fallo en reconocer el contexto en este caso.
2- En segundo -y más importante- lugar, surge la pregunta ¿si “nurse” es neutro, porque Facebook “elige” traducirlo como enfermera, y no como enfermero?
La única respuesta posible (además del fallo en reconocer el contexto), es un sesgo de género: la enfermería es percibida como una profesión “femenina” y por ende Facebook “piensa” que la respuesta más probable es enfermera, y no enfermero.
“Piensa” y “elige” van entre comillas, porque son sesgos evidentemente “transmitidos” por los seres humanos de carne y hueso que están siempre detrás de cualquier programa informático.
Ya sabíamos que los prejuicios se transmiten como virus entre las personas.
Sería bueno tener también en cuenta que ninguna máquina está exenta del contagio, y que a la “inteligencia artificial” le falta todavía bastante para llegar a ser “inteligencia”…