Ya no solo es la sociedad, también son las máquinas. Al teclear en el traductor de Google: «Ondo josten du», se podrá leer: «Ella cose bien». Esta frase en euskera atribuye la tarea de coser a la mujer pese a que este idioma utiliza pronombres neutros, sin distinción de género. ¿Por qué ocurre esto? Dos mujeres extremeñas del sector de la informática y las matemáticas y el Instituto de la Mujer analizan la situación e intentan darle respuesta a esta pregunta.

«Para atajar esta cuestión es imprescindible conocer cómo se reproducen en sistemas aparentemente objetivos los prejuicios y estereotipos. En primer lugar, los datos de los que se nutren los sistemas de Inteligencia Artificial no siempre recogen los intereses, usos o actividades de las mujeres», aseguran a este periódico desde el Instituto de la Mujer. «Estos sistemas se basan en modelos matemáticos por lo que los diseños deben tener especial cuidado de no excluir a colectivos por no estar suficientemente representados», añaden. «También dependerá de si se trata de modelos predictivos basados en datos históricos donde las mujeres estarán presentes en ámbitos que se consideren ‘tradicionalmente femeninos’ y no tendrán representación alguna en los ‘masculinos’», apuntan. 

De este modo, hacen hincapié en que dichos datos deben insertarse en contextos políticos y socioculturales para evitar la discriminación. «De no ser así, no reflejarían la realidad», inciden. «La Inteligencia Artificial (IA) hoy es un ámbito científico y profesional profundamente masculinizado y eso inevitablemente genera sesgos de género», declaran. 

«Debe haber una supervisión para evitar que los sistemas normalicen la desigualdad»

Una ley para evitarlo

¿Qué es lo primero que debe cambiar?: «Es fundamental el establecimiento por ley de mecanismos que aseguren que la discriminación no se produzca. Por otra parte, es importante que la sociedad civil esté organizada y participe en la resolución de los problemas que plantea la IA. No se trata únicamente de una cuestión técnica, debe haber una supervisión para evitar que estos sistemas normalicen las desigualdades y la discriminación contra las mujeres y otros sectores poblacionales. Evaluar estos sistemas tiene que ser una práctica habitual. Además, los resultados deben ser públicos para, con la investigación, poder mejorar o intervenir sobre las limitaciones de diferentes sistemas y en su caso dejar de utilizar los que sabemos que generan sesgos», responden. 

«Hay que incorporar a las mujeres en condiciones igualitarias a todos los espacios y ámbitos de la sociedad. En este caso a la ciencia y la tecnología a través de la educación en las escuelas y de las políticas de igualdad en general», aseveran.

La postura de Belén González Sánchez, una joven extremeña ingeniera informática y de software, no se aleja de la de la institución que representa a las mujeres, aunque considera que la raíz del problema erradica en la sociedad patriarcal en la que vivimos. «El sesgo es notable en estos sistemas porque reproducen los datos y estos no son más que un reflejo de nosotros. La IA podría conseguir mitigar esta discriminación pero se está produciendo justo lo contrario», explica González. «Por otro lado influye quien la construye: en el campo de las ciencias tecnológicas la presencia del hombre es mucho mayor. Esto provoca que la desigualdad incremente y se convierta en una bola que va creciendo exponencialmente», señala. 

Belén González Sánchez, ingeniera informática y de software, durante una jornada laboral en Mobbeel. El Periódico

Bajo su punto de vista una de las soluciones sería: «entrenar a los sistemas para que sean equitativos. Los datos deben ser representar a todo el mundo por igual», reivindica.

Un futuro empleo, en juego

La vida es más fácil a golpe de clic, tanto que una vacante laboral puede ser ocupada a tan solo un cuestionario a través de una app para buscar trabajo. Pero es que es en la selección donde también se percibe la discriminación hacia ellas, sin llegar a conocer su currículum ni sus capacidades. 

González relata que en el proceso de seleccionar a profesionales que demanden empleo para realizar una entrevista, es la propia IA la que discrimina por género. «En una conocida multinacional, durante una campaña de búsqueda de personal, el sistema --basado en algoritmos e Inteligencia Artificial-- automáticamente descartó a mujeres de su selección porque solo había recomendado anteriormente a hombres para dicha oferta», relata. «Por motivos así hay que enseñar a los sistemas, educarles. Para eso estamos nosotros detrás», sentencia.

Si eres mujer y quieres encontrar pareja en aplicaciones de móviles también toparás con la brecha de género laboral. «A los hombres se les puntúa de forma positiva si tienen puestos de trabajo con cargos relevantes, mientras que a las mujeres no. Este criterio provoca que ellos hagan match --liguen-- sobre mujeres inferiores. Es algo que solo lleva a incentivar más el estereotipo», declara González. 

La joven extremeña trabaja en la empresa cacereña Mobbeel, que se dedica a la verificación de la identidad digital a través de soluciones de onboarding, firma electrónica y autentificación biométrica. Belén es una de las seis mujeres que forman parte de la plantilla frente a la casi veintena de varones. Esta situación no es aislada, sino que se corresponde con la propia realidad en los empleos de esta rama laboral. 

Esto lo respalda Rosa Elvira Lillo Rodríguez, es una emeritense, matemática y catedrática de Estadística e Investigación Operativa en la Universidad Carlos III de Madrid desde 2010 y directora del instituto de investigación en big data UC3M-Santander Big Data Institute (IBiDat). «Lamentablemente el mundo del big data y de la IA está gobernado por hombres. Ese es el mayor problema», asegura. «Hay una escasez significativa de perfiles femeninos en el ámbito tecnológico. A la hora de elegir, por ejemplo, la rama de bachillerato a estudiar es muy notable. Los chicos se declinan más por el tecnológico y las chicas, en general, por el sanitario. Nadie les dice que no lo elijan, pero por lo que sea nosotras mismas nos ponemos barreras. Esto sucede a nivel generalizado, tanto en España como en el resto del mundo», sostiene. «Es algo que viene a decirnos que la brecha de género empieza mucho antes de lo que pensamos», respalda. 

Rosa Elvira Lillo, directora de IBiDat (Instituto de Big Data UC3M-Santander). El Periódico

«Ya sabemos que las mujeres nos declinamos más por las carreras asistenciales. Es curioso que cuando se llamaba Licenciatura Informática se titulaban alrededor de un 40% de mujeres y un 60% de hombres. El grado pasó a llamarse Ingeniería Informática y progresivamente fue disminuyendo hasta que solo un 10% de perfiles femeninos se titulan», desvela. «La falta de referentes es, sin duda, uno de los grandes hándicap. Es un problema que a mi parecer se atajaría desde la educación. Hay que enseñarle a las niñas que están igual de capacitadas que los niños para elegir cualquier futuro», alude. 

«Lamentablemente el mundo del big data está gobernado por hombres», dice Rosa Elvira Lillo

Otra traba: la maternidad

La fertilidad de la mujer es algo biológico y que no se puede cambiar. «¿Qué pasa? Que cuando puedes tener hijos y estás desarrollando una carrera profesional enmarcada el ámbito científico como por ejemplo una tesis doctoral, coincide con la edad en la que debes decidir si quieres ser madre o no», declara Lillo. «En el momento en el que una mujer decide serlo y trabaja en un departamento de ciencia, la mayoría de personal que prolonga su jornada laboral por estar trabajando en una investigación son hombres. Nosotras --se incluye porque es madre-- tenemos que lidiar con la conciliación y marcharnos a casa a cuidar de nuestros hijos», expone. 

«Esa decisión sobre la maternidad a la que la sociedad nos somete y nos obliga a decidir, incluso hasta llegar a tener que rechazar un futuro profesional, es la que provoca que haya pocas mujeres en puestos de responsabilidad como el que ahora mismo desempeño yo misma de directora en el IBiDat», confiesa. 

Con todo, Lillo está de acuerdo con Belén González y el Instituto de la Mujer en que los algoritmos son sesgados porque las muestras que se utilizan están desequilibradas en cuanto al género y terminan sacando a la luz la situación de la sociedad actual. «Detrás de los datos está la realidad en la que vivimos», recalca.

«Si queremos identificar las cualidades del científico perfecto y a ese algoritmo lo estamos entrenando con una base de datos de hombres y mujeres, donde también se recopilan sus estudios, edad... y esa agrupación recoge un contenido ya sesgado, porque hay más hombres que mujeres en el sector, el algoritmo reproduce automáticamente que el perfil ideal será un hombre exitoso de 35 años con una carrera de ciencias. No te va a decir nunca que es una mujer porque la muestra tiene menos mujeres», explica. «Sin embargo, debo decir que es un problema que ya se está intentando atajar a través de una línea de investigación basada en fairness --justicia en inglés-- ; es decir buscando regularlo y evitar así los sesgos», apostilla Lillo.  

Ellas, detrás de los asistentes de voz

A la hora de buscar un contacto en el teléfono móvil, de recordar un evento o, incluso, de querer escuchar la canción de ‘La cucaracha’, Siri estará dispuesta a cantarla a través de cualquier dispositivo de Apple. Sin embargo, al realizar la pregunta: «Siri, ¿por qué tienes voz de mujer?», el asistente responde que: «los humanos tienen sexo, yo no». Lo mismo sucede con Cortana si se utiliza un aparato de Microsoft; con Bixby, si se haba de la marca Samsung; con Anna, durante una compra de muebles en Ikea; con Aura, a la hora de navegar por Movistar o Irene durante un viaje con Renfe.

Otro ejemplo es el altavoz inteligente de Amazon, más conocido como Alexa. En el caso de utilizar la domótica en el hogar, esta asistenta virtual podrá encender y apagar la luz, poner música y, a fin de cuentas, obedecer órdenes.

Espacio patrocinado