Hace unas semanas, ChatGPT contaba chistes sexistas. Ahora ya no hace bromas sobre las mujeres y contesta que "es importante promover la igualdad de género y evitar estereotipos y discriminación". Esto es así porque se le ha añadido una capa para que sus respuestas sean respetuosas con los valores de la sociedad, incluido el feminismo: se trata de un movimiento más hacia la justicia algorítmica que empieza a ganar terreno en la inteligencia artificial.

La IA es ubicua, pero ni todopoderosa ni perfecta. Las advertencias sobre los sesgos machistas (y también racistas) de algunos algoritmos se suceden desde hace años y preocupan tanto a las Naciones Unidas como a la Unión Europea, que se ha puesto manos a la obra para evitar que esos sesgos deriven en consecuencias nocivas para la ciudadanía, particularmente para las mujeres y grupos vulnerables.

Se están produciendo avances regulatorios para proteger la diversidad y la representatividad, se están implementando mecanismos que corrijan errores y sesgos de la IA. ¿Pero se puede ir más allá? ¿La inteligencia artificial puede ser una aliada para la consecución de la igualdad? ¿Pueden los algoritmos ser feministas?

El porqué de los sesgos machistas

La inteligencia artificial funciona con datos: los sistemas de IA son entrenados con información que han generado previamente las personas, el modelo aprende de ellos y genera conclusiones, como explica la presidenta del Observatorio del Impacto Ético y Social de la IA (OdiseIA), Idoia Salazar a EL PERIÓDICO DE ESPAÑA

"Si lo entrenamos con muestras sesgadas, porque se le dan más datos de hombres que de mujeres, el sistema entiende, por ejemplo, que para acceder a un puesto de trabajo son mejores los hombres por una cuestión estadística. Resulta que el humano no le ha dado bien los datos para que aprenda en igualdad de condiciones: el problema es del humano, que no lo ha entrenado correctamente", añade.

Hay menos datos sobre mujeres que sobre hombres, pero es que el volumen de información disponible es mucho menor si hablamos de mujeres racializadas, migrantes, trans, ancianas... Es necesario asegurar que los datos que nutren a estos sistemas sean representativos de toda la sociedad para evitar la discriminación, especialmente de las más vulnerables.

La cofundadora del European Laboratory for Learning and Intelligent Systems (ELLIS), Nuria Oliver, incide en que son varias las cuestiones que impactan sobre la falta de representatividad de la inteligencia artificial, pero destaca la falta de diversidad de género en la disciplina de la inteligencia artificial (con apenas un 15 % de mujeres).

"Sabemos que cualquier disciplina que carece de diversidad es una disciplina empobrecida, donde las soluciones van a ser menos inclusivas e innovadoras. Entendiendo que la inteligencia artificial está transformando la sociedad y está en el corazón de la cuarta revolución industrial, no podemos permitirnos que no esté siendo diseñada por equipos que no sean diversos", apunta Oliver.

La investigadora en Ética y Gobernanza de la Inteligencia Artificial de la Universidad Autónoma de Madrid Lucía Ortiz de Zárate lamenta que en España la baja presencia de mujeres en carreras tecnológicas sólo sea percibida como un problema por los partidos de izquierda: "Hay personas e ideologías empeñadas en pensar que la tecnología es neutral y por tanto no podemos aplicar el feminismo", denuncia.

El mundo tecnológico está altamente masculinizado, subraya, y necesita un cambio urgente para que la perspectiva de género forme parte de los desarrollos.

La ONU alerta de que el desarrollo de la inteligencia artificial es un ejemplo paradigmático de la exclusión de las mujeres en las fronteras tecnológicas. Por el escaso número de mujeres que programan estos algoritmos, por la persistencia de sesgos de género en los datos en los que se sustentan esos algoritmos y por una perspectiva científica de neutralidad que no problematiza esos sesgos que se filtran en los algoritmos.

Todo ello, afirma la ONU, contribuye a reforzar "los estereotipos de género que estigmatizan a las mujeres y las relegan de estos ámbitos" y a profundizar las brechas existentes.

Salazar insiste en que "lo que refleja la máquina es un problema humano". En este sentido, el cofundador de la compañía Blindstairs, Javier R. de la Rubia, asevera que toda inteligencia artificial tiene que ser programada y que le parece utópico pretender que una tecnología sea inclusiva cuando los propios humanos no lo somos: "¿Quién podría programar eso cuando nadie está libre de pecado? Todos tenemos sesgos conscientes e inconscientes".

Corregir al sistema

Si los algoritmos son entrenados con gran cantidad de datos sobre una realidad y esa realidad tiene patrones de discriminación, sesgos y estereotipos, obviamente los datos los van a reflejar, replicar e incluso exacerbar, precisa Oliver.

Frente a esta realidad, coinciden Oliver y Salazar, ha emergido la "línea de la justicia algorítmica" para inventar algoritmos que tengan un concepto de justicia social y sean capaces de mitigar los patrones de discriminación que existan en los datos. de detectar esos sesgos y contrarrestarlos computacionalmente.

Salazar expone que ya "hay muchas herramientas que permiten al sistema tomar decisiones no sesgadas", ya que pueden extraer las variables de sexo, de raza, de condición social... de manera que no los tenga en cuenta a la hora de tomar sus decisiones.

Y está convencida de que la IA va a ser una "aliada" de la igualdad, pues va a ayudar a combatir los sesgos humanos, a mejorar decisiones mediadas por el machismo, a predecir situaciones injustas para poder cambiarlas. Eso sí, la fundadora de OdiseIA hace hincapié en que la capacidad de la tecnología es limitada y siempre va a necesitar supervisión de las personas.

En ELLIS Alicante, fundación sin ánimo de lucro por una inteligencia artificial ética, trabajan en algoritmos que no discriminen, que sean transparentes y explicables, que no tengan sesgos e incluso que nos ayude a las personas a detectar y mitigar nuestros sesgos, pues impactan en nuestra toma de decisiones.

También estudian el impacto de los algoritmos de las redes sociales en la vida de las mujeres: por un lado, un proyecto investiga los filtros de embellecimiento en tiempo real, y otro va sobre los algoritmos que moderan el contenido y censuran el arte en el que aparecen desnudos femeninos porque los equiparan con la pornografía.

La UE se lo toma en serio

En la Unión Europea se es consciente de que existen problemas con la inteligencia artificial. Por eso, se está tramitando una regulación para evitar que cualquier sistema de alto riesgo, esto es, con una repercusión social o profesional sobre las personas, contenga sesgos. Por ejemplos, sistemas de selección de recursos humanos, de admisión a una universidad, de concesión de un préstamos...

La futura regulación exigirá supervisión humana de esos sistemas para que si el modelo selecciona a más hombres que a mujeres, se estudie antes de aplicarlo.

Ortiz de Zárate explica que la regulación exigirá que se retiren esos sesgos y el sistema sea revisado: "Si no son aceptables en las personas, como para aceptarlos en máquinas que deben hacernos la vida mejor".

Y pone el acento en que la regulación europea no va a cubrir sistemas de inteligencia artificial cotidianos como puedan ser los chatbots o los asistentes de voz, que pueden seguir perpetuando estereotipos y roles nocivos.

Dar un sentido distinto a la tecnología

A juicio de la investigadora de la Autónoma, el mundo tecnológico requiere de perfiles feministas (mujeres y hombres) que sepan solucionar los problemas existentes, pero también que le den un sentido distinto a la tecnología.

Una gran cantidad de proyectos se orientan a emancipar del trabajo remunerado, pero apenas hay iniciativas que piensen en utilizar la inteligencia artificial para los cuidados, ámbito del que se encargan mayoritariamente las mujeres.

Habla Ortiz de Zárate de "una orientación clara de la tecnología, un saber para qué la queremos": "Parece que por tener inteligencia artificial vale más , pero no es así, lo que vale es cambiar radicalmente la vida de las personas, particularmente de las mujeres".

"Creo que queda muchísimo tiempo para que una visión feminista de la tecnología consiga redefinirla y transformar nuestra vida. Eso lo veo lejos aún", confiesa.

Ejemplos de diversidad: recursos humanos y lenguaje inclusivo

Blindstairs es un ejemplo de empleo de la inteligencia artificial para combatir los sesgos. Se trata de un sistema de automatización de los procesos de selección de personal para evitar que cuestiones como el sexo o el origen influyan a la hora de cribar las candidaturas más adecuadas.

A través de la inteligencia artificial, se elimina de los currículum todos los datos personales para evitar que se pueda hacer una trazabilidad de la persona candidata y se pasa todo a lenguaje neutro.

Así, la persona de recursos humanos encargada del proceso de selección no sabe si es un hombre o una mujer. Una vez se llega a la fase de las entrevistas, el sistema crea un avatar de rasgos neutros que, gracias a tecnología de reconocimiento facial y de modulación de la voz, evita que se pueda diferenciar el género a la vez que replica gestos y expresiones de la persona candidata.

Marta Rodríguez-Tobalo, cofundadora de Blindstairs, cuenta a este periódico que la iniciativa nació de su propia experiencia personal, después de haber sido preguntada en varias ocasiones por su situación sentimental en varias entrevistas de trabajo.

"Esta experiencia personal es habitual, se ha investigado por la academia, y tiene consecuencias directas en problemáticas como la brecha salarial, el techo de cristal o la infrarrepresentación de ciertos colectivos", asevera.

Junto a su socio, Javier R. de la Rubia, decidieron emplear la tecnología para acabar con estos sesgos en la gestión de los recursos humanos y se inspiraron en la Filarmónica de Boston que, tras detectar que sólo el 5 % de sus integrantes eran mujeres, pasaron a hacer las audiciones a ciegas y esa cifra subió hasta el 41 %.

"Los sesgos hacen perder talento. (...) Para evitarlo, utilizamos la tecnología, que hace que la información esté despersonalizada, pero manteniendo siempre el componente humano. La inteligencia artificial no es una persona, tú le das un input y te saca un output. Pretender que tome decisiones humanas es un error. Creemos en un modelo en que ayude y dé soporte a las personas para cometer menos errores y ser más inclusivos", asevera R. de la Rubia.

Otro caso práctico en el que la tecnología contribuye a la diversidad y a corregir la desigualdad es el de Themis, un software de procesamiento de lenguaje natural que revisa cualquier texto para convertirlo en inclusivo: detecta expresiones no inclusivas y sugiere alternativas para cambiarlas.

La directora de Operaciones de Themis, Sara Llorens, señala que la ética cada vez está más presente en el desarrollo tecnológico: "Es básica, la tecnología sin ética sería un disparate", afirma. El programa se centra en un lenguaje inclusivo de género, pero su equipo ya trabaja en versiones adaptadas a personas con discapacidad, que eviten el racismo y el lenguaje violento.

A su juicio, no es una quimera hablar de inteligencia artificial como herramienta que "integre y envuelva" a todas las personas en su diversidad.