La Inteligencia Artificial, un instrumento que sigue reproduciendo estereotipos de género
Madrid, 22 sep. 21. AmecoPress.- El Instituto de la Mujer ha convocado un conversatorio en línea a través de su canal de YouTube (InstMujeres) bajo el nombre de ‘Justicia algorítmica en clave de género’. Las participantes han debatido acerca de los riesgos que presenta la Inteligencia Artificial en los derechos humanos y, sobre todo, en los grupos más vulnerables de la sociedad.
El seminario ha comenzado con la presentación de la directora del Instituto de Mujeres, Antonia Morillas González que ha afirmado que siguen existiendo brechas de género dentro del campo de la Inteligencia Artificial, “instrumentos que siguen reproduciendo estereotipos de género”. Según un estudio de la UNESCO, las voces femeninas virtuales presentan un tono de sumisión y obediencia, ya que han sido desarrolladas desde un enfoque patriarcal, por lo que, se sigue perpetuando conductas que generan una desigualdad entre ambos géneros.
La Inteligencia Artificial reproduce enfoques tecnófobos
Así mismo, la relación de las mujeres con el área tecnológica deja claro el largo camino que queda por recorrer. Según datos procedentes de un análisis realizado por el Instituto de la Mujer, el 25 por ciento de investigadoras participan en proyectos relacionados con la Inteligencia Artificial, el 18 por ciento de mujeres los lideran y el 13,8 por ciento son autoras de artículos acerca de esta tecnología. Por este motivo, la organización tiene el propósito de impulsar e incentivar la participación de las mujeres en esta disciplina.
La Unión Europea en su ‘Libro Blanco de Inteligencia Artificial’ también denuncia que estos sistemas incrementan los riesgos de discriminación por razón de sexo, etnia, clase u otros. Por ello, la Comisión Europea ha presentado una propuesta legislativa para llevar a cabo una regularización en este ámbito para garantizar la protección ciudadana y el cumplimiento de los derechos humanos.
El conversatorio bajo el título de ‘Género, Ética y Algoritmos’ ha estado compuesta por la fundadora y CEO de Eticas Consulting, Gema Galdón Clavell; la investigadora predoctoral FPI-UAM y Candidata a Doctora en la Universidad Autónoma de Madrid, Lucía Ortiz de Zárate Alcarazo y la programadora de ordenadores en la cooperativa de trabajo asociado a Dabne, Margarita Padilla García.
A lo largo del debate, las expertas han defendido la necesidad de regular la industria tecnológica, ya que presenta un espacio de impunidad donde las máquinas sentencian verdades estadísticas que da lugar a una indefensión total por parte de la ciudadanía. Según Margarita Padilla, "no podemos llamar inteligencia a un conocimiento que no esté razonado o justificado"; sin embargo, muchos profesionales dan por asentado recomendaciones que hacen los algoritmos y se olvidan de que codifican solo una parte de la realidad.
Las mujeres perciben que la Inteligencia Artificial es más un riesgo
Gema Galdón ha afirmado que esta impunidad ha sido construida por no implementar algoritmos auditados. Una iniciativa que la doctora ha concebido y diseñado convirtiéndose en un producto estrella de Eticas. Consiste en abrir un algoritmo y buscar sesgos para revertirlos, un proceso sencillo de realizar, pero que requiere un esfuerzo adicional. Según Galdón, “es cuestión de voluntad, ya que las herramientas están”. Además, el sesgo viene dado por el propio ser humano que ha decidido que la máquina valore así. Por otro lado, es necesaria la creación de espacios de voz ciudadana para que expresen en qué cuestiones falla los algoritmos y qué derechos no se están respetando para que sea un proceso lo más transparente posible.
Así mismo, esta impunidad se produce a causa de la desatención por parte de las instituciones públicas y privadas por implementar correctamente estos algoritmos. Se necesita una mayor actividad por parte de la Administración Pública y voluntad político y empresarial. Según Galdón, se necesitan “políticos que sean capaces de entender la tecnología”.
Al final, los algoritmos responden a unos intereses dados por unas empresas para maximizar los beneficios. Además, la discriminación estructural es difícil de datificar, ya que no partimos de una sociedad creada desde cero, sino que hay presentes una serie de prejuicios y discriminaciones creadas por el propio ser humano.
La Inteligencia Artificial es solo una máquina de procesamiento de datos
Gema Galdón recuerda que las personas son las que construyen y deciden qué datos procesa este sistema. Por ello, la clave se encuentra en “cómo articulamos esa interacción humano-máquina”. Un único sistema algorítmico no vale para todas las cuestiones sociales. Por ello, en asuntos como la violencia de género no debe haber una reducción de su complejidad. También, se necesita incluir condicionantes éticos a los algoritmos e involucrar a las concernidas para construir un algoritmo lo más fehaciente a la realidad que representa.
Dentro de este asunto entra el problema de las responsabilidades, ya que las personas se deshumanizan al eludirlas y descargarlas a un simple algoritmo que no muestra la realidad más compleja. En cambio, las empresas hacen que recaiga la responsabilidad al usuario, por ello, Galdón afirma que es necesario el papel de un regulador para proteger a los colectivos más vulnerables.
Las desigualdades no se tienen que trasladar a las dinámicas tecnológicas
Hay que obligar a las empresas a ser completamente transparente y formar al cliente en el uso de las nuevas tecnologías. Así mismo, la industria tecnológica tiene que desarrollar algoritmos responsables donde intervengan muchos equipos y especialidades. Al final, según Lucía Ortiz hay que llevar a cabo “un esfuerzo colectivo que requiere la intervención de varios actores” y reivindicar los derechos en esta área a través de un activismo de datos.
Foto: archivo AmecoPress tomada del Instituto de la Mujer.
— -
Sociedad – Derechos humanos – Ciencia y tecnología – Brecha Digital – Seminarios. 22 sep. 21. AmecoPress