Expertos advierten que IA podría empeorar desigualdad de género y discriminación
La participación de las mujeres en el campo tecnológico ha sido históricamente limitada, y persiste en el ámbito de la inteligencia artificial, donde menos del 20% de las mujeres están involucradas en decisiones importantes.
ESLOVENIA.- En el marco del segundo Foro Global sobre la Ética de la IA organizado por Unesco en Eslovenia, un grupo de expertos destacaron que la ausencia de una ética en el desarrollo de la inteligencia artificial (IA) profundizará las disparidades de género y la discriminación en todo el mundo.
De este modo, la directora del Centro ‘I’ para la Sociedad del Futuro y experta del consejo asesor de Unesco, Elena Estavillo, afirmó que es esencial capacitar los sistemas basados en IA con conjuntos de datos que reflejen adecuadamente la representación de las mujeres.
La tecnología no cierra brechas de manera espontánea, si no hay unas políticas claras y diseños basados en principios inclusivos desde el origen, aumentarán los sesgos de género”, afirmó la investigadora mexicana en una entrevista con el diario español EFE.
De acuerdo con la Unesco, la participación de las mujeres en el campo tecnológico ha sido históricamente limitada, y persiste en el ámbito de la inteligencia artificial, donde menos del 20% de las mujeres están involucradas en decisiones importantes como la asignación de recursos o diseño de sistemas.
Estavillo señaló que para que la IA promueva la igualdad, dos aspectos son fundamentales: la representación adecuada de las mujeres en la toma de decisiones para integrar una perspectiva de género, y el entrenamiento de los sistemas de IA con datos libres de sesgos.
Asímismo, advirtió sobre la necesidad de incorporar una perspectiva de género y aumentar la supervisión de la IA en decisiones que afectan el acceso a oportunidades laborales, becas, créditos y otros aspectos donde las mujeres han sido históricamente discriminadas.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí