Los investigadores creen que los algoritmos de aprendizaje automatizado, lejos de hacer el mundo más equitativo, ahora imitan la desigualdad de la sociedad discriminando a mujeres y a las minorías étnicas
Los programas de Inteligencia Artificial (IA) diseñados para evaluar a solicitantes de préstamos bancarios o aspirantes universitarios pueden ser inherentemente racistas y sexistas, afirman expertos en tecnología.
Los investigadores creen que los algoritmos de aprendizaje automatizado, lejos de hacer el mundo más equitativo, ahora imitan la desigualdad de la sociedad discriminando a mujeres y a las minorías étnicas.
“Esto está empezando a surgir mucho en áreas como la selección de personas para empleos, seguros, préstamos, todas esas cosas“, aseveró Noel Sharkey, codirector de la Fundación para la Robótica Responsable, en el programa Today de la BBC.
Sharkey citó el ejemplo de una investigación de la Universidad de Boston (EE.UU.) en la que un programa de IA fue entrenado para leer noticias en la aplicación Google News. Cuando durante un juego de asociación de palabras se le preguntó “si el hombre es programador de computadora, la mujer es X”, el ‘software’ respondió: “ama de casa”.
“Tenemos un problema”, insistió Sharkey. “Necesitamos que más mujeres entren en este campo para resolverlo”.
En Estados Unidos, el 20 % de los graduados en ingeniería son mujeres, pero representan solo el 11 % de los ingenieros practicantes. En el Reino Unido, solo el 9 % de la mano de obra en ingeniería son mujeres.
La experta en datos de salud Maxine Mackintosh, apuntó que los “imperfectos” conjuntos de datos basados en la información histórica desvían las respuestas de la IA. Esto fue confirmado, según la experta en el Hospital de Saint George en Londres, donde las pruebas de las solicitudes de los aspirantes a las escuelas de medicina revelaron que la IA del hospital discriminaba a las mujeres, así como a las minorías étnicas.
Las controversias generadas por la IA respecto a la diversidad racial han llamado mucho la atención últimamente. El año pasado, Microsoft se vio obligado a desconectar su bot conversacional de aprendizaje automático en Twitter conocido como Tay, ya que este se convirtió en un simpatizante nazi en tan solo 24 horas.
DC/RT