domingo 17 de marzo de 2024
  • Temas del Día

Alcanzaste el límite de 40 notas leídas

Para continuar, suscribite a Somos Pymes. Si ya sos un usuario suscripto, iniciá sesión.

SUSCRIBITE
Racismo

EL PELIGROSO RACISMO DE LAS INTELIGENCIAS ARTIFICIALES

18 de abril de 2019 - 12:23

Como ejemplo, gran parte de las operaciones ejecutadas diariamente en los mercados de capitales son resultado de instrucciones emitidas por computadoras que analizan miles de variables para decidir cuál es el momento ideal para comprar o vender una determinada acción, un método conocido como “trading algorítmico”.

De a poco las máquinas van afectando áreas más sensibles: la aparición de ciertas publicidades o noticias al navegar la web, y no de otras, influencia las cosas que consumimos, la información que recibimos, las opiniones que nos formamos. Cuestiones que pueden afectar fuertemente nuestro futuro, como la posibilidad de acceder o no a un crédito bancario, o de ser seleccionado o no para un empleo, van dejando de ser definidas por personas y quedando en manos de sistemas.

Para quienes somos un tanto escépticos respecto de la naturaleza humana este avance es motivo de esperanza: confiamos en que decisiones tomadas de esta manera nos libren de la irracionalidad, la arbitrariedad y el prejuicio que impregnan muchos de los criterios humanos a la hora de escoger entre opciones.

Sin embargo, estas expectativas acaban de toparse con un obstáculo inesperado.

Por la manera en que estos sistemas son construidos, en muchas áreas están resultando más discriminadores y racistas que el peor de los humanos. Como mencioné hace un tiempo en mi columna “Computadoras que aprenden”, las inteligencias artificiales más avanzadas no son programadas por personas sino “entrenadas” en base a datos.

Por ejemplo, para desarrollar un software que permita hacer selección de personal, se lo alimenta con millones de CVs reales y se le indica qué candidatos fueron escogidos. La máquina analiza ese volumen descomunal de datos y extrae los criterios, tanto obvios como sutiles, que llevaron en el pasado a que una persona sea elegida. Basta ahora darle un CV para que la computadora pueda decidir si debe contratarse o no a ese postulante.

El problema surge porque esas enormes bases de datos acarrean dentro todos los sesgos y prejuicios que los humanos tenemos. Si en las entrevistas habitualmente se privilegia la contratación de hombres, personas de raza blanca o de clase acomodada, las computadoras repiten y amplifican estos criterios injustos, librándonos además de la culpa al no ser nosotros quienes tomamos esas decisiones y al mantener ocultos los criterios utilizados para la resolución positiva o negativa de cada caso.

Los invito ahora a hacer un experimento impactante: si uno realiza una búsqueda en Google Imágenes que diga en inglés “peinados de mujeres profesionales” (“women professional hairstyles”) el resultado es ver mujeres atractivas con peinados agradables.

Si se hace ahora la búsqueda contraria para apariencias poco profesionales (“women unprofessional hairstyles”), previsiblemente aparecen peinados desordenados. Pero hay un dato sorprendente: las mujeres que aparecen en la primera búsqueda son casi todas blancas. Las de la segunda ¡casi todas negras!

No debemos desanimarnos: en breve las computadoras podrán tomar mejores decisiones que nosotros y nos ayudarán a conducir mejor nuestra vida en casi cualquier terreno.

Pero para que esto suceda será necesario ser cuidadosos a la hora de desarrollar los sistemas para protegerlos de los prejuicios raciales, de género y sociales que contaminan las arbitrarias decisiones humanas actuales.

Dejá tu comentario

Te Puede Interesar