Edición Nº: | | Dolar: 134,77/ 140,77

Los sesgos de la IA pueden profundizar la discriminación “offline”

Por Cristian Santander. Como humanos, cometemos errores. Podemos tener lapsos de atención y malinterpretar la información. Sin embargo, cuando re-evaluamos, podemos identificar nuestros errores y corregirlos. Desafortunadamente esto no sucede con las máquinas.

Cuando un sistema de inteligencia artificial (IA) comete un error, éste se repetirá una y otra vez sin importar cuántas veces mire los mismos datos en las mismas circunstancias.

La gran mayoría de los sistemas de IA que se utilizan se entrenan utilizando datos que reflejan el pasado. Si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, el sistema codifica y puede amplificar estos sesgos.

O bien si tiene menos datos de un grupo en particular, sus predicciones para ese grupo tenderán a ser peores. Esto es lo que se conoce como el sesgo algorítmico.

En las sociedades de la información, los datos alimentan el crecimiento de las tecnologías de IA

Las máquinas aprenden de grandes cantidades de datos mediante la identificación de patrones y la aplicación de modelos estadísticos para predecir los resultados más probables.

Aunque podemos pensar en los datos como fácticos y neutrales por naturaleza, los datos de los que aprenden los algoritmos pueden contener sesgos sutiles, ya que son generados por el hombre, con sus prejuicios e imperfecciones, reflejando la visión del mundo de quienes los construyen y los datos con los que se nutren.

NOTAS RELACIONADAS:

  1. Invertirán $1.000 millones en impulsar la economía del conocimiento a nivel provincial
  2. Las PYMES protagonizan la transformación digital de la economía

Imaginemos el caso de una empresa con muchas sucursales físicas. Puede suceder que no tengamos acceso a todas las bases de datos de usuarios de todas ellas y entonces trabajamos con los datos de aquellas de las que sí tenemos.

Pero podría suceder que nos estemos perdiendo de capturar algunos segmentos de clientes especiales por déficits propios del almacenamiento del Big Data. Estos son problemas de datos que pueden también acarrear sesgos.

Los sistemas de IA se pueden ver sesgados de dos maneras

El primero es el sesgo en los datos, de los que aprenden los sistemas, el segundo tipo ocurre en cómo se diseñan los algoritmos, que corresponde al trabajo del científico de datos o analista.

Los algoritmos de aprendizaje automático generalmente se basan en la correlación, en lugar de las relaciones causales.

A menos que haya una intervención concertada, los algoritmos seguirán reflejando y reforzando los prejuicios que frenan a la sociedad y las empresas.

Es por ello que debemos asegurarnos de que los algoritmos sean explicables, auditables y transparentes.

Así como no aceptaríamos que los humanos tomen decisiones importantes que afecten a otros sin supervisión o responsabilidad, no deberíamos aceptarlo de los algoritmos.

Es en este punto en el cual es de gran relevancia la existencia de regulaciones que controlen el campo para que la democratización de la información se dé dentro de parámetros que beneficien y no perjudiquen a la sociedad.

Rendición de cuentas

Cada sistema de IA debe rendir cuentas, ya que son herramientas que deben estar al servicio y no en detrimento de las personas.

Cada vez más la inteligencia artificial se adopta de diferentes maneras en la vida cotidiana por lo que hay que garantizar que las decisiones apoyadas en ella no reflejen comportamientos discriminatorios. Puede darse de forma no intencional, por lo que se vuelve imperativo verificar los sesgos.

La democratización de la IA ha sido clave en el crecimiento de esta disciplina, pero es vital que podamos, en algunas áreas clave, estar seguros de que los algoritmos desarrollados no contienen sesgos que pudieran afectar las decisiones de la IA, y para ello, ya deberíamos estar pensando en algún tipo de control dual, que puede ser interno (por la propia empresa) o externo (por un ente regulador).


Cristian Santander, CEO de Cognitive Latam