Inteligencias artificiales que discriminan. Los sesgos

Nombre del podcast: Big Data e Inteligencia Artificial
Nombre del episodio: Inteligencias artificiales que discriminan. Los sesgos
Duración: 19 minutos

Este podcast aborda el tema de los sesgos en los modelos de machine learning y la inteligencia artificial. Comienza con una anécdota histórica sobre los bombarderos aliados durante la Segunda Guerra Mundial, ilustrando el concepto de sesgo de supervivencia. Los aliados querían reforzar sus aviones basándose en los daños observados en los que regresaban, pero el matemático Abraham Wald señaló que debían proteger las áreas sin daños, ya que los aviones alcanzados en esas zonas no sobrevivían para ser estudiados.

El podcast luego se centra en cómo los sesgos afectan a los modelos de IA modernos. Destaca que la calidad de los datos de entrenamiento es crucial: «si los modelos entrenan con datos que son una basura, los resultados que obtendrá el modelo serán una basura». Se menciona el caso de Google y su modelo de generación de imágenes, Imagen, que la compañía decidió no liberar debido a los sesgos presentes en los datos de entrenamiento.

Se discuten varios ejemplos de sesgos en IA:

  1. Google Fotos etiquetando incorrectamente a personas negras como gorilas en 2015.
  2. Sesgos de género y raza en modelos de generación de imágenes como DALL-E 2.
  3. Sesgos en modelos de reconocimiento de imágenes de Amazon y Google.
  4. Sesgos en modelos de lenguaje como GPT-3.

El podcast subraya que estos sesgos no son defectos de los modelos, sino reflejos de los sesgos presentes en los datos de entrenamiento, que a su vez reflejan los sesgos de la sociedad. Se enfatiza la importancia de recoger datos de calidad y considerar las consecuencias potenciales de estos sesgos en aplicaciones del mundo real.

Cuadro resumen:

Tipo de sesgoEjemplo
Sesgo de supervivenciaBombarderos aliados en la Segunda Guerra Mundial
Sesgo racialGoogle Fotos etiquetando personas negras como gorilas
Sesgo de géneroModelos de IA representando CEOs como hombres y personal de cabina como mujeres
Sesgo en reconocimiento de imágenesAmazon Rekognition interpretando diferentemente objetos según el género
Sesgo en modelos de lenguajeGPT-3 reproduciendo estereotipos de género

Personas mencionadas: Abraham Wald, John Dewey, Harry Truman.

Palabras clave: sesgo de supervivencia, machine learning, inteligencia artificial, datos de entrenamiento, Google Imagen, DALL-E 2, GPT-3, reconocimiento de imágenes, generación de imágenes, sesgos raciales, sesgos de género, calidad de datos, consecuencias éticas, discriminación algorítmica.