Nombre del podcast: Big Data e Inteligencia Artificial
Nombre del episodio: Inteligencias artificiales que discriminan. Los sesgos
Duración: 19 minutos
Este podcast aborda el tema de los sesgos en los modelos de machine learning y la inteligencia artificial. Comienza con una anécdota histórica sobre los bombarderos aliados durante la Segunda Guerra Mundial, ilustrando el concepto de sesgo de supervivencia. Los aliados querían reforzar sus aviones basándose en los daños observados en los que regresaban, pero el matemático Abraham Wald señaló que debían proteger las áreas sin daños, ya que los aviones alcanzados en esas zonas no sobrevivían para ser estudiados.
El podcast luego se centra en cómo los sesgos afectan a los modelos de IA modernos. Destaca que la calidad de los datos de entrenamiento es crucial: «si los modelos entrenan con datos que son una basura, los resultados que obtendrá el modelo serán una basura». Se menciona el caso de Google y su modelo de generación de imágenes, Imagen, que la compañía decidió no liberar debido a los sesgos presentes en los datos de entrenamiento.
Se discuten varios ejemplos de sesgos en IA:
- Google Fotos etiquetando incorrectamente a personas negras como gorilas en 2015.
- Sesgos de género y raza en modelos de generación de imágenes como DALL-E 2.
- Sesgos en modelos de reconocimiento de imágenes de Amazon y Google.
- Sesgos en modelos de lenguaje como GPT-3.
El podcast subraya que estos sesgos no son defectos de los modelos, sino reflejos de los sesgos presentes en los datos de entrenamiento, que a su vez reflejan los sesgos de la sociedad. Se enfatiza la importancia de recoger datos de calidad y considerar las consecuencias potenciales de estos sesgos en aplicaciones del mundo real.
Cuadro resumen:
Tipo de sesgo | Ejemplo |
---|---|
Sesgo de supervivencia | Bombarderos aliados en la Segunda Guerra Mundial |
Sesgo racial | Google Fotos etiquetando personas negras como gorilas |
Sesgo de género | Modelos de IA representando CEOs como hombres y personal de cabina como mujeres |
Sesgo en reconocimiento de imágenes | Amazon Rekognition interpretando diferentemente objetos según el género |
Sesgo en modelos de lenguaje | GPT-3 reproduciendo estereotipos de género |
Personas mencionadas: Abraham Wald, John Dewey, Harry Truman.
Palabras clave: sesgo de supervivencia, machine learning, inteligencia artificial, datos de entrenamiento, Google Imagen, DALL-E 2, GPT-3, reconocimiento de imágenes, generación de imágenes, sesgos raciales, sesgos de género, calidad de datos, consecuencias éticas, discriminación algorítmica.