Google Fotos y el racismo: crónica de un error anunciado

Opinión

Google Fotos y el racismo: crónica de un error anunciado

google

Lo primero y fundamental es aclarar a la gente que la IA tiene poco de inteligente y mucho de artificial. Ayer salió a la palestra una noticia de actualidad sobre Google Fotos y el hecho de que ésta aplicación etiquetara como «gorilas» a algunas personas negras. Durante estos días han corrido ríos de tinta en la red sobre el supuesto racismo de Google a la hora de hacer sus aplicaciones, pero hay que tener en consideración algunos temas sobre IA para entender el error, que nada tiene que ver con el racismo.

Lo primero y fundamental es aclarar a la gente que la IA tiene poco de inteligente y mucho de artificial. Si algo enseña este campo es que los seres vivos somos máquinas increíbles, capaces de realizar cálculos a velocidades vertiginosas y sin casi errores, algo que una máquina es incapaz hoy por hoy. Para que esto sea posible, muy probablemente tendremos que esperar a que otros campos como la neurociencia nos alumbren sobre como funciona nuestra «CPU biológica», el cerebro.

Por otra parte, la IA es un campo que aunque se lleva investigando desde los 60 sigue en pañales, ya que hasta hace menos de una década siquiera teníamos equipos para ejecutar estos algoritmos en unos tiempos aceptables (cuando digo aceptables, me refiero a bajar de las horas y semanas incluso que podían tardar ciertos procesamientos). Aún hoy muchos algoritmos siguen sin poderse ejecutar en tiempos asumibles. Por tanto, la IA es un campo aún en investigación y aunque las empresas intenten sacar productos comercializables, hay que tener en cuenta que no tendremos tasas de acierto del 100%, es más, es algo que difícilmente podremos tener a corto y medio plazo.

El error racial de Google Fotos no es el único, además. Hace unos meses Flickr tuvo el mismo problema: etiquetar a un negro como un mono. ¿Por qué ocurre esto? Empecemos por el principio.

¿Qué es un clasificador?

Un clasificador es un algoritmo que, dado un dato de entrada, nos devuelve como salida una etiqueta o clase de pertenencia. Para que este algoritmo asigne una etiqueta a un determinado dato, necesita de un entrenamiento previo con unos datos suficientemente robustos para ser capaz de identificar esa clase en todos los casos (datos ya etiquetados). Por ejemplo, para un ordenador una cara de frente y otra de perfil, o una cara de una persona blanca o asiática, con una negra, nada tienen que ver. Igual ocurre con cosas tan nimias como la iluminación: no es igual una cara iluminada con el sol de mediodía, que una cara iluminada con fluorescentes. ¿Por qué? Porque para el ordenador esa foto a clasificar no es más que una matriz numérica, en donde cada campo indica la intensidad de un píxel, nada más. El no sabe de temas raciales y culturales.

La elección de los datos de entrenamiento sigue siendo una temática ampliamente investigada en el campo, ya que por norma general no se puede contar con muchos datos que tengan las variaciones suficientes para que un clasificador tenga tasas de acierto perfectas, ni tampoco somos capaces de encontrar descriptores (vectores numéricos que representan cierta característica discriminante del dato, los bordes de una imagen, por ejemplo) robustos para que los clasificadores sean tan óptimos como el cerebro humano.

Por tanto, ¿qué ha pasado con Google Fotos? Sinceramente no tengo ni idea como será el clasificador de Google internamente (ojalá :P), pero sí se que es una red neuronal convolucional, por lo que me puedo imaginar a grandes rasgos los problemas que han causado que una máquina sin ética ni moral pueda ser «racista».

Para empezar, imagino que uno de sus descriptores pueda ser el color, más que nada porque el color es algo casi inherente a la visión artificial. Aunque Google use fotos de todo tipo de razas, hay que de nuevo recordar que el ordenador lo único que ve son celdas (píxeles) con valores numéricos del 0 al 255. Los asiáticos y blancos tendremos umbrales de color similares, mientras que las personas negras no están comprendidas dentro de estos umbrales. Por tanto, habrá muchos más ejemplos de caras que tengan umbrales similares (asiáticas, europeas, etc.) y otro grupo que no, por lo que si no se asigna un peso pequeño a este descriptor, el algoritmo lo utilizará como indicativo de una cara humana, rechazando a una gran parte de la población por motivos de color. Es un tema de proporción de imágenes colgadas en Google, quién tiene más población con acceso a internet, etc.

Nos guste o no, por desgracia la mayoría de población negra no tiene acceso a un ordenador, al menos no en la misma proporción que europeos y asiáticos. No obstante, estoy segura que aquí Google ha sabido muy bien compensar los datos y pesos para que el color no fuera muy discriminante.

Por otra parte, se habrán tenido en cuentas descriptores de forma, ya sean con bordes, esquinas, etc. Nos guste o no, los seres humanos somos una especie de primate, por lo que nuestros rasgos son muy similares a los de nuestros parientes los monos. Por su parte, como sabéis, los gorilas son de un predominante color negro.

Los clasificadores están basados en probabilidades. Este mira la probabilidad / peso de un dato para cada etiqueta, y se queda con el valor más alto. Por tanto, ¿es raro que en determinadas circunstancias de gestos, iluminación, etc. el clasificador «monos» de valores más altos que el de «humanos»? Por supuesto que no. Como ya contestó Yonatan Zunger, arquitecto jefe de Google+, también tienen problemas con caras blancas, que son etiquetadas a veces como perros y focas. Si el algoritmo es tan «tonto» de confundirnos con una foca, ¿cómo no va a fallar con un primate?

Por tanto, el problema en el algoritmo de reconocimiento facial de Google no es que no se tuvieran en cuenta todas las razas y sexos posibles, sino el hecho de sacar un producto al público de un campo que sigue hoy en día en desarrollo, y del que no podemos asegurar tasas de acierto perfectas. Como afirmaba antes, el ordenador no sabe de temas éticos y culturales, por lo que igual que puede fallar etiquetando blancos como focas sin que nadie se sienta insultado, puede también dar resultados que sí afecten a cierto colectivo, como el caso de los primates, sin que nosotros podamos saberlo a priori.

La pregunta por tanto es, ¿debemos limitar la investigación de estos productos al campo académico porque a veces puedan fallar y darnos resultados incorrectos?

Más información