En 2015, Google lanzó al mercado Google Photos, un servicio que etiquetaba automáticamente las fotos personales de los usuarios en gal...

La IA de Google confunde a personas de la raza negra con Gorillas.

En 2015, Google lanzó al mercado Google Photos, un servicio que etiquetaba automáticamente las fotos personales de los usuarios en galerías agrupadas de acuerdo a etiquetas: “Personas”, “Paisajes”, “edificios”. Poco después, el sistema empezó a revelar sus fallos.
Jacky Alcine, un joven de Brooklyn, descubrió que Google Photos había clasificado como “gorilas” una foto de él y una amiga suya. Indignado, el joven tuiteó la imagen y pronto el fallo de Google se hizo viral.


El sesgo racista de la compañía hizo que Google se disculpara y se comprometiera a solucionar el error. Dos años después, parece que lo ha conseguido… o no.
Para Google, la solución ha sido eliminar las etiquetas “gorila”, “chimpancé” y “mono” de su sistema de etiquetado. La revista Wired lo comprobó analizando más de 4.000 imágenes. En las que aparecen gorilas, el sistema es incapaz de etiquetarlas.
Google Photos tampoco es capaz de reconocer términos como “afroamericano”, “hombre negro”, “mujeres negra” o “persona negra”. En ocasiones, el sistema de IA de la compañía devolvía imágenes en blanco y negro de personas, pero no gente de raza negra.
Este torpe arreglo de la compañía pone en evidencia las muchas dificultades, fallos y sesgos que tienen hoy en días las tecnologías de reconocimiento de imágenes. Tecnologías elaboradas en gran medida por programadores blancos, basadas en bibliotecas de códigos preexistentes escritas en gran medida por gente blanca y que ensayan la tecnología sobre todo con caras blancas.


Un portavoz de la compañía confirmó la eliminación de la etiqueta “Gorila” como una solución al problema de 2015. "También estamos trabajando en soluciones a largo plazo en torno a la lingüística, palabras para tener cuidado en las fotos de las personas, y el reconocimiento de imágenes en sí mismo, por ejemplo, un mejor reconocimiento de las caras oscuras. La tecnología de etiquetado de imágenes todavía es joven y lamentablemente no es perfecta", añadió el portavoz.
No es la primera vez que la tecnología demuestra seguir los sesgos sexistas, racistas y clasistas del mundo analógico. Flickr también tuvo un problema similar al de Google al etiquetar a los negros como simios. Facebook permitía a los anunciantes excluir a los usuarios de ciertos contenidos según su raza. Un estudio de la Universidad de Princenton comprobó que las máquinas de IA presentaban sesgos racistas y sexistas como los seres humanos. Y una investigación del año pasado de la Universidad de Virginia descubrió que la inteligencia artificial consolidaba los prejuicios, sesgos y estereotipos que prometía eliminar.

Fuente: playgroundmag.net