Patrocinado por:

El reconocimiento facial es «racista»

arantxa herranz MADRID / COLPISA

OCIO@

Facebook

Esta tecnología se equivoca en exceso con las personas negras y las asiáticas

16 jul 2018 . Actualizado a las 05:00 h.

Mirar el teléfono y que se active la pantalla. Que la aplicación de fotos sepa reconocer a las personas que aparecen en las fotografías. Una red social que informe cuando alguien ha subido una foto en la que aparecemos. Sistemas de videovigilancia en aeropuertos o en gafas inteligentes que identifiquen a los criminales más buscados. Las posibilidades del reconocimiento facial son numerosas. Pero sigue habiendo cuestiones por resolver, como la protección de datos, la seguridad y la equidad en el reconocimiento de todas las razas.

Las tecnologías de reconocimiento facial se están utilizando en diversos ámbitos, desde el más doméstico hasta la seguridad nacional. Por ejemplo, el Gobierno de la India lo está empleando para encontrar a niños desaparecidos. En el Reino Unido, algunos medios de comunicación lo utilizan para detectar la presencia de famosos en las bodas reales. Muchos teléfonos lo emplean para que se pueda desbloquear la pantalla y podamos utilizarlo sin necesidad de utilizar la huella dactilar, un código numérico o un patrón de dibujo. Y, no sin cierta polémica, esta tecnología también se utiliza en un número creciente de contextos por los organismos encargados de hacer cumplir la ley.

Hombres blancos

La polémica que suele rodear el uso y aplicación de esta tecnología no es nueva. De hecho, hace tiempo, Google Fotos o Flickr etiquetaron las imágenes de personas negras como «gorilas» o «simios», lo que generó mucha controversia. Desde entonces, los desarrolladores de sistemas de reconocimiento facial se han esforzado mucho para ir mejorándolos, pero en la actualidad siguen teniendo importantes fallos. Según un estudio realizado por Joy Buolamwini, investigadora del MIT Media Lab, , el reconocimiento facial es más preciso para los hombres blancos y tiene muchos más fallos para las personas de piel más oscura, especialmente las mujeres. Más concretamente, este informe señalaba que las aplicaciones de Microsoft e IBM identificaron erróneamente a las mujeres de piel más oscura el 35 % de las veces y a los hombres de piel más oscura el 12 %.

Todos los sistemas de reconocimiento facial funcionan mediante el análisis y comparación de imágenes nuevas con las que ya están almacenadas en su base de datos. A medida que el número de imágenes crece, el software mejora sus capacidades para encontrar patrones e identificar individuos. Pero estas aplicaciones están «entrenadas», en la mayoría de los casos, con fotografías de hombres blancos. En menor número, también se aportan fotografías de mujeres, con prevalencia de las de raza blanca. Precisamente por eso, las tasas de error de este estudio del MIT son más altas en el caso de las mujeres, porque la base de datos de caras disponibles sobre las que aprenden estas máquinas es menor. También se ha detectado que el sistema falla más con individuos asiáticos.