Ir al contenido
  1. Bitacoras/

Sobre sistemas de reconocimiento facial

·4 mins

Escribí esto como respuesta para un artículo sobre reconocimiento facial en un medio chileno. Al final no lo publicaron, pero lo puedo subir aquí.

La visión computacional avanza rápido, tanto así, que de las máquinas ya saben ver. Ejemplos incluyen la tecnología que permite vehículos autónomos, la medición de pobreza utilizando imágenes satelitales, o reconocer a las personas que aparecen en la foto de una fiesta de matrimonio.

Sin embargo, ser capaz no implica ver bien, ni comprender qu√© es lo que se est√° viendo. A diferencia de las personas, en general las m√°quinas solo pueden identificar lo que les ense√Īaron y en las condiciones en las que les ense√Īaron. As√≠, ¬Ņc√≥mo funciona un programa de reconocimiento facial? Reconociendo las distintas caracter√≠sticas que vio en cientos, miles, millones de fotos de rostros, y tratando de identificarlas. Estas caracter√≠sticas incluyen los colores de la foto, por tanto, colores de piel, de ojo, de pelo; la distribuci√≥n de elementos en el rostro, como los ojos, los p√≥mulos, la boca, partes que tienen posiciones relativas a las otras, determinadas por la anatom√≠a humana; si la calidad de imagen lo permite, las texturas (como la rugosidad de la piel, que no es la misma de una m√°scara de pl√°stico); entre otras caracter√≠sticas. En el caso de las redes sociales, tambi√©n hay informaci√≥n contextual: en la foto de una fiesta es probable que las personas que aparezcan juntas se conozcan y sean (o aparente ser) amigas, reduciendo el campo de candidatas a ser identificadas.

Entonces, ¬Ņqu√© podr√≠a salir mal? Reconocer que una foto contiene un rostro, y saber a quien pertenece, es un problema de clasificaci√≥n que las m√°quinas pueden resolver bien si se pide reconocer a quienes aparecen en fotos de las mismas caracter√≠sticas donde se aprendi√≥. Si la m√°quina lo hizo estudiando fotos de frente de alta resoluci√≥n con buenas condiciones de iluminaci√≥n, y en vez de eso le entregamos fotogramas de un video a baja resoluci√≥n, con un √°ngulo superior de encuadre, en condiciones de paup√©rrima iluminaci√≥n, el resultado ser√° basura. Pero la m√°quina responder√° igual — una caracter√≠stica de los algoritmos es que pocas veces dicen que no saben la respuesta.

Hay que aclarar que las m√°quinas ven, pero no es el mismo ver nuestro. Si la m√°quina aprendi√≥ solamente con fotos de perfil de redes sociales, no reconocer√° rostros, reconocer√° fotos de perfil de redes sociales. Si la m√°quina aprendi√≥ a ver fotos de personas de tez blanca o clara, no reconocer√° a quienes tienen la piel m√°s oscura. Hace un tiempo un equipo de investigaci√≥n chino public√≥ un art√≠culo diciendo que pod√≠an predecir si alguien era delincuente en funci√≥n de su foto de perfil. Pero, ¬Ņc√≥mo aprendi√≥ la m√°quina? Con fotos de perfiles de LinkedIn como ejemplos de personas “no delincuentes”, y fotos de prontuario (“mugshots” en ingl√©s) para delincuentes. La comparaci√≥n es insensata, a√ļn m√°s de lo que fue la frenolog√≠a: si usabas corbata inmediatamente quedabas descartada de la clasificaci√≥n como delincuente. Esa situaci√≥n va m√°s all√° de la investigaci√≥n, en los Estados Unidos ya se han arrestado personas por error debido a sistemas de reconocimiento propiedad del FBI.

¬ŅY qu√© podr√≠a salir peor a√ļn? Que nada asegura que la colecci√≥n de datos utilizada para entrenar haya sido preparada para ser justa y equilibrada para el reconocimiento facial. Cualquier sesgo en la creaci√≥n de estos datos se traspasar√° a lo que haga el algoritmo. Tanto sesgos en la recolecci√≥n de los datos como en la definici√≥n del algoritmo en s√≠ mismo. Por ejemplo, ¬Ņson los controles policiales equilibrados, o tienden a controlar m√°s a personas con ciertas caracter√≠sticas, de ciertos lugares? Imag√≠nalo a escala de pa√≠s y no de lo que alcanza a ver un polic√≠a en la calle, multiplicado. Un estudio del MIT de 2018 detect√≥ que un algoritmo de reconocimiento facial en Estados Unidos fallaba m√°s cuando se le presentaban fotos de mujeres y de hombres o mujeres de color, ¬°y m√°s a√ļn en casos que combinan esas caracter√≠sticas!

En Chile, este a√Īo un recinto de Mall Plaza prob√≥ tecnolog√≠a de reconocimiento facial. Por cada diez personas que trat√≥ clasificar, se equivocaba en nueve. ¬ŅPor qu√© se equivoc√≥? No se sabe. Entonces, ¬Ņcu√°les son los riesgos de tener un sistema como √©ste en Chile? Sin discutir las violaciones a la privacidad (no soy experto en ese tema), veo que solo por parecerte a alguien o tener ciertas caracter√≠sticas f√≠sicas, una m√°quina dir√° que eres culpable.