Reconocimiento Facial: ¿Si o no?

Por Santiago Trigo

lunes 16 de diciembre, 2019

Hoy en día muchos países, China es el “Big Brother” por excelencia, utilizan el reconocimiento facial para la persecución del delito. Pero antes de meternos de lleno en esto, comencemos con una breve explicación e historia del reconocimiento facial. El método consiste en detectar rostros en las imágenes digitales y para poder realizar esto utiliza, la hoy muy aclamada, Inteligencia Artificial. ¿Y qué es la Inteligencia Artificial?

Lo primero que quiero decirles es que la IA no es un término nuevo, sino que existe desde hace mucho mucho tiempo. Hay trabajos de la década del 40 donde se empezaba a hablar un poco sobre este concepto. Pero el que realmente puso a la Inteligencia Artificial en un plano realizable fue Alan Turing. Este hombre por si no sabían, fue el creador de lo que hoy llamamos computadoras, entre otras cosas, como también haber descifrado el código Enigma utilizado por los alemanes en la Segunda Guerra Mundial para enviarse mensajes sin que puedan ser leídos, nada, no hizo nada este muchacho. En 1950 Turing comenzó a hablar y a realizar trabajos sobre IA. Esto se los cuento para que vean que el término IA no es nuevo, pero como ahora el poder de las computadoras no es el de hace tanto tiempo, hizo que las máquinas que se consiguen en el mercado, puedan desarrollar este tipo de algoritmos y tecnología.

La IA es el proceso por el cual las máquinas pueden percibir su entorno y tomar decisiones en base a esto. ¿Cómo? Aprendiendo. Por ejemplo, nosotros sabemos que “Juan” es un nombre propio porque nos han enseñado que lo era y porque hemos analizado el contexto en el cual oímos o leemos esa palabra, lo mismo pasa con las máquinas. Para que ellas pueden interpretar que “Juan” es un nombre propio, se la debe enseñar para que pueda interpretarlo y pueda dar como resultado que Juan es un nombre propio. ¿Y quiénes son los encargados de enseñar a las máquinas? Las Personas. No hay otra opción. Las personas son quienes se encargan de darle las instrucciones diciéndole a la máquina por ejemplo: “En esta oración Juan es el nombre, en esta otra Pedro, etc etc” para que las máquinas puedan aprender y luego tomar decisiones. Claramente son ejemplos muy básicos pero quiero llegar a este punto: Las personas somos las que le decimos a un algoritmo de IA dónde está cada cosa y las máquinas pueden evaluar y aprender de todos los ejemplos que les damos. Entonces el procedimiento básico de un algoritmo de IA es el siguiente: entrenamiento o aprendizaje, evaluación, re-entrenamiento. Un vez que la evaluación informa que no se ha aprendido nada nuevo, ese algoritmo de IA estaría listo para poder ser aplicado a casos reales. Una vez aplicado a casos reales, sus resultados también deberán ser evaluados por personas para que puedan tomar decisiones. Y acá vamos al gran pilar de la Seguridad Informática: ningún sistema es 100% seguro y eficaz. Fallas presentan todos. Pero esto de las fallas lo vamos a dejar para un poquito más adelante.

¿Por qué toda esta introducción? Porque a lo que quiero llegar es que la IA no es mala ni buena, sino que sus resultados dependerán siempre de las personas que la hayan entrenado y/o las medidas a tomar en base a sus resultados, también deberían ser tomadas por PERSONAS. También depende de en dónde se aplique, será necesario evaluar si es adecuada o no su utilización. Entonces el foco de su uso responsable, para mi, está en las personas y no en el algoritmo en sí. El uso responsable presupone evaluar sus resultados y tomar decisiones en base a esto. El uso no responsable está determinado por aceptar los resultados arrojados por estos algoritmos sin la debida verificación o bien, un uso no responsable sería utilizar esta tecnología con fines oscuros o poco éticos.

Esto me llevó a pensar en el uso del reconocimiento facial por parte del estado en espacios públicos, donde somos reconocidos y detectados por el sólo hecho de caminar por la calle.

Existen muchos países que implementan el Reconocimiento Facial en el estado, ya hemos mencionado a China pero otros países también lo utilizan como Inglaterra, EEUU y si, la Argentina. ¿Cuál es el fundamento de la utilización del reconocimiento facial por parte del estado? ¿La persecución de un delito o el “big Brother” del estado hacia sus ciudadanos? Básicamente, su implementación consiste en comparar los rostros detectados con una base de datos de personas desaparecidas o con pedidos de captura y así poder informar a las autoridades cuando existe algún tipo de coincidencia sobre la persona detectada y la buscada, todo en tiempo real. ¿Qué implica un caso de acierto en estas condiciones? Demorar a dicha persona, pedirle su identificación y si coincide con la persona que figura en la base de datos, detenerla por ejemplo si es un caso de pedido de captura. Ahora bien, ¿se acuerdan de la premisa de la Seguridad Informática que decía que no todos los sistemas son 100% seguros y presentan fallas? También esto aplica para el reconocimiento facial y aplica aún más, porque los algoritmos no pueden siempre detectar correctamente los rostros o pueden tomar actitudes equivocadas en cuanto a su entorno (por ejemplo en la comparación con las bases de datos). ¿Y esto por qué es? Primero se puede deber a quién le enseñó a ese algoritmo a detectar rostros y compararlos. Por ejemplo, si yo le enseño con ejemplos de personas de diferente origen étnico al de su aplicación, lo más probable es que funcione realmente muy mal. El segundo factor de error se puede deber, justamente al procesamiento en tiempo real. Procesar en tiempo real, implica tener algoritmos de bajo costo de procesamiento, por consecuencia débiles y por eso pueden fallar también. Esto genera 2 tipos de errores: los falsos negativos y los falsos positivos. En los primeros, es muy difícil que nos demos cuenta que sucedieron, porque no vamos a saber que la persona con la que comparó su rostro con una base de datos, dio como que no figuraba en ella pero en realidad si era buscada. El gran problema lo tenemos con los falsos positivos, que son aquellas situaciones donde el algoritmo detectó que un rostro si se encuentra en una base de datos, pero en realidad el algoritmo falló y por lo tanto, la persona que figura en la base de datos es diferente a la detectada en calle. Entonces, ¿qué implica un falso positivo? A grandes rasgos implica que una persona que no es buscada, sea demorada, a priori, en la calle. Ha habido casos en los que personas han estado detenidas hasta tanto se resuelva su situación y se verifique que efectivamente no era prófuga de la justicia. Por ejemplo, en China, no sólo se utiliza para la búsqueda de personas sino también para labrar infracciones: se multó a una persona por haber cruzado mal la calle y en realidad el error se debió a que dicha persona figuraba en la publicidad de un colectivo. Claramente en este caso no hubo una verificación de esa multa ni cómo se produjo. Si hubiese existido, la multa no podría haberse llevado a cabo. Ahora China, ha implementado que todas las empresas de telecomunicaciones deben registrar los parámetros biométricos faciales de cualquier usuario de teléfono celular nuevo.

En la Argentina este sistema es implementado en la Ciudad Autónoma de Buenos Aires y en la ciudad de Córdoba. En CABA se ha planteado la inconstitucionalidad de la aplicación del Reconocimiento Facial porque se cree que viola el derecho a la intimidad de las personas y porque fue implementado como una resolución poco transparente y no como una ley donde se dé lugar al debate, la medición de su impacto y cómo afecta al normal desarrollo de las personas que transitan en el subte, por ejemplo.

En todos estos casos me surgen ciertos interrogantes debido a la no-transparencia en su implementación: ¿qué hacen con mis datos? ¿Con qué bases de datos cruzan los rostros detectados? Luego de detectar mi rostro, ¿se destruye o queda almacenado? Para la ONG Access Now, la implementación de esta tecnología en la ciudad de CABA fue digna del premio al “Villano del año” por considerar que dicha implementación no estaba dentro de los criterios de transparencia adecuados para su utilización. ¿y saben qué? Comparte el podio con Mark Zuckerberg, el CEO de la empresa Facebook.

No obstante esto, volvemos a que las personas u organizaciones son aquellas que están siempre en el foco de la utilización de estas tecnologías. ¿El problema es el Reconocimiento Facial? ¿O el problema es la falta de transparencia en su implementación por parte de las personas que están a cargo de la toma de estas decisiones e implementaciones? ¿Hasta qué punto este sistema no es utilizado para vigilancia? Y ahora que nombramos la palabra “vigilancia” se me viene a la mente un dicho anónimo que dice: “Cualquier sistema que pueda ser utilizado para vigilancia… será utilizado para vigilancia”.

Yo creo que la Inteligencia Artificial no es el problema, sino que el problema es quien la aplica y toma decisiones con sus resultados. En el caso del reconocimiento facial en espacios públicos por parte del estado ¿Qué es más importante, la persecución y resolución de un delito o atentar contra la libre circulación de las personas en la vía pública?

Para concluir, mi idea es focalizar en que no existe, al menos para mi, una grieta en la que unos están a favor del Reconocimiento Facial y otros están en contra. Siempre lo que hay que cuestionar es el fin de la utilización de estas tecnologías y si ese fin está adecuadamente reglamentado y se ha realizado una medición del impacto que podría generar. Una correcta evaluación del impacto, nos dará como resultado si su implementación es viable o no.

La pregunta es ¿para qué? Y no ¿con qué? La respuesta al para qué siempre tendrá como protagonistas a las personas u organizaciones que son quienes toman decisiones y no a las máquinas.

Comentarios

Argentina - Coronavirus (COVID-19)

Total casos: 67197 - Muertes: 1351 | Mar del Plata Casos activos: 9 - Casos sospechosos: 18 - Muertes: 4