Inicio » Tecnología » El reconocimiento facial ya lee «emociones»

El reconocimiento facial ya lee «emociones»

Como si ya no fuera inquietante y polémico el uso de tecnologías de reconocimiento facial en materia de seguridad pública (Córdoba anunció con bombos y platillos que tiene una unidad móvil en uso para ese fin), hay firmas como Microsoft y Fujitsu que avanzaron en un desarrollo todavía más amenazante: la detección de emociones humanas a partir del rostro.

Pero vamos desde el principio: ¿es esto un problema? A juzgar por recientes resoluciones de ciudades como San Francisco, capital "tech" de Estados Unidos, donde una ley prohibió expresamente hace poco el uso policial del reconocimiento facial más simple, pareciera que sí. En principio, se está violando lisa y llanamente la libertad para circular a cara descubierta, e incluso pondría en tela de juicio la posibilidad de caminar por la calle con bufanda o gorra.

Eso, sin contar los conflictos legales que encierra someter indiscriminadamente a la población a una averiguación de antecedentes constante.

Y como los avances tecnológicos suceden al margen de legislaciones que norman el uso, no la investigación, Microsoft y Fujitsu llevan la cuestión todavía más lejos: ¿qué tal si podemos detectar las emociones de tu cara, incluso las que quisieras ocultar?

La firma japonesa presentó una tecnología basada en Inteligencia Artificial (IA) que puede rastrear cambios sutiles de expresión tales como nerviosismo o confusión, dejando atrás a Microsoft, que se limita a ocho estados "centrales": ira, desprecio, miedo, repugnancia, felicidad, tristeza, sorpresa o neutralidad.

Hasta ahora, la tecnología disponible funciona mediante la identificación de varias unidades de acción (UA), es decir, ciertos movimientos musculares faciales que realizamos y que pueden estar relacionados con emociones específicas. Por ejemplo, si tanto el "elevador de mejillas" de la UA como el "tensor de comisuras" se identifican juntos, la IA puede concluir que la persona que está analizando está contenta.

Sin embargo, tal como se explica en el comunicado que publicó la firma japonesa, el problema con la tecnología actual es que la IA necesita ser entrenada en enormes conjuntos de datos para cada UA. Necesita saber cómo reconocer una UA desde todos los ángulos y posiciones posibles. Pero no tenemos suficientes imágenes para eso, así que normalmente no es tan preciso.

De hecho, buena parte de la investigación tiende a demostrar que la tecnología actual utilizada para el reconocimiento de las emociones no es fiable. O no lo era hasta ahora.

Porque –y aquí viene la parte inquietante– Fujitsu afirma que encontró una "solución" al problema. En lugar de crear más imágenes para entrenar a la IA, se les ocurrió una herramienta para extraer más datos de una misma imagen. Gracias a lo que llama un "proceso de normalización", puede convertir imágenes tomadas desde un ángulo particular en algo que se asemeja a un plano frontal.

Después de ser ampliada, reducida o girada adecuadamente, la imagen frontal creada a partir de este proceso permite que la IA detecte las UA mucho más fácilmente y con mucha más precisión.

"Con el mismo conjunto de datos limitado, podemos detectar mejor más UA, incluso en imágenes tomadas desde un ángulo oblicuo, por ejemplo", dijo el portavoz de Fujitsu. "Y con más UA, podemos identificar emociones complejas, que son más sutiles que las expresiones centrales analizadas actualmente".

Así, Fujitsu pudo detectar cambios emocionales tan elaborados como la risa nerviosa, con una tasa de precisión de detección del 81%, que supera ampliamente a la tasa del 60% que logró Microsoft.

¿Para qué?

Fujitsu asegura –como para "tranquilizarnos"– que la idea es introducir la tecnología en aplicaciones prácticas para casos de uso como la asistencia en teleconferencias, la medición del compromiso de los empleados en una empresa y el monitoreo de los conductores humanos de vehículos.

facial-recog_1571834185_1572548146.jpg