Home » 7.5 millones de expresiones faciales en 87 países, un negocio de IA de $ 20 mil millones
INTELIGENCIA ARTIFICIAL

7.5 millones de expresiones faciales en 87 países, un negocio de IA de $ 20 mil millones

expresiones, 7.5 millones de expresiones faciales en 87 países, un negocio de IA de $ 20 mil millones, SecureWeek

Las máquinas ahora pueden identificar la ira, el miedo, el disgusto y la tristeza, y la detección de sentimientos ha evolucionado de un proyecto de investigación a una industria de $ 20 mil millones.

¿Puede el programa de detección descubrir posibles terroristas leyendo expresiones faciales y comportamientos? Esta es una hipótesis presentada por la Administración de Seguridad del Transporte de EE. UU. (TSA, por sus siglas en inglés) en 2003. Al desarrollar el proyecto, consultaron a Paul Ekman, profesor honorario jubilado de psicología en la Universidad de California en San Francisco. Hace unas décadas, Ekman había desarrollado una forma de identificar expresiones faciales sutiles y mapearlas con las emociones correspondientes. Este método se usaba para entrenar a “inspectores de comportamiento”: escanear caras. El departamento observó si había signos de engaño.

Pero cuando se lanzó el programa en 2007, enfrentó problemas como que la policía a menudo utiliza la tecnología para arrestar a los sospechosos. Lo que es aún más preocupante es que se alega que el plan es racialmente discriminatorio.

Desde entonces, Ekman ha intentado romper con el proyecto de la Administración de Seguridad del Transporte de los EE. UU., Afirmando que su método ha sido mal utilizado, pero los analistas creen que el plan fracasó debido a una ciencia obsoleta de Ekman. Teoría, es decir, la emoción puede inferirse objetivamente a través del análisis facial.

En los últimos años, las compañías de tecnología han empezado a utilizar el enfoque de Ekman para los algoritmos de entrenamiento que detectan las emociones de las expresiones faciales. Algunos desarrolladores afirman que los sistemas automáticos de detección de emociones no solo comprenden mejor las emociones faciales al analizar las expresiones faciales que los humanos. Y estos algoritmos también se adaptarán para detectar nuestros sentimientos internos, mejorando enormemente nuestra interacción con los dispositivos electrónicos.Pero a muchos expertos que estudian la ciencia emocional les preocupa que estos algoritmos vuelvan a fallar, tomando decisiones de alto riesgo sobre nuestras vidas basadas en la ciencia incorrecta.

Un gran negocio por valor de 20 mil millones de dólares

La tecnología de detección emocional requiere dos técnicas: visión por computadora, para reconocer con precisión las expresiones faciales. Algoritmos de aprendizaje automático para analizar e interpretar el contenido emocional de estas características faciales.
expresiones, 7.5 millones de expresiones faciales en 87 países, un negocio de IA de $ 20 mil millones, SecureWeek
Cámara de detección de peatones está trabajando en el mapa / New York TimesEl segundo paso usualmente usa una técnica llamada aprendizaje supervisado. A través de esta técnica, un algoritmo está entrenado para reconocer lo que ha visto. La idea básica es que si muestra una imagen de miles de sonrisas debajo de la etiqueta “feliz”, cuando vea una nueva foto con una sonrisa, la reconocerá como “feliz” (“feliz”).

La estudiante graduada Rana el Kaliouby fue una de las primeras investigadoras en comenzar a experimentar con este método. En 2001, después de llegar a Cambridge desde Egipto para obtener un doctorado en informática, descubrió que pasaba más tiempo en la computadora que pasar tiempo con otros. Ella cree que si puede enseñar a las computadoras a reconocer su estado emocional y responder, entonces no estará tan sola cuando no haya familiares y amigos cerca.

El resto de la investigación en el Dr. Kaliouby está dedicada a resolver este problema. Finalmente, ella desarrolló un dispositivo que ayuda a los niños con síndrome de Asperger a leer las expresiones faciales y responder en consecuencia. Ella lo llamó un “audífono emocional”.

En 2006, Kaliouby se unió al Laboratorio de Computación Emocional del MIT, donde trabajó con la directora del laboratorio Rosalind Picard para continuar mejorando y refinando la tecnología. Desde entonces, en 2009, cofundaron Affectiva, que vende “inteligencia emocional artificial” al mercado.

Al principio, Affectiva vendió su tecnología de detección emocional como un producto de investigación de mercado, haciendo respuestas emocionales en tiempo real a la publicidad y los productos, y encontraron cosas como Marte, Kellogg’s y CBS. ) tal cliente. Hoy en día, Amazon, Microsoft e IBM también utilizan el “análisis de sentimientos” como uno de sus productos de reconocimiento facial. Muchas compañías más pequeñas, como Kairos y Eyris, también han comenzado a ofrecer servicios similares.

Además de la investigación de mercado, la tecnología de detección de sentimientos ahora se usa para monitorear y detectar el deterioro físico del conductor, probar la experiencia del usuario de los videojuegos y ayudar a los profesionales médicos a evaluar la salud del paciente.

Kaliouby ha sido testigo del crecimiento de las pruebas emocionales de un proyecto de investigación a una industria de $ 20 mil millones. Ella cree que la industria seguirá creciendo y desarrollándose. Kaliouby predice que en un futuro próximo, esta tecnología será ubicua e integrada en todos nuestros equipos para “utilizar nuestras reacciones internas, subconscientes y siempre a tiempo”.

Una base de datos de 7,5 millones de caras en 87 países

Al igual que con la mayoría de las aplicaciones de aprendizaje automático, el progreso de la detección de sentimientos depende del acceso a datos de mayor calidad.
expresiones, 7.5 millones de expresiones faciales en 87 países, un negocio de IA de $ 20 mil millones, SecureWeek
Software de reconocimiento facial en la feria / Reuters.Affectiva dijo que su depósito de datos emocionales contiene más de 7.5 millones de rostros de 87 países, la mayoría de los cuales fueron recopilados a partir de videos selectivos de televisión o viajeros diarios.

En la actualidad, las expresiones faciales se pueden traducir en emociones correspondientes utilizando esta técnica. Por ejemplo, si ven que las cejas están caídas, los labios están cerrados y los ojos son convexos, se adjunta la etiqueta de “ira”. Este conjunto de datos de emociones humanas etiquetadas se usa para entrenar el algoritmo, que aprende a asociar una cara con el ceño fruncido y la ira, la cara sonriente y la felicidad.

Muchos consideran que este método de etiquetado es el estándar de oro para medir emociones en la industria de detección de sentimientos. Fue desarrollado por Paul Ekman y Wallace V Friesen en la década de 1980. El nombre se deriva del “Sistema de codificación de movimiento facial emocional” (Emfacs).

Las raíces científicas de este sistema se remontan a la década de 1960, cuando Ekman y dos colegas asumieron que había seis emociones universales en el mundo: enojo, disgusto, miedo, felicidad, tristeza y sorpresa, que Nuestra respuesta emocional innata se puede detectar al analizar los movimientos de los músculos faciales en todas las personas que se encuentran en diferentes culturas.

Para probar esta hipótesis, mostraron fotos faciales a personas en diferentes partes del mundo pidiéndoles que identificaran las emociones que vieron. Descubrieron que, a pesar de las enormes diferencias culturales, los humanos relacionarían las mismas expresiones faciales con las mismas emociones. Para los banqueros estadounidenses y los cazadores seminómadas en Papua Nueva Guinea, las cejas están bajas, los labios cerrados y la cara que sobresale de los ojos significa “ira”.

expresiones, 7.5 millones de expresiones faciales en 87 países, un negocio de IA de $ 20 mil millones, SecureWeek
Durante las siguientes dos décadas, Ekman utilizó sus hallazgos para desarrollar una forma de identificar rasgos faciales y mapearlos con las emociones correspondientes. La premisa subyacente es que si las emociones generales de una persona se activan, entonces se produce una correlación. Los movimientos faciales aparecerán automáticamente en la cara. Incluso si esa persona trata de encubrir las emociones, el verdadero instinto se “filtrará”, de modo que aquellos que saben cómo observar pueden capturar las emociones de los demás.A lo largo de la segunda mitad del siglo XX, esta teoría se llamó teoría emocional clásica y comenzó a dominar la ciencia emocional. Ekman solicitó una patente para su método de detección de sentimientos y comenzó a venderlo como un programa de capacitación para la CIA, el FBI, Aduanas y Protección de Fronteras y TSA. El concepto de emociones reales legibles incluso penetró en la cultura popular. Constituye la base teórica de la serie de televisión Lie to Me.

Sin embargo, muchos científicos y psicólogos que estudian la esencia emocional cuestionan la teoría clásica y los métodos de detección emocional relacionados de Ekman. En los últimos años, la profesora de Estudios Comparativos de la Universidad Northeastern, Lisa Feldman Barrett ( Lisa Feldman Barrett) hizo una crítica fuerte y duradera.

Barrett se encontró con la teoría clásica durante sus estudios de posgrado. Necesitaba una forma objetiva de medir las emociones y encontró el método de Ekman. Mientras revisaba la literatura, comenzó a preocuparse por los posibles métodos de investigación defectuosos. Específicamente, ella cree que al darle a las personas una etiqueta emocional preseleccionada para que coincida con las fotos, Ekman inadvertidamente “ya tuvo una respuesta predeterminada”.

Barrett y un grupo de colegas probaron esta hipótesis al volver a ejecutar la prueba de Ekman. Pero no proporcionan etiquetas, lo que permite a los evaluadores describir libremente las emociones en las imágenes que ven, y la relación entre las expresiones faciales específicas y las emociones específicas se desploma.

Desde entonces, Barrett ha desarrollado su propia teoría de la emoción, elaborada en su libro Cómo se hacen las emociones: la vida secreta del cerebro. Ella cree que no hay una emoción universal en el cerebro activada por estímulos externos, sino que cada experiencia emocional está formada por partes más básicas.

Ella escribe: “La emoción es una combinación de características físicas de tu cuerpo. Es un cerebro flexible que se puede conectar a cualquier entorno en el que se encuentre. Es tu cultura y educación las que proporcionan este ambiente. La emoción es real, pero objetiva. No es en el sentido de que las moléculas o las neuronas sean reales y tan reales como el dinero. Esto no es una ilusión, sino un producto de la unanimidad humana “.

Barrett explicó que no tiene sentido mapear las expresiones faciales directamente a las emociones en todas las culturas y entornos. Una persona puede fruncir el ceño cuando está enojada, mientras que otra persona puede sonreír cortésmente al enemigo, así que evalúe Las emociones se entienden mejor como una práctica dinámica que incluye procesos cognitivos automáticos, interacción humana, experiencias específicas y habilidades culturales. Ella dijo: “Parece muy difícil, pero lo hace”. Caliobi también cree que “las emociones son complejas”.

Es por eso que ella y su equipo en Emotional Research han estado trabajando arduamente para aumentar la riqueza y complejidad de los datos.

Además de usar video en lugar de imágenes fijas para entrenar sus algoritmos, también intentan capturar más datos de fondo, como el sonido, la marcha y los cambios faciales fuera de la percepción humana, ella cree que mejores datos significarán más precisos Como resultado, algunos estudios incluso afirman que las máquinas son superiores a los humanos en la detección emocional.

Pero según Barrett, esto no solo está relacionado con los datos, sino también con la forma en que se etiquetan los datos. El proceso de marcado utilizado por las compañías de pruebas emocionales y otras compañías de pruebas emocionales para entrenar algoritmos solo puede identificar lo que Barrett llama “estereotipos emocionales”. Las impresiones, como los emojis, son consistentes con los temas emocionales que son comunes en nuestra cultura.

Meredith Whittaker, codirectora del Instituto de Inteligencia Artificial de la Universidad de Nueva York, cree que la creación de una aplicación de aprendizaje automático basada en la ciencia obsoleta de Eckman no solo es una mala práctica, sino también una práctica real. Daño social.

Ella dijo: “Usted ha visto que las compañías de reclutamiento utilizan estas técnicas para medir si un candidato es un buen empleado. También puede ver técnicas experimentales para que la escuela observe si los estudiantes están ocupados, aburridos o enojados en clase. Leoby dijo: “Esta información puede usarse para evitar que las personas obtengan empleos o cambien sus métodos de tratamiento y evaluación en la escuela. Si el análisis no es muy preciso, será una lesión. ”

Kalliobi también es muy consciente de la importancia de establecer diferentes conjuntos de datos. Ella dijo: “Queremos asegurarnos de que los datos de entrenamiento sean diversos al entrenar estos algoritmos. Necesitamos representar a los caucásicos, asiáticos, personas con piel más oscura e incluso a personas que llevan pañuelos en la cabeza”. Es por eso que los equipos de investigación desean Razones para la recopilación de datos en 87 países.

A través de este proceso, notaron que en diferentes países, las expresiones emocionales parecen mostrar diferentes fortalezas y matices. Por ejemplo, los brasileños usan una sonrisa amplia y larga para expresar felicidad, mientras que en Japón, sonrisa no significa felicidad, sino más bien cortesía. El análisis del sentimiento explica esta diferencia cultural, agrega otra capa de análisis al sistema, compila los “puntos de referencia basados ​​en la raza” que llama Cariobi y compila suposiciones sobre cómo se expresan las emociones en diferentes culturas étnicas.

Pero es este algoritmo basado en marcadores raciales y otros lo que hace que Whittaker se preocupe de que la tecnología de detección de sentimientos implique el futuro de la automatización. De hecho, las compañías han predicho la posibilidad de que alguien se convierta en un criminal.

Estudios recientes también han demostrado que la tecnología de reconocimiento facial es más propensa a los prejuicios contra grupos de minorías étnicas. Un artículo publicado en diciembre del año pasado mostró que las técnicas de detección emocional mostraban más emociones negativas en las caras negras que en las blancas.

Kalliobi cree que el sistema emocional tiene un clasificador étnico, y reconoce que la tecnología no es infalible.

X