El prototipo, que considera las palabras y gestos del hablante, obtuvo una precisión del 75% en identificar quién estaba engañando (según la definición de los resultados de los juicios), en comparación el 50% de éxito que tuvieron las personas evaluando los casos.
Con el software, los investigadores afirman haber identificado varios indicadores. Los individuos que mienten movieron sus manos más, trataron de sonar más ciertos y, al contrario del creer común, miraron a sus interrogadores a los ojos más a menudo que los que decían la verdad.
El sistema podría un día ser una herramienta útil para agentes de seguridad, jurados e incluso profesionales de la salud mental, dicen los investigadores.
Para desarrollar y entrenar el software, el equipo estudió un conjunto de 120 videoclips de cobertura de juicios reales de varios medios de comunicación. Algunos de los clips provinieron de la página web The Innocence Project, una organización nacional que trabaja para exonerar al injustamente condenado.
Poder analizar situaciones del mundo real --donde las consecuencias son reales-- es bastante distinto a pruebas de laboratorio, dicen los científicos.
"En experimentos de laboratorio, es difícil crear un entorno que motive a la gente a mentir. Las consecuencias no son lo suficientemente altas", dijo Rada Mihalcea, profesora de ciencias de la computación e ingeniería que lidera el proyecto con Mihai Burzo, profesor asistente de ingeniería mecánica en la U-M-Flint. "Podemos ofrecer una recompensa si la gente puede mentir bien, pagarles para convencer a otra persona de que algo falso es cierto. Pero en el mundo real hay una verdadera motivación para engañar."
Los videos incluyen testimonios de acusados y testigos. En la mitad de los clips, se considera que el sujeto se ha mentido. Para determinar quién estaba diciendo la verdad, los investigadores compararon su testimonio con veredictos del juicio.
Para realizar el estudio, el equipo transcribió el audio, incluyendo interjecciones como "eh, ah, y uh." Luego analizaron la frecuencia con que los sujetos utilizaron diferentes palabras o categorías de palabras. También contaron los gestos en los videos usando un esquema de codificación estándar para las interacciones interpersonales que clasificó nueve movimientos diferentes de cabeza, ojos, cejas, boca y manos.
Los investigadores alimentaron los datos en su sistema y dejaron que organizara los videos. Cuando se utiliza la entrada de las palabras y los gestos del orador, tuvo una precisión del 75% en la identificación de quien estaba mintiendo, comparado con el 50% de identificado por humanos.
"Las personas son malos detectores de mentiras", dijo Mihalcea. "Este no es el tipo de tarea para la cual somos naturalmente buenos. Los seres humanos de forma natural dan ciertos indicios cuando están siendo engañosos, pero no estamos prestando suficiente atención para reconocerlos. No estamos contando cuántas veces una persona dice "yo" o mira para hacia arriba. Nos estamos enfocando en un nivel más alto de comunicación.
En los clips, los investigadores encontraron interesantes comportamientos entre quienes mentían:
El 30% de los mentirosos hizo muecas de la cara completa, comparado con el 10% de los honestos.
El 70% de los mentirosos miraron directamente a quienes los cuestionaba, en comparación con el 60% clips de quienes decían la verdad.
El 40% de los mentirosos gesticulaba con las manos, en comparación con 25% de aquellos diciendo la verdad.
El utilizar palabras como ‘um’ para rellenar era más usado por los mentirosos.
Los mentirosos se distanciaron más de la acción usando palabras como "él" o "ella", en lugar de o "yo" o "nosotros" y usaron más frases que reflejaban certeza.
El estudio es parte de un proyecto más amplio.
"Estamos integrando parámetros fisiológicos como la frecuencia cardíaca, las fluctuaciones del tipo de respiración y temperatura corporal, todos reunidos con imágenes térmicas no invasivo", dijo Burzo.
Los investigadores también están explorando la influencia de normas culturales cultural.
"La detección del engaño es un problema muy difícil", dijo Burzo. "Estamos atacándolo desde varios ángulos diferentes."
Para este trabajo, los investigadores clasifican los gestos, en lugar de hacerlo con computadora. Están en el proceso de ‘entrenar’ a la computadora para hacerlo.
El equipo de investigación también incluye a los becarios de investigación Verónica Pérez-Rosas y Mohamed Abouelenien. Un documento sobre las conclusiones titulado "Deception Detection using Real-life Trial Data" fue presentado en la Conferencia Internacional sobre Interacción Multimodal y se publica en las actas de la conferencia del 2015.
El trabajo fue financiado por la National Science Foundation, Fundación John Templeton y Agencia de Proyectos Avanzados de Investigación de Defensa.
No hay comentarios. :
Publicar un comentario