Un equipo científico de la Universidad Carlos III de Madrid (UC3M) ha perfeccionado el funcionamiento de Bindi, un sistema de detección de emociones en wearables (tecnología vestible) capaz de identificar el miedo en tiempo real en situaciones de maltrato para activar protocolos de auxilio automáticos. Su último avance ha consistido en integrar algoritmos de aprendizaje profundo (deep learning), una rama avanzada de la Inteligencia Artificial (IA), para que esta detección se realice sin necesidad de servidores remotos, reduciendo el consumo de energía y el envío de información sensible
El estudio científico en el que se detallan estas novedades, publicado en el Journal of Biomedical and Health Informatics, ha sido concebido para operar en microcontroladores integrados en redes de área corporal. Este planteamiento se diferencia de otros enfoques que requieren enviar la información a procesadores en la nube con una capacidad de cómputo elevada, pero costosa, explican los investigadores.
“Nuestra innovación parte de que no introducimos la señal en bruto, sino que el sistema realiza una extracción de 57 características previamente seleccionadas procedentes de señales fisiológicas como la conductancia de la piel, la temperatura cutánea y el volumen de pulso sanguíneo. Es precisamente la combinación de esta representación basada en características con la arquitectura convolucional la que permite capturar de forma eficaz la dinámica de las respuestas fisiológicas”, explica una de las autoras del estudio, Laura Gutiérrez Martín, que ha defendido su tesis hace unos meses en la UC3M sobre este tema, con el título: Expert system for robust alarm detection during fear episodes in cyber-physical systems. “Eso nos permite reducir drásticamente los requisitos computacionales, haciendo que el modelo ocupe menos espacio de memoria que una fotografía tomada con un teléfono móvil”, añade.
“Lo que buscamos es detectar el miedo antes de que se produzca la agresión, para activar una red de apoyo que pueda intervenir de forma inmediata”, explica una de las autoras del estudio, Celia López Ongil, profesora del Dpto. de Tecnología Electrónica de la UC3M y directora del Instituto de Estudios de Género (IEG).
El funcionamiento es simple y efectivo. Cuando el sistema identifica una situación de riesgo, envía una alerta automática a un círculo guardián. Si la persona no confirma que se encuentra bien, el objetivo es que el sistema contacte directamente con la policía. Además, se produce el cifrado de todos los datos registrados y su almacenamiento en un servidor seguro, de modo que pueda utilizarse como prueba judicial si fuera necesario, explica la investigadora.
El estudio ha conseguido métricas de exactitud en torno al 80%, lo que representa mejoras del 26,4% respecto a versiones anteriores. Pero más allá de los resultados actuales, el equipo sigue trabajando en reducir el consumo y mejorar el modelo, ya que la utilización de este tipo de dispositivos puede ayudar a las personas a identificar sus estados emocionales y acompañarlas en la recuperación psicológica posterior.
“Lo bueno es que el sistema podría extrapolarse también a otros ámbitos, como la detección temprana de situaciones de acoso escolar. No obstante, la tecnología por sí sola no resolverá la violencia de género ni el acoso. DeepBindi es una herramienta de apoyo que debe complementarse con educación y medidas sociales”, concluye José Ángel Miranda Calero, miembro también del equipo investigador.
El proyecto DeepBindi ha sido desarrollado en el marco del equipo multidisciplinar UC3M4Safety y ha contado con financiación de la Agencia Estatal de Investigación y del INCIBE. El equipo busca ahora completar un piloto a gran escala que permita validar el sistema en entornos reales y facilitar su implementación, al tiempo que busca continuar la investigación y el desarrollo tecnológico
Referencia bibliográfica: L. Gutiérrez-Martín, C. López-Ongil, J. A. Miranda-Calero (2026) "DeepBindi: An End-to-End Fear Detection System Optimized for Extreme-Edge Deployment," in IEEE Journal of Biomedical and Health Informatics, vol. 30, no. 1, pp. 688-699, Jan. 2026, doi: 10.1109/JBHI.2025.3587961. e-archivo UC3M:
https://hdl.handle.net/10016/49576
Vídeo: https://youtu.be/fd5EkQIL2ko