En un hospital, un paciente completamente inmovilizado —incapaz de moverse o hablar— se queda solo por unos minutos mientras su cuidadora se ausenta brevemente. De pronto, algo falla: el tubo que le permite respirar se obstruye. En otra época, esta escena podría haber terminado en tragedia. Pero esta vez, un leve gesto del rostro del paciente activa una alerta. Gracias a una cámara web y un sistema de inteligencia artificial, el personal médico acude a tiempo y el paciente sobrevive.
El sistema que permitió detectar la emergencia corresponde a una innovadora interfaz humano-máquina desarrollada por el doctor Claudio Tapia, académico del Departamento de Kinesiología y director de Openics —el Ecosistema de Innovación en Ciencias de la Salud de la Facultad de Medicina de la Universidad de Chile— en el marco del proyecto “Implementación de plataforma integrada video-analítica para mejorar la eficiencia en procesos de cuidados de pacientes con discapacidad motora severa crónica hospitalizados en centros de salud y domicilio”.
La iniciativa, financiada por la Superintendencia de Seguridad Social (SUSESO) en su convocatoria 2024 para proyectos de investigación e innovación en prevención de accidentes y enfermedades profesionales, permite que personas con discapacidad motora severa crónica puedan comunicarse e interactuar con su entorno mediante gestos faciales, captados por una simple cámara web.
Una plataforma para el cuidado eficiente
El origen de esta tecnología se remonta a la pandemia de Covid-19, cuando el equipo del doctor Tapia comenzó a investigar algoritmos de visión computacional enfocados en el reconocimiento de patrones de movimiento facial: “Trabajamos en identificar gestos voluntarios, especialmente aquellos que las personas realizan de manera intencional para comunicarse, que pudieran ser utilizados por personas que no pueden hablar ni moverse”, explicó el líder del proyecto.
A partir de esta exploración, el equipo identificó puntos clave en la anatomía facial que, en su conjunto, permitieron construir una malla matemática capaz de detectar movimientos gestuales sin comprometer la identidad biométrica del paciente: “El resultado es un sistema video-analítico que permite a los pacientes activar funciones del entorno —como prender la luz, cambiar de canal en la televisión o solicitar ayuda al personal médico— mediante gestos faciales simples, como el movimiento de una ceja o de los labios, captados por una cámara web común”, explicó el académico.
Esta malla matemática actúa como un puente entre el gesto facial y la acción, permitiendo que personas con discapacidad motora severa puedan comunicarse con su entorno de forma independiente, a través de una interfaz humano-máquina, sin necesidad de contacto físico ni dispositivos invasivos, lo que facilita una interacción más natural y respetuosa con sus capacidades.
La eficacia del sistema video-analítico fue comprobada durante pasos previos de la investigación, por lo que, en palabras del doctor Claudio Tapia, “nuestro foco actual está puesto en conectar el sistema a una plataforma de reporte integrada”, señaló. “Esta plataforma permitirá monitorear en tiempo real las necesidades de los pacientes, y registrar datos claves sobre su interacción con el entorno”, aseveró.
Asimismo, el sistema recopilará y reportará información valiosa sobre el estado emocional del paciente: “Para alguien que necesita ayuda incluso para rascarse la cara o afeitarse, el simple hecho de poder encender la luz por sí mismo representa un cambio enorme. Son pequeñas acciones que mejoran su calidad de vida y ayudan a prevenir cuadros de depresión”, señaló el doctor Tapia. “Estas acciones no solo fomentan la autonomía, sino que también se convierten en indicadores de bienestar emocional y cognitivo de la persona”, añadió.
La nueva plataforma de reporte integrada contempla dos tipos de visualización: “Una interfaz técnica, orientada al personal médico y otra diseñada para el paciente y su familia. Así, no solo se facilita la toma de decisiones clínicas, como por ejemplo definir si alguien necesita un cuidador 24/7, sino que también se ofrece una forma de acompañamiento y supervisión más cercana, en la que la familia puede estar al tanto de toda la situación”, describió el académico.
La implementación de este sistema comenzó en marzo de 2025 y contempla una extensión de 12 meses. Las personas participantes del estudio corresponden a pacientes de la Mutual de Seguridad, y personas hospitalizadas en hogares afiliados a la Ley de Accidentes del Trabajo.
La investigación cuenta con la colaboración del profesor Gonzalo Rivera, académico de los departamentos de Kinesiología y Neurociencias de nuestra facultad; la profesora Bárbara Torres, enfermera y coordinadora de Openics del mismo plantel; y un equipo de ingenieros de la Universidad de Chile.
La tecnología como herramienta para el bienestar
Además de mejorar el monitoreo clínico, el proyecto entrega herramientas concretas para dignificar el cuidado: “Esta iniciativa está directamente alineada con el Eje 5 —Funcionamiento y Discapacidad— de la Estrategia Nacional de Salud para los Objetivos Sanitarios al 2030, que promueve el desarrollo de soluciones destinadas a mejorar la calidad de vida de personas con dependencia severa”, señaló el doctor Claudio Tapia.
En ese sentido, el proyecto trasciende el avance técnico: “Lo que estamos haciendo es construir una nueva forma de cuidar”, afirmó el académico. Por ello, “durante estos 12 meses de ejecución buscaremos demostrar el potencial de escalabilidad del sistema, con miras a una futura implementación masiva”, añadió.
La futura implementación extensiva de esta plataforma video-analítica apunta a optimizar la asignación de recursos humanos, reducir errores y automatizar alertas: “Las personas con discapacidad severa han sido históricamente humano-dependientes. Eso tiene un alto costo: en camas ocupadas, tiempos de espera, desgaste del sistema y en el uso intensivo de recursos, entre otras cosas. Este tipo de herramientas viene a alivianar esas cargas”.
El equipo de investigación también proyecta mejoras continuas en la interfaz, incorporando nuevas funcionalidades. Una de ellas es el reconocimiento emocional. A través de los mismos sistemas de visión computacional mediante IA, se están desarrollando herramientas capaces de identificar expresiones faciales vinculadas al dolor o al estado anímico del paciente, especialmente en contextos postoperatorios. Esta línea está siendo trabajada en conjunto con el Hospital Clínico de la Universidad de Chile (HCUCH), como parte de un proyecto Fondef. “La idea es seguir avanzando y alcanzar una etapa de validación más amplia”, indicó el doctor Tapia.
Este proyecto SUSESO demuestra que si bien la tecnología no reemplaza el cuidado humano, puede complementarlo de manera decisiva. “Con esta iniciativa, estamos llevando la investigación directamente a la aplicación práctica en salud. Esa aplicación puede marcar la diferencia entre la dependencia total y la posibilidad de decir, con un gesto: ‘aquí estoy, ayúdenme’”, subrayó.
Así, la innovación tecnológica no solo amplía las posibilidades de autonomía para personas con discapacidad motora severa, sino que también se proyecta como un modelo de atención más eficiente, digno y humano. “Esta es una manera concreta de cuidar mejor a quienes más lo necesitan. No solo estamos entregando una nueva forma de asistencia, sino que estamos salvando vidas”, concluyó el doctor Claudio Tapia.