Defesa de Dissertação de Mestrado de Cristiano Santana do Nascimento, 05/09/25, 14h, por videoconferência

Defesa de Dissertação de Mestrado de Cristiano Santana do Nascimento, 05/09/25, 14h, por videoconferência

 

Link para defesa: https://meet.google.com/zaa-ftvy-drn


Reconhecimento de Atividades Humanas Transicionais em Smartwatches: Uma Abordagem Otimizada com Deep Learning em Dados Brutos para Dispositivos Vestíveis

Resumo:

 

O reconhecimento de atividades humanas (HAR) com sensores vestíveis tem ganhado crescente atenção na literatura científica devido ao seu potencial impacto em aplicações de saúde, envelhecimento assistido e ambientes inteligentes. Particularmente desafiador é o reconhecimento de atividades transicionais posturais, como sentar-para-levantar e deitar-para-sentar, que apresentam curta duração, alta variabilidade inter e intrausuário, e carecem dos padrões repetitivos encontrados em movimentos básicos. Esta pesquisa objetivou desenvolver uma solução eficiente e robusta para reconhecimento de atividades humanas complexas em smartwatches, otimizada para implantação em dispositivos com recursos limitados. A metodologia compreendeu a reestruturação dos conjuntos de dados KU-HAR, UniMiB SHAR e HAPT para versões baseadas exclusivamente em sinais brutos de acelerômetros e giroscópios, eliminando a dependência de features manuais pré-extraídas. Foi projetado e implementado um modelo híbrido CNN-LSTM com mecanismo de atenção capaz de capturar dependências espaciais e temporais dos sinais sensoriais, utilizando validação cruzada estratificada de 5 folds com segmentação por sujeitos. A principal contribuição desta pesquisa reside na demonstração de que modelos de aprendizado profundo podem processar diretamente dados brutos de sensores, superando abordagens tradicionais baseadas em features manuais, especialmente em contextos de edge computing. Os resultados experimentais revelaram superioridade consistente dos dados brutos na validação cruzada, com ganhos de acurácia de 5,0% no dataset HAPT, 3,6% no UniMiB SHAR e 0,2% no KU-HAR, combinados com a eliminação das etapas computacionalmente custosas de extração de centenas de features manuais. A implementação prática em ambiente Wear OS demonstrou que a abordagem de dados brutos apresenta crescimento linear e controlado no consumo de CPU, memória e tempo de execução, contrastando com o comportamento exponencial das features manuais que registraram overhead de 165% no consumo de memória e 550% no tempo de execução. As conclusões principais indicam que a reformulação estrutural adequada dos datasets, preservando a granularidade temporal original dos sensores e combinada com arquiteturas de aprendizado profundo, pode superar significativamente abordagens tradicionais, oferecendo vantagens operacionais decisivas para implementação em dispositivos vestíveis com monitoramento contínuo de atividades transicionais críticas para aplicações de saúde móvel.

Abstract:

 

Human Activity Recognition (HAR) with wearable sensors has gained increasing attention in scientific literature due to its potential impact on health applications, assisted aging, and smart environments. Particularly challenging is the recognition of postural transitional activities, such as sit-to-stand and lie-to-sit, which present short duration, high inter- and intra-user variability, and lack the repetitive patterns found in basic movements. This research aimed to develop an efficient and robust solution for complex human activity recognition in smartwatches, optimized for deployment on resource-limited devices. The methodology comprised the restructuring of KU-HAR, UniMiB SHAR, and HAPT datasets into versions based exclusively on raw signals from accelerometers and gyroscopes, eliminating the dependence on pre-extracted manual features. A hybrid CNN-LSTM model with attention mechanism was designed and implemented, capable of capturing spatial and temporal dependencies of sensor signals, using stratified 5-fold cross-validation with subject segmentation. The main contribution of this research lies in demonstrating that deep learning models can directly process raw sensor data, surpassing traditional approaches based on manual features, especially in edge computing contexts. Experimental results revealed consistent superiority of raw data in cross-validation, with accuracy gains of 5.0% on the HAPT dataset, 3.6% on UniMiB SHAR, and 0.2% on KU-HAR, combined with the elimination of computationally expensive stages for extracting hundreds of manual features. Practical implementation in Wear OS environment demonstrated that the raw data approach presents linear and controlled growth in CPU, memory, and execution time consumption, contrasting with the exponential behavior of manual features that registered 165% overhead in memory consumption and 550% in execution time. The main conclusions indicate that adequate structural reformulation of datasets, preserving the original temporal granularity of sensors and combined with deep learning architectures, can significantly surpass traditional approaches, offering decisive operational advantages for implementation in wearable devices with continuous monitoring of transitional activities critical for mobile health applications.

 

Banca  examinadora:

 

Prof. José Viterbo Filho, UFF – Presidente

Profa. Flavia Cristina Bernardini, UFF 

Dr. Leandro Botelho Alves de Miranda, BlueShift Brasil

Dr. Eduardo de Oliveira Andrade, BlueShift Brasil

Related Posts

Leave a Reply