@MASTERSTHESIS{ 2022:1116867081, title = {Compressão de modelos de reconhecimento de atividades humanas usando destilação de conhecimento}, year = {2022}, url = "https://tede.ufam.edu.br/handle/tede/9182", abstract = "O uso de dispositivos móveis e vestíveis tem possibilitado o monitoramento contínuo das atividades realizadas pelo usuário. Entretanto, esse processo é desafiador devido à natureza complexa dos dados capturados pelos sensores disponíveis nestes dispositivos. Recentemente, o uso de redes neurais profundas tem ampliado os limites para reconhecer atividades humanas com alta precisão. No entanto, no contexto móvel e vestível, as restrições de hardware podem inviabilizar o uso de redes neurais profundas, pois os recursos computacionais são limitados. Para mitigar as limitações relacionadas ao custo computacional de redes neurais profundas, este trabalho propõe um método chamado KD-HAR (Knowledge Distillation for Human Activity Recognition) para compressão de redes neurais profundas baseado na técnica de destilação de conhecimento aplicada a modelos de reconhecimento de atividade humana usando dados de sensores inerciais. Os conhecimentos adquiridos por modelos professores, obtidos por meio de técnicas de otimização de hiperparâmetros, são transferidos para modelos estudantes com menor complexidade. Uma das vantagens do método proposto é a capacidade de extração automática de características, baixo custo computacional e a aproximação da precisão na classificação das atividades quando comparado a redes mais complexas. Para avaliar a capacidade de compressão do método proposto, este trabalho utiliza duas bases de dados (UCI-HAR e WISDM) de sensores inerciais de smartphones. Os resultados obtidos mostram que o método é capaz de manter acurácia competitiva com taxas de compressão que variam de 18 a 42 vezes o número de parâmetros da rede neural profunda destilada em relação ao modelo de professor treinado.", publisher = {Universidade Federal do Amazonas}, scholl = {Programa de Pós-graduação em Informática}, note = {Instituto de Computação} }