???item.export.label??? ???item.export.type.endnote??? ???item.export.type.bibtex???

Please use this identifier to cite or link to this item: https://tede.ufam.edu.br/handle/tede/10955
Full metadata record
DC FieldValueLanguage
dc.creatorAleixo, Everton Lima-
dc.creator.Latteshttp://lattes.cnpq.br/6594252534841093eng
dc.contributor.advisor1Colonna, Juan Gabriel-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9535853909210803eng
dc.contributor.referee1Souto, Eduardo James Pereira-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/3875301617975895eng
dc.contributor.referee2Salvatierra Junior, Mário-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/7254679644374259eng
dc.contributor.referee3Figueiredo, Carlos Maurício Seródio-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/9060002746939878eng
dc.contributor.referee4Oliveira, Horácio Antônio Braga Fernandes de-
dc.contributor.referee4Latteshttp://lattes.cnpq.br/9314744999783676eng
dc.date.issued2025-03-28-
dc.identifier.citationALEIXO, Everton Lima. Superando o esquecimento catastrófico em Redes Neurais Convolucionais para o aprendizado incremental de Tarefas com Adaptadores Low-Rank. 2025. 155 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025.eng
dc.identifier.urihttps://tede.ufam.edu.br/handle/tede/10955-
dc.description.resumoCom os avanços da inteligência artificial, especialmente em redes neurais profundas, diver- sas tarefas cotidianas vêm sendo executadas por esses modelos com precisão comparável ou superior à dos seres humanos. No entanto, essas redes enfrentam uma limitação crítica: a incapacidade de aprender continuamente sem degradar o desempenho em tarefas previa- mente aprendidas, fenômeno conhecido como esquecimento catastrófico, observado desde 1989. Diversas abordagens foram propostas para mitigar esse problema, classificadas em quatro grupos principais: i) rehearsal; ii) baseadas em distância; iii) sub-redes; e iv) redes dinâmicas. Dentre essas, destacam-se os métodos baseados em sub-redes e redes dinâmicas, sendo estas últimas particularmente promissoras por permitirem a expansão do modelo ao longo do tempo. Nesta tese, propomos o uso da ConvLoRA para aprendizado contínuo em redes convolucionais, inspirada nos adaptadores Low-Rank (LoRA) originalmente aplicados em modelos de linguagem natural. A ConvLoRA introduz adaptadores treináveis específicos para cada nova tarefa em todas as camadas convolucionais, permitindo que o modelo aprenda incrementalmente sem sobrescrever os parâmetros anteriores e sem armazenar dados de tarefas passadas, respei- tando, assim, restrições de privacidade. Quando combinada ao LoRA nas camadas total- mente conectadas, a abordagem resultou em um crescimento de apenas 2,2% no número total de parâmetros por tarefa. Em cenários que consideram apenas as camadas convolucio- nais, o uso exclusivo da ConvLoRA proporcionou uma redução de 85,2% no crescimento do modelo em relação a abordagens clássicas como o SeNA-CNN. Os experimentos foram conduzidos em benchmarks consolidados de aprendizado con- tínuo para tarefas de classificação de imagens, incluindo os conjuntos CIFAR-100 e CUB- 200, demonstrando que a combinação ConvLoRA + LoRA mantém ou se aproxima da acurá- cia média dos modelos de referência, com eficiência paramétrica significativamente superior. Esses resultados confirmam que a abordagem proposta é eficaz, escalável e adequada para aplicações práticas que exigem aprendizado contínuo sob restrições de memória e privaci- dade.eng
dc.description.abstractWith the advancement of artificial intelligence, particularly deep neural networks, several daily tasks are now being performed by these models with accuracy comparable to or even surpassing that of humans. However, such networks face a critical limitation: their inability to learn continuously without degrading performance on previously learned tasks—a pheno- menon known as catastrophic forgetting, first identified in 1989. Several strategies have been proposed to mitigate this problem, generally classified into four groups: (i) rehearsal-based; (ii) distance-based; (iii) sub-network-based; and (iv) dynamic networks. Among these, sub- network and dynamic approaches stand out, with the latter showing greater promise due to their ability to expand the model over time. In this thesis, we propose the use of ConvLoRA for continuous learning in convolutional neural networks, inspired by Low-Rank Adapters (LoRA) originally applied in natural language processing models. ConvLoRA introduces task-specific trainable adapters into every convolutional layer, enabling incremental learning without overwriting previous parameters and without storing data from past tasks, thereby adhering to data privacy constraints. When combined with LoRA in fully connected layers, the proposed approach results in only a 2.2% increase in total parameters per task. In scenarios focusing solely on convolutional layers, using Con- vLoRA exclusively leads to an 85.2% reduction in model growth compared to traditional methods such as SeNA-CNN. Experiments were conducted on established benchmark datasets for continual learning in image classification, including CIFAR-100 and CUB-200. Results demonstrate that the ConvLoRA + LoRA combination maintains or approaches the average accuracy of state-of- the-art methods while delivering significantly greater parameter efficiency. These findings confirm that the proposed method is effective, scalable, and suitable for real-world applica- tions that require continuous learning under memory and privacy constraints.eng
dc.formatapplication/pdf*
dc.thumbnail.urlhttps://tede.ufam.edu.br/retrieve/85048/TESE_EvertonAleixo_PPGI.pdf.jpg*
dc.languageporeng
dc.publisherUniversidade Federal do Amazonaseng
dc.publisher.departmentInstituto de Computaçãoeng
dc.publisher.countryBrasileng
dc.publisher.initialsUFAMeng
dc.publisher.programPrograma de Pós-graduação em Informáticaeng
dc.rightsAcesso Aberto-
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subject.cnpqCIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAOeng
dc.titleSuperando o esquecimento catastrófico em Redes Neurais Convolucionais para o aprendizado incremental de tarefas com Adaptadores Low-Rankeng
dc.title.alternativeOvercoming Catastrophic Forgetting in Convolutional Neural Networks for Incremental Task Learning with Low-Rank Adapterseng
dc.typeTeseeng
dc.contributor.advisor1orcidhttps://orcid.org/0000-0002-1740-2618eng
dc.creator.orcidhttps://orcid.org/0009-0008-5658-3221eng
dc.contributor.referee1orcidhttps://orcid.org/0000-0003-0003-908Xeng
dc.contributor.referee2orcidhttps://orcid.org/0000-0001-6302-0162eng
dc.contributor.referee3orcidhttps://orcid.org/0000-0002-4484-4411eng
dc.subject.userAprendizado Contínuopor
dc.subject.userEsquecimento Catastróficopor
dc.subject.userRedes Neurais Convolucionaispor
dc.subject.userLow-Rank Adapterseng
dc.subject.userDeep Learningeng
Appears in Collections:Doutorado em Informática

Files in This Item:
File Description SizeFormat 
TESE_EvertonAleixo_PPGI.pdf 3.64 MBAdobe PDFThumbnail

Download/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.