Defesa de Dissertação de Mestrado de Daniel Carlos Souza de Jesus, 17/11/25, 13:30h, por videoconferência

Defesa de Dissertação de Mestrado de Daniel Carlos Souza de Jesus, 17/11/25, 13:30h

Link para defesa: https://meet.google.com/ncs-zrrx-ejh

Análise Experimental de Algoritmos de Desaprendizado de Máquina em Contextos de Privacidade e Segurança

Resumo:

O Desaprendizado de Máquina (DM) é uma área em desenvolvimento que visa permitir que modelos de Inteligência Artificial e Aprendizado de Máquina removam seletivamente informações adquiridas durante o processo de treinamento, sem a necessidade de realizar um retreinamento completo. Essa técnica tem ganhado relevância diante de exigências legais, como o direito ao esquecimento previsto na LGPD e na GDPR, e de preocupações crescentes com privacidade, conformidade e segurança da informação. Esta dissertação investiga o DM como solução técnica para mitigar riscos associados à retenção indesejada de dados sensíveis em sistemas de inteligência artificial. São analisadas técnicas que conciliam eficiência computacional com preservação da utilidade dos modelos, permitindo a remoção de dados sem comprometer o desempenho preditivo. A pesquisa também inclui experimentos com algoritmos de desaprendizado aplicados a dados tabulares, cujos resultados demonstram que o DM pode ser eficaz em cenários regulatórios, de privacidade e em situações como ataques de envenenamento de dados, já que os resultados indicam que é possível realizar o desaprendizado com desempenho competitivo, inclusive em aplicações que exigem baixa latência. O trabalho também discute desafios atuais da área, como a ausência de métricas padronizadas, a dificuldade de certificação formal do esquecimento e a escalabilidade dos métodos. 

Abstract:

Machine Unlearning (MU) is an emerging field that aims to enable Artificial Intelligence and Machine Learning models to selectively remove information acquired during the training process, without requiring complete retraining. This technique has gained relevance in light of legal requirements, such as the right to be forgotten established by the LGPD and GDPR, as well as growing concerns regarding privacy, compliance, and information security. This dissertation investigates MU as a technical solution to mitigate risks associated with the unintended retention of sensitive data in AI systems. It analyzes techniques that balance computational efficiency with the preservation of model utility, allowing data removal without compromising predictive performance. The research also includes experiments with unlearning algorithms applied to tabular data, whose results demonstrate that MU can be effective in regulatory and privacy-sensitive scenarios, as well as in cases such as data poisoning attacks. The findings indicate that unlearning can be performed with competitive performance, even in applications requiring low latency. The work further discusses current challenges in the field, such as the lack of standardized metrics, the difficulty of formally certifying forgetting, and the scalability of existing methods.

Banca  examinadora:

Prof. Antonio Augusto de Aragão Rocha, UFF – Presidente

Profa. Flávia Coimbra Delicato, UFF

Prof. José Ferreira de Rezende, UFRJ

Related Posts

Leave a Reply