
Defesa de Dissertação de Mestrado de Carlos David Ribeiro Pasco, em 03/09/2024, às 15:00 horas, por videoconferência
Link para defesa: meet.google.com/nuv-dwjv-mqg
Evaluation of Data Stream and Batch Machine Learning Algorithms to Latency Prediction in Computer Networks
Resumo:
Latência é um aspecto de rede crítico para a infraestrutura de comunicação e as aplicações que nela são executadas. A previsão da latência apresenta o potencial de fornecer informações valiosas que podem ajudar aos operadores de rede, provedores de serviços de internet (ISP) e provedores de serviços over-the-top (OTT) a otimizar o desempenho em tempo quase real. Muitos trabalhos trataram da previsão de latência, indicando LSTM e Transformer como algoritmos do estado da arte para prever latência. No entanto, nenhum trabalho aplicou esses algoritmos em dados de infraestrutura de rede em larga escala, aproximando esses experimentos de aplicações do mundo real. No entanto, apesar do bom desempenho de predição, estes algoritmos apresentam um alto custo computacional, tornando sua aplicação inviável em cenários com baixos recursos computacionais disponíveis. Por outro lado, algoritmos de aprendizado em fluxo de dados podem ser usados como uma alternativa para prever latência de rede usando menos recursos computacionais. Neste trabalho, a aplicação de LSTM e Transformer foi avaliada na previsão de três métricas de latência de rede —Round-Trip Time (RTT), One-Way Delay (OWD) e HTTP Delay—, usando mais de 3,7 milhões de medições de latência da infraestrutura de rede da Rede Nacional de Pesquisa (RNP). Ele também explora o uso de algoritmos de aprendizado em fluxo de dados, nomeadamente Regressão Linear e Regressor Passivo-Agressivo, para prever latência de rede, comparando seu desempenho com o desempenho do LSTM e do Transformer. O desempenho de previsão e o tempo usado no treinamento dos modelos também foram avaliados. Os resultados indicaram que o LSTM e o Transformer podem prever latência em dados do mundo real em larga escala, apresentando um desempenho que permite seu uso em muitos cenários do mundo real. Além disso, os experimentos demonstraram que os algoritmos de aprendizado de fluxo de dados têm desempenho semelhante ao LSTM e ao Transformer ao prever latência, usando apenas uma fração dos recursos computacionais usados pelos algoritmos de aprendizado profundo.
Abstract:
Latency is a critical network aspect for the communication infrastructure and the applications running on it. Predicting latency presents the potential to deliver valuable information that can help network operators (NO), internet service providers (ISP), and over-the-top (OTT) service providers to optimize performance in near-real time. Many works have dealt with latency prediction, indicating LSTM and Transformer as state-of-the-art algorithms to predict latency. Nonetheless, no work applied these algorithms in large-scale network infrastructure data, approximating these experiments to real-world applications. However, despite the good prediction performance, these algorithms present a high computational cost, making their application unfeasible in scenarios with low computational resources available. On the other hand, data-stream learning algorithms can be used as an alternative to predicting network latency using less computational resources. In this work, the application of LSTM and Transformer was evaluated in predicting three network latency metrics —Round-Trip Time (RTT), One-Way Delay (OWD), and HTTP Delay—, using more than 3.7 million latency measurements from the network infrastructure of Rede Nacional de Pesquisa (RNP). It also explores the usage of data-stream learning algorithms, namely Linear Regression and Passive-Aggressive Regressor, to predict network latency, comparing their performance with LSTM and Transformer performance. The prediction performance and the time used in training the models were also evaluated. The results indicated that LSTM and Transformer can predict latency in large-scale real-world data, presenting a performance that allows their usage in many real-world scenarios. Also, the experiments demonstrated that data-stream learning algorithms have similar performance to LSTM and Transformer when predicting latency, using only a fraction of the computational resources used by the deep-learning algorithms.
Banca examinadora:
Profa. Flavia Cristina Bernardini, UFF – Presidente
Prof. Antônio Augusto de Aragão Rocha, UFF
Profa. Aline Marins Paes Carvalho, UFF
Prof. Leobino Nascimento Sampaio, UFBA
Prof. Giovanni Ventorim Comarela, UFES