Use this link to cite:
https://hdl.handle.net/2183/46453 Estudo da asignación de recursos en contornos serverless mediante análise e predición de series temporais
Loading...
Identifiers
Publication date
Authors
Other responsabilities
Journal Title
Bibliographic citation
Type of academic work
Academic degree
Abstract
[Resumo]: A lóxica de computación Serverless preséntase como a seguinte evolución da Cloud Computing, ofrecendo unha optimización de custos e eficiencia ao abstraer por completo a xestión da infraestrutura. Con todo, as súas implementacións máis estendidas, como a Function as a Service (FaaS), mostran importantes limitacións para executar cargas de traballo complexas e de longa duración, propias do eido do Big Data. Baseándose nos traballos previos do Grupo de Arquitectura de Computadores (GAC) da UDC —que ofrecen unha plataforma para o despregamento de clústeres Yet Another Resource Negotiator (YARN) sobre Contedores con capacidades Serverless—, este traballo sitúase na necesidade subseguinte de cuantificar o impacto real que estas novas políticas de asignación dinámica teñen sobre as aplicacións. O obxectivo central deste Traballo Fin de Grao é, polo tanto, modelar e predicir a «deformación » que sofre o perfil de execución dunha aplicación ao ser sometida a un contorno de recursos restrinxido dinamicamente, permitindo así ao usuario final tomar decisións informadas sobre o compromiso entre o tempo de execución e o custo computacional. Para a consecución do obxectivo, desenvólvense modelos de Machine Learning (Aprendizaxe Automática) que, partindo de series temporais de consumo de recursos xeradas experimentalmente sobre a plataforma, son capaces de estimar tanto o novo tempo de execución como o aforro en custo. Finalmente, deséñase unha interface de visualización que facilita a interacción con estes modelos e a interpretación dos seus resultados.
Description
[Abstract]: The Serverless computing paradigm is presented as the next evolution of Cloud Computing, promising cost and efficiency optimization by completely abstracting infrastructure management. However, its most widespread implementations, such as Function as a Service (FaaS), show significant limitations when running complex and long-duration workloads typical of the field. Building upon the previous work of the Grupo de Arquitectura de Computadores (GAC) at the UDC —which culminated in a pioneering platform for deploying Yet Another Resource Negotiator (YARN) clusters on Contedores with Serverless capabilities—, this project addresses the subsequent need to quantify the real impact that these new dynamic allocation policies have on applications. The main objective of this Final Degree Project is, therefore, to model and predict the «deformation» that an application’s execution profile undergoes when subjected to a dynamically restricted resource environment, thus allowing the end-user to make informed decisions about the trade-off between execution time and computational cost. To achieve this goal, Machine Learning (Aprendizaxe Automática) models are developed. These models, based on resource consumption of temporal series experimentally generated on the aforementioned platform, are capable of estimating both the new execution time and the cost savings. Finally, a visualization interface is designed to facilitate interaction with these models and the interpretation of their results.
Keywords
Computación serverless Big Data Aprendizaxe automática Predición de rendemento Análise de custo-rendemento Series temporais Asignación dinámica de recursos Contedores Plataformas na nube Hadoop YARN Serverless computing Machine learning Performance prediction Cost-performance analysis Time series Dynamic resource allocation Containers Cloud platforms
Editor version
Rights
Attribution 4.0 International








