Please use this identifier to cite or link to this item: https://repositorio.ufjf.br/jspui/handle/ufjf/15943
Files in This Item:
File Description SizeFormat 
joaogabrielsilvamarra.pdfPDF/A269.65 kBAdobe PDFThumbnail
View/Open
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Leite, Saul Castro-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/4802548698016081pt_BR
dc.contributor.referee1Fonseca, Leonardo Golliat-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/9030707448549156pt_BR
dc.contributor.referee2Bernardino, Heder-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/7733681743453751pt_BR
dc.creatorMarra, João Gabriel Silva-
dc.creator.Latteshttp://lattes.cnpq.br/pt_BR
dc.date.accessioned2023-09-25T12:53:08Z-
dc.date.available2023-09-21-
dc.date.available2023-09-25T12:53:08Z-
dc.date.issued2016-03-04-
dc.identifier.urihttps://repositorio.ufjf.br/jspui/handle/ufjf/15943-
dc.description.abstractNowadays the high demand for Internet services creates the need for systems with parallel processing and a large number of machines. Often, these systems operate with more servers than needed to ensure an appropriate service at moments of peak demand. However, this generates enormous energy consumption which could be avoided. This work proposes a method to control the energy consumption using reinforcement learning, aiming to find a better way to minimize the total cost while maintaining quality of service. The system considered works with one block of servers, called regular, which is always turned on and one or more blocks, called reserves, which can be turned on or off. The Q-learning algorithm is used to determine the best moment to turn on or off the reserve blocks. A simulator was developed to test the proposed method.pt_BR
dc.description.resumoAtualmente a alta demanda por serviços de Internet cria a necessidade de operar sistemas de processamento paralelo com um grande número de máquinas. Muitas vezes tais sistemas operam com um número de servidores maior do que seria necessário para garantir serviço de forma adequada em momentos de pico de demanda. Contudo, isso gera um enorme gasto de energia que poderia ser evitado. Neste trabalho é proposto um método de controle do sistema de servidores utilizando aprendizado por reforço, visando achar uma maneira para minimizar os gastos. O sistema considerado aqui opera com um bloco de servidores que estão sempre em funcionamento e um ou mais blocos de servidores reservas que podem ser ligados ou desligados. O algoritmo Q-learning é usado para determinar o melhor momento para ligar os blocos de servidores reservas. Uma simulação foi desenvolvida para testar este método.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentFaculdade de Engenhariapt_BR
dc.publisher.initialsUFJFpt_BR
dc.rightsAcesso Abertopt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-sa/3.0/br/*
dc.subjectTeoria de filaspt_BR
dc.subjectAprendizado por esforçopt_BR
dc.subjectDate centerpt_BR
dc.subjectQueueing theorypt_BR
dc.subjectReinforcment learningpt_BR
dc.subject.cnpqAprendizado de Máquinapt_BR
dc.titleControle do consumo de energia em data centers via aprendizado por reforçopt_BR
dc.title.alternativeControlling energy consumption in data centers via reinforcement learningpt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
Appears in Collections:Engenharia Computacional - TCC Graduação



This item is licensed under a Creative Commons License Creative Commons