Please use this identifier to cite or link to this item: https://repositorio.ufjf.br/jspui/handle/ufjf/14131
Files in This Item:
File Description SizeFormat 
wellingstoncataldorobertijunior.pdfPDF/A2 MBAdobe PDFThumbnail
View/Open
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Moreno, Marcelo Ferreira-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/6352224173110416pt_BR
dc.contributor.advisor-co1Silva, Rodrigo Luis de Souza da-
dc.contributor.advisor-co1Latteshttps://lattes.cnpq.br/pt_BR
dc.contributor.referee1Barrére, Eduardo-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/0735298552666402pt_BR
dc.contributor.referee2Machado, Alex Fernandes da Veiga-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/9832711276496155pt_BR
dc.creatorRoberti Junior, Wellingston Cataldo-
dc.creator.Latteshttp://lattes.cnpq.br/4108220709149971pt_BR
dc.date.accessioned2022-05-27T15:51:57Z-
dc.date.available2022-05-27-
dc.date.available2022-05-27T15:51:57Z-
dc.date.issued2022-01-25-
dc.identifier.doihttps://doi.org/10.34019/ufjf/di/2022/00014-
dc.identifier.urihttps://repositorio.ufjf.br/jspui/handle/ufjf/14131-
dc.description.abstractThis dissertation presents a framework that allows low-cost devices to visualize and interact with photorealistic scenes. To accomplish this task, the framework makes use of Unity’s high-definition rendering pipeline, which has a proprietary Ray Tracing algorithm, and Unity’s streaming package, which allows an application to be streamed within its editor. The framework allows the composition of a realistic scene using a Ray Tracing algorithm, and a virtual reality camera with barrel shaders, to correct the lens distortion needed for the use on an inexpensive cardboard. It also includes a method to collect the mobile device’s spatial orientation through a web browser to control the user’s view, delivered via WebRTC. The proposed framework can produce low-latency, realistic and immersive environments to be accessed through low-cost HMDs and mobile devices. To evaluate the structure, this work includes the verification of the frame rate achieved by the server and mobile device, which should be higher than 30 FPS for a smooth experience. In addition, it discusses whether the overall quality of experience is acceptable by evaluating the delay of image delivery from the server up to the mobile device, in face of user’s movement. Our tests showed that the framework reaches a mean latency around 177 (ms) with household Wi-Fi equipment and a maximum latency variation of 77.9 (ms), among the 8 scenes tested.pt_BR
dc.description.resumoEsta dissertação apresenta um framework que permite que dispositivos de baixo custo visualizem e interajam com cenas fotorrealísticas. Para realizar essa tarefa, o framework faz uso do pipeline de renderização de alta definição do Unity, que tem um algoritmo de rastreamento de raio proprietário, e o pacote de streaming do Unity, que permite o streaming de um aplicativo em seu editor. O framework permite a composição de uma cena realista usando um algoritmo de Ray Tracing, e uma câmera de realidade virtual com shaders de barril, para corrigir a distorção da lente necessária para usar um cardboard de baixo custo. Inclui também um método para coletar a orientação espacial do dispositivo móvel por meio de um navegador Web para controlar a visão do usuário, entregue via WebRTC. O framework proposto pode produzir ambientes de baixa latência, realistas e imersivos para serem acessados por meio de HMDs e dispositivos móveis de baixo custo. Para avaliar a estrutura, este trabalho considera a verificação da taxa de quadros alcançada pelo servidor e pelo dispositivo móvel, que deve ser superior a 30 FPS para uma experiência fluida. Além disso, discute se a qualidade geral da experiência é aceitável, ao avaliar o atraso da entrega das imagens desde o servidor até o dispositivo móvel, em face da movimentação do usuário. Nossos testes mostraram que o framework atinge uma latência média em torno dos 177 (ms) com equipamentos wi-fi de uso doméstico e uma variação máxima das latências igual a 77.9 (ms), entre as 8 cenas testadas.pt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICE – Instituto de Ciências Exataspt_BR
dc.publisher.programPrograma de Pós-graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFJFpt_BR
dc.rightsAcesso Abertopt_BR
dc.rightsAttribution-ShareAlike 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-sa/3.0/br/*
dc.subjectFotorealismopt_BR
dc.subjectRealidade virtualpt_BR
dc.subjectRay tracingpt_BR
dc.subjectStreamingpt_BR
dc.subjectDispositivos de baixo custopt_BR
dc.subjectPhotorealismpt_BR
dc.subjectVirtual realitypt_BR
dc.subjectRay tracingpt_BR
dc.subjectStreamingpt_BR
dc.subjectLow-cost devicespt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
dc.titleU-DiVE: Design and evaluation of a distributed photorealistic virtual reality environmentpt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Mestrado em Ciência da Computação (Dissertações)



This item is licensed under a Creative Commons License Creative Commons