Please use this identifier to cite or link to this item: https://repositorio.ufjf.br/jspui/handle/ufjf/16918
Files in This Item:
File Description SizeFormat 
arieleteixeiraferraz.pdf7.15 MBAdobe PDFThumbnail
View/Open
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Marcato, André Luis Marques-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1033215067775319pt_BR
dc.contributor.advisor-co1Schettino, Vinícius Barbosa-
dc.contributor.advisor-co1Latteshttp://lattes.cnpq.br/6714387584240649pt_BR
dc.contributor.referee1Santos, Murillo Ferreira dos-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/6538282975603701pt_BR
dc.contributor.referee2Silva Junior, Ivo Chaves da-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/6893941321946438pt_BR
dc.contributor.referee3Biundini, Iago Zanuti-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/6887575791576452pt_BR
dc.creatorFerraz, Ariéle Teixeira-
dc.creator.Latteshttp://lattes.cnpq.br/3888173594367482pt_BR
dc.date.accessioned2024-07-19T11:01:01Z-
dc.date.available2024-07-18-
dc.date.available2024-07-19T11:01:01Z-
dc.date.issued2024-03-15-
dc.identifier.urihttps://repositorio.ufjf.br/jspui/handle/ufjf/16918-
dc.description.abstractTechnological advancements have paved the way for the development of increasingly sophisticated assistive methods. These technologies hold the potential to significantly improve the comfort of individuals with physical disabilities. In this context, the creation of methods that can identify user commands and control robotic actuators has emerged as an intriguing field of study. A substantial portion of research in this area employs both Commercial Off-The-Shelf (COTS) equipment and devices specifically designed for the purpose, such as electroencephalograms (EEG). This study proposes a user-friendly, non-invasive, and cost-effective method. Consequently, a methodology for identifying user commands through eye movement using a webcam and controlling a robotic actuator based on these commands is introduced. While similar works have been identified in the literature, this study seeks a low-cost development alternative. The work was conducted using the Ubuntu 20.04 operating system with Noetic ROS, and the RT-GENE packages, which were used to obtain eye tracking and blink detection, and YOLO, which aimed to detect the objects available to the user. The Python Tkinter package was employed to develop the user interface. Finally, MoveIt, Gazebo and franka_ros packages were utilized to perform the pick and place simulations of the manipulator. Simulation results using the proposed methodology are also presented, demonstrating its potential for ongoing research and real-world evaluation. Tests with the Youbot robot revealed challenges due to the need for precision and the accumulation of errors over time. However, tests with the Panda manipulator showed that the resolution of a standard webcam allowed for the determination of the object’s position in the world, despite the robot encountering difficulties in performing its task for some positions. Despite these challenges, it was possible to overcome the problem with a simple trial and error implementation. Future work aims to implement other robot models and conduct tests with real robots, in addition to adding sensing to the robot to ensure greater precision in its tasks and prevent accidents with people who are in its work area.pt_BR
dc.description.resumoO avanço tecnológico permite desenvolver métodos de assistência cada vez mais avançados. Estas tecnologias assistivas tem potencial para aumentar o conforto de pessoas com deficiências físicas. Dentro deste contexto, o desenvolvimento de métodos capazes de identificar comandos do usuário e realizar o controle de atuadores robóticos se mostra um campo interessante. Uma grande parcela das pesquisas nesta área utilizam tanto métodos com equipamentos de prateleira, ou COTS (do inglês Commercial Off-The-Shelf), quanto equipamentos especificamente projetados para o propósito, como eletroencefalogramas (EEG). Neste trabalho propõe-se um método que seja simples de se utilizar, não seja invasiva (sem EEG) e de menor custo possível. Logo, é apresentado uma metodologia de identificação de comandos do usuário a partir do movimento dos olhos utilizando de uma webcam e realizado o controle de um atuador robótico a partir destes comandos. Embora tenha sido identificado na literatura outros trabalhos com propósito similar, busca-se, aqui, uma alternativa de baixo custo de desenvolvimento. O trabalho foi confeccionado utilizando o sistema operacional Ubuntu 20.04 com Noetic ROS e os pacotes RT-GENE, utilizado para a obtenção do rastreio ocular e detecção de piscadas, e YOLO, visando detectar os objetos disponíveis para o usuário. O pacote python Tkinter foi utilizado para desenvolver a interface mostrada para o usuário. Por fim, os pacotes MoveIt, Gazebo e franka_ros foram utilizados para realizar as simulações de pick and place do manipulador. São apresentados ainda resultados de simulação utilizando a metodologia proposta, sendo possível verificar que a mesma possui potencial de continuidade na pesquisa, além da possibilidade de avaliação em ambiente real. Os testes com o robô Youbot revelaram desafios devido à necessidade de precisão e ao acúmulo de erros ao longo do tempo. No entanto, os testes com o manipulador Panda mostram que a resolução de uma webcam comum permitiu determinar a posição do objeto no mundo, embora o robô tenha apresentado dificuldades em executar sua tarefa para algumas posições. Apesar dos desafios, foi possível contornar o problema com uma implementação simples de tentativa e erro. Trabalhos futuros pretendem implementar outros modelos de robôs e realizar testes com robôs reais, além do acréscimo de sensoriamento no robô para garantir maior precisão em suas tarefas e evitar acidentes com pessoas que estejam em sua área de trabalho.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Juiz de Fora (UFJF)pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentFaculdade de Engenhariapt_BR
dc.publisher.programPrograma de Pós-graduação em Engenharia Elétricapt_BR
dc.publisher.initialsUFJFpt_BR
dc.rightsAcesso Abertopt_BR
dc.rightsAttribution-NonCommercial 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nc/3.0/br/*
dc.subjectTecnologias assistivaspt_BR
dc.subjectRobóticapt_BR
dc.subjectManipuladorespt_BR
dc.subjectRastreamento ocularpt_BR
dc.subjectPegar e moverpt_BR
dc.subjectAssistive technologiespt_BR
dc.subjectRoboticspt_BR
dc.subjectManipulatorpt_BR
dc.subjectEye-trackingpt_BR
dc.subjectPick and placept_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA ELETRICApt_BR
dc.titleControle de atuador robótico através do rastreamento ocular por câmera para assistência a pessoas com limitações físicaspt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Mestrado em Engenharia Elétrica (Dissertações)



This item is licensed under a Creative Commons License Creative Commons