Use este identificador para citar ou linkar para este item: https://repositorio.ufjf.br/jspui/handle/ufjf/16918
Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
arieleteixeiraferraz.pdf7.15 MBAdobe PDFVisualizar/Abrir
Tipo: Dissertação
Título: Controle de atuador robótico através do rastreamento ocular por câmera para assistência a pessoas com limitações físicas
Autor(es): Ferraz, Ariéle Teixeira
Primeiro Orientador: Marcato, André Luis Marques
Co-orientador: Schettino, Vinícius Barbosa
Membro da banca: Santos, Murillo Ferreira dos
Membro da banca: Silva Junior, Ivo Chaves da
Membro da banca: Biundini, Iago Zanuti
Resumo: O avanço tecnológico permite desenvolver métodos de assistência cada vez mais avançados. Estas tecnologias assistivas tem potencial para aumentar o conforto de pessoas com deficiências físicas. Dentro deste contexto, o desenvolvimento de métodos capazes de identificar comandos do usuário e realizar o controle de atuadores robóticos se mostra um campo interessante. Uma grande parcela das pesquisas nesta área utilizam tanto métodos com equipamentos de prateleira, ou COTS (do inglês Commercial Off-The-Shelf), quanto equipamentos especificamente projetados para o propósito, como eletroencefalogramas (EEG). Neste trabalho propõe-se um método que seja simples de se utilizar, não seja invasiva (sem EEG) e de menor custo possível. Logo, é apresentado uma metodologia de identificação de comandos do usuário a partir do movimento dos olhos utilizando de uma webcam e realizado o controle de um atuador robótico a partir destes comandos. Embora tenha sido identificado na literatura outros trabalhos com propósito similar, busca-se, aqui, uma alternativa de baixo custo de desenvolvimento. O trabalho foi confeccionado utilizando o sistema operacional Ubuntu 20.04 com Noetic ROS e os pacotes RT-GENE, utilizado para a obtenção do rastreio ocular e detecção de piscadas, e YOLO, visando detectar os objetos disponíveis para o usuário. O pacote python Tkinter foi utilizado para desenvolver a interface mostrada para o usuário. Por fim, os pacotes MoveIt, Gazebo e franka_ros foram utilizados para realizar as simulações de pick and place do manipulador. São apresentados ainda resultados de simulação utilizando a metodologia proposta, sendo possível verificar que a mesma possui potencial de continuidade na pesquisa, além da possibilidade de avaliação em ambiente real. Os testes com o robô Youbot revelaram desafios devido à necessidade de precisão e ao acúmulo de erros ao longo do tempo. No entanto, os testes com o manipulador Panda mostram que a resolução de uma webcam comum permitiu determinar a posição do objeto no mundo, embora o robô tenha apresentado dificuldades em executar sua tarefa para algumas posições. Apesar dos desafios, foi possível contornar o problema com uma implementação simples de tentativa e erro. Trabalhos futuros pretendem implementar outros modelos de robôs e realizar testes com robôs reais, além do acréscimo de sensoriamento no robô para garantir maior precisão em suas tarefas e evitar acidentes com pessoas que estejam em sua área de trabalho.
Abstract: Technological advancements have paved the way for the development of increasingly sophisticated assistive methods. These technologies hold the potential to significantly improve the comfort of individuals with physical disabilities. In this context, the creation of methods that can identify user commands and control robotic actuators has emerged as an intriguing field of study. A substantial portion of research in this area employs both Commercial Off-The-Shelf (COTS) equipment and devices specifically designed for the purpose, such as electroencephalograms (EEG). This study proposes a user-friendly, non-invasive, and cost-effective method. Consequently, a methodology for identifying user commands through eye movement using a webcam and controlling a robotic actuator based on these commands is introduced. While similar works have been identified in the literature, this study seeks a low-cost development alternative. The work was conducted using the Ubuntu 20.04 operating system with Noetic ROS, and the RT-GENE packages, which were used to obtain eye tracking and blink detection, and YOLO, which aimed to detect the objects available to the user. The Python Tkinter package was employed to develop the user interface. Finally, MoveIt, Gazebo and franka_ros packages were utilized to perform the pick and place simulations of the manipulator. Simulation results using the proposed methodology are also presented, demonstrating its potential for ongoing research and real-world evaluation. Tests with the Youbot robot revealed challenges due to the need for precision and the accumulation of errors over time. However, tests with the Panda manipulator showed that the resolution of a standard webcam allowed for the determination of the object’s position in the world, despite the robot encountering difficulties in performing its task for some positions. Despite these challenges, it was possible to overcome the problem with a simple trial and error implementation. Future work aims to implement other robot models and conduct tests with real robots, in addition to adding sensing to the robot to ensure greater precision in its tasks and prevent accidents with people who are in its work area.
Palavras-chave: Tecnologias assistivas
Robótica
Manipuladores
Rastreamento ocular
Pegar e mover
Assistive technologies
Robotics
Manipulator
Eye-tracking
Pick and place
CNPq: CNPQ::ENGENHARIAS::ENGENHARIA ELETRICA
Idioma: por
País: Brasil
Editor: Universidade Federal de Juiz de Fora (UFJF)
Sigla da Instituição: UFJF
Departamento: Faculdade de Engenharia
Programa: Programa de Pós-graduação em Engenharia Elétrica
Tipo de Acesso: Acesso Aberto
Attribution-NonCommercial 3.0 Brazil
Licenças Creative Commons: http://creativecommons.org/licenses/by-nc/3.0/br/
URI: https://repositorio.ufjf.br/jspui/handle/ufjf/16918
Data do documento: 15-Mar-2024
Aparece nas coleções:Mestrado em Engenharia Elétrica (Dissertações)



Este item está licenciado sob uma Licença Creative Commons Creative Commons