https://repositorio.ufjf.br/jspui/handle/ufjf/20265| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| brunodeoliveiramelao.pdf | 1.45 MB | Adobe PDF | Visualizar/Abrir |
| Tipo: | Trabalho de Conclusão de Curso |
| Título: | Integração de visão computacional e robótica clássica para manipulação assistiva |
| Autor(es): | Melão, Bruno de Oliveira |
| Primeiro Orientador: | Olivi, Leonardo Rocha |
| Second Advisor: | Costa, Exuperry Barros |
| Co-orientador: | Lima , Luís Henrique Lopes |
| Co-orientador: | Gomes, Maria Fernanda Paulino |
| Resumo: | O trabalho desenvolvido propõe uma abordagem para a integração de técnicas de visão computacional com métodos de robótica clássica, visando a melhoria da qualidade de vida de pessoas com deficiência e idosos, proporcionando autonomia na tarefa de vestir. Utilizando um manipulador robótico Kinova Gen3 com sete graus de liberdade, o estudo aplica algoritmos de segmentação por cor, detecção de bordas e Transformada de Hough para identificar a posição do braço do paciente, aproximar o robô e gerar trajetórias seguras para a manipulação de vestimentas. Em ambiente simulado, com o auxílio do CoppeliaSim e de um sensor RGB-D, foram avaliadas diferentes configurações de posicionamento do braço, demonstrando a viabilidade do sistema em oferecer assistência personalizada e segura para pessoas com mobilidade reduzida. A integração dos métodos de visão computacional com o planejamento de trajetórias contribui significativamente para aumentar a autonomia dos usuários, apresentando uma alternativa promissora para a implementação em robótica assistiva. |
| Abstract: | This work proposes an approach that integrates computer vision techniques with classical robotics methods, aiming to improve the quality of life for people with disabilities and the elderly by providing autonomy in dressing tasks. Using a Kinova Gen3 robotic manipulator with seven degrees of freedom, the study implements color segmentation, edge detection, and Hough transform algorithms to identify the patient’s arm position, guide the robot approach, and generate safe trajectories for garment manipulation. In a simulated environ- ment using CoppeliaSim and an RGB-D sensor, different arm positioning configurations were evaluated, demonstrating the system feasibility in offering personalized and secure assistance for individuals with reduced mobility. The integration of computer vision methods with trajectory planning significantly contributes to increasing user autonomy, presenting a promising alternative for assistive robotics implementation. |
| Palavras-chave: | Visão Computacional Computer Vision Assistência ao Vestir Dressing Assistance Robótica Assistiva Assistive Robotics Manipuladores Robóticos Robotic Manipulators |
| CNPq: | CNPq: Engenharias: Engenharia Elétrica |
| Idioma: | por |
| País: | Brasil |
| Editor: | Universidade Federal de Juiz de Fora (UFJF) |
| Sigla da Instituição: | UFJF |
| Departamento: | Faculdade de Engenharia |
| Tipo de Acesso: | Acesso Restrito Attribution-NoDerivs 3.0 Brazil |
| Licenças Creative Commons: | http://creativecommons.org/licenses/by-nd/3.0/br/ |
| URI: | https://repositorio.ufjf.br/jspui/handle/ufjf/20265 |
| Data do documento: | 22-Mar-2025 |
| Aparece nas coleções: | Engenharia Elétrica - Robótica e Automação Industrial - TCC Graduação |
Este item está licenciado sob uma Licença Creative Commons