https://repositorio.ufjf.br/jspui/handle/ufjf/15951
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
mathewsedwirdsgomesalmeida.pdf | PDF/A | 29.69 MB | Adobe PDF | Visualizar/Abrir |
Tipo: | Trabalho de Conclusão de Curso |
Título: | Detecção de faces e regiões de interesse em imagens de bovinos por meio de redes neurais convolucionais |
Título(s) alternativo(s): | Detection of faces and regions of interest in cattle images using convolutional neural networks |
Autor(es): | Almeida, Mathews Edwirds Gomes |
Primeiro Orientador: | Maciel, Luiz Maurílio da Silva |
Membro da banca: | Carvalho, Bruno Campos |
Membro da banca: | Vieira, Marcelo Bernardes |
Membro da banca: | Villela, Saulo Moraes |
Resumo: | A pecuária é uma atividade de grande importância econômica e social, e a tecnologia tem desempenhado um papel cada vez mais relevante neste setor. Nesse contexto, o presente trabalho se insere na intersecção entre a Pecuária de Precisão e a Visão Computacional. A motivação desse trabalho surge da necessidade de se identificar a face dos animais e as suas principais regiões de interesse para a solução de problemas como a classificação de expressões faciais associadas a dor ou desconforto. Sob essa perspectiva, é proposta a aplicação de modelos de detecção da face e suas regiões de interesse em imagens de bovinos. Para isso, uma das principais etapas deste trabalho foi a organização de um conjunto de dados anotado especificamente para este propósito, contendo imagens de bovinos em diferentes condições de iluminação, ângulos e cenários. Essa organização envolveu a coleta, filtragem e anotação manual de uma grande quantidade de imagens. O conjunto de dados resultante constitui uma importante contribuição deste trabalho. Subsequentemente, foram realizados estudos sobre redes neurais para o treinamento de modelos de detecção de objetos. Dessa forma, dois modelos de detecção foram treinados e avaliados a partir das redes neurais SSD MobileNet V2 FPNLite 640 × 640 e YOLOv8. Em relação ao critérios de avaliação dos modelos, destaca-se que os experimentos atingiram resultados satisfatórios dado o problema abordado. A respeito dos gráficos traçados para cada modelo, foi possível observar que ambas as redes tiveram resultados semelhantes entre si e consistentes com as expectativas de cada gráfico. Por fim, a análise qualitativa reforçou os resultados obtidos com um estudo visual das detecções de ambas as redes em exemplos representativos do conjunto de teste. De forma geral, os resultados das análises demonstraram que ambos os modelos são capazes de detectar a face de bovinos e suas regiões faciais adequadamente, mesmo em condições adversas. Em conclusão, este trabalho demonstra o potencial das técnicas de aprendizado profundo para a detecção de objetos na Pecuária de Precisão. Os resultados obtidos são encorajadores e sugerem que essas redes podem ser utilizadas para melhorar a eficiência e a precisão das atividades de manejo e produção em meio rural. No entanto, ainda há desafios a serem superados, como a melhoria da robustez dos modelos e aumento de imagens em situações desafiadoras no conjunto de dados. |
Abstract: | Livestock farming is an activity of great economic and social importance, and technology has played an increasingly important role in this sector. In this context, the present work is part of an intersection between Precision Livestock and Computer Vision. The motivation of this work arises from the need to identify the face of animals and its main regions of interest to solve problems such as the classification of facial expressions associated with pain or discomfort. From this perspective, it is proposed the application of models to detect face detection and its regions of interest in bovine images. To this end, one of the main steps of this work was the organization of a dataset annotated specifically for this purpose, containing images of cattle in different lighting conditions, angles and scenarios. This organization involved the manual collection, filtering and annotation of a large amount of images. The resulting dataset constitutes an important contribution of this work. Subsequently, studies were conducted on neural networks for training object detection models. Thus, two detection models were trained and evaluated from the neural networks SSD MobileNet V2 FPNLite 640 × 640 and YOLOv8. Regarding the evaluation criteria of the models, the experiments achieved satisfactory results given the problem addressed. Regarding the plotted graphs for each model, it was possible to observe that both networks had similar results to each other and consistent with the expectations of each graph. Finally, the qualitative analysis reinforced the results obtained with a visual study of the detections of both networks on representative examples of the test set. Overall, the results of the analysis demonstrated that both models are able to detect the face of cattle and their facial regions adequately, even under adverse conditions. In conclusion, this work demonstrates the potential of deep learning techniques for object detection in Precision Livestock. The results obtained are encouraging and suggest that these networks can be used to improve the efficiency and accuracy of management and production activities in rural areas. However, there are still challenges to be overcome, such as improving the robustness of the models and increasing the number of images in challenging situations in the dataset |
Palavras-chave: | Detecção de objetos Redes neurais Aprendizado profundo Pecuária de precisão Object deteccion Neural networks Deep learning Precision livestock |
CNPq: | CNPQ::ENGENHARIAS |
Idioma: | por |
País: | Brasil |
Editor: | Universidade Federal de Juiz de Fora (UFJF) |
Sigla da Instituição: | UFJF |
Departamento: | Faculdade de Engenharia |
Tipo de Acesso: | Acesso Aberto |
Licenças Creative Commons: | http://creativecommons.org/licenses/by-sa/3.0/br/ |
URI: | https://repositorio.ufjf.br/jspui/handle/ufjf/15951 |
Data do documento: | 15-Jun-2023 |
Aparece nas coleções: | Engenharia Computacional - TCC Graduação |
Este item está licenciado sob uma Licença Creative Commons