Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.ufjf.br/jspui/handle/ufjf/15951
Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
mathewsedwirdsgomesalmeida.pdfPDF/A29.69 MBAdobe PDFVista previa
Visualizar/Abrir
Clase: Trabalho de Conclusão de Curso
Título : Detecção de faces e regiões de interesse em imagens de bovinos por meio de redes neurais convolucionais
Otros títulos : Detection of faces and regions of interest in cattle images using convolutional neural networks
Autor(es): Almeida, Mathews Edwirds Gomes
Orientador: Maciel, Luiz Maurílio da Silva
Miembros Examinadores: Carvalho, Bruno Campos
Miembros Examinadores: Vieira, Marcelo Bernardes
Miembros Examinadores: Villela, Saulo Moraes
Resumo: A pecuária é uma atividade de grande importância econômica e social, e a tecnologia tem desempenhado um papel cada vez mais relevante neste setor. Nesse contexto, o presente trabalho se insere na intersecção entre a Pecuária de Precisão e a Visão Computacional. A motivação desse trabalho surge da necessidade de se identificar a face dos animais e as suas principais regiões de interesse para a solução de problemas como a classificação de expressões faciais associadas a dor ou desconforto. Sob essa perspectiva, é proposta a aplicação de modelos de detecção da face e suas regiões de interesse em imagens de bovinos. Para isso, uma das principais etapas deste trabalho foi a organização de um conjunto de dados anotado especificamente para este propósito, contendo imagens de bovinos em diferentes condições de iluminação, ângulos e cenários. Essa organização envolveu a coleta, filtragem e anotação manual de uma grande quantidade de imagens. O conjunto de dados resultante constitui uma importante contribuição deste trabalho. Subsequentemente, foram realizados estudos sobre redes neurais para o treinamento de modelos de detecção de objetos. Dessa forma, dois modelos de detecção foram treinados e avaliados a partir das redes neurais SSD MobileNet V2 FPNLite 640 × 640 e YOLOv8. Em relação ao critérios de avaliação dos modelos, destaca-se que os experimentos atingiram resultados satisfatórios dado o problema abordado. A respeito dos gráficos traçados para cada modelo, foi possível observar que ambas as redes tiveram resultados semelhantes entre si e consistentes com as expectativas de cada gráfico. Por fim, a análise qualitativa reforçou os resultados obtidos com um estudo visual das detecções de ambas as redes em exemplos representativos do conjunto de teste. De forma geral, os resultados das análises demonstraram que ambos os modelos são capazes de detectar a face de bovinos e suas regiões faciais adequadamente, mesmo em condições adversas. Em conclusão, este trabalho demonstra o potencial das técnicas de aprendizado profundo para a detecção de objetos na Pecuária de Precisão. Os resultados obtidos são encorajadores e sugerem que essas redes podem ser utilizadas para melhorar a eficiência e a precisão das atividades de manejo e produção em meio rural. No entanto, ainda há desafios a serem superados, como a melhoria da robustez dos modelos e aumento de imagens em situações desafiadoras no conjunto de dados.
Resumen : Livestock farming is an activity of great economic and social importance, and technology has played an increasingly important role in this sector. In this context, the present work is part of an intersection between Precision Livestock and Computer Vision. The motivation of this work arises from the need to identify the face of animals and its main regions of interest to solve problems such as the classification of facial expressions associated with pain or discomfort. From this perspective, it is proposed the application of models to detect face detection and its regions of interest in bovine images. To this end, one of the main steps of this work was the organization of a dataset annotated specifically for this purpose, containing images of cattle in different lighting conditions, angles and scenarios. This organization involved the manual collection, filtering and annotation of a large amount of images. The resulting dataset constitutes an important contribution of this work. Subsequently, studies were conducted on neural networks for training object detection models. Thus, two detection models were trained and evaluated from the neural networks SSD MobileNet V2 FPNLite 640 × 640 and YOLOv8. Regarding the evaluation criteria of the models, the experiments achieved satisfactory results given the problem addressed. Regarding the plotted graphs for each model, it was possible to observe that both networks had similar results to each other and consistent with the expectations of each graph. Finally, the qualitative analysis reinforced the results obtained with a visual study of the detections of both networks on representative examples of the test set. Overall, the results of the analysis demonstrated that both models are able to detect the face of cattle and their facial regions adequately, even under adverse conditions. In conclusion, this work demonstrates the potential of deep learning techniques for object detection in Precision Livestock. The results obtained are encouraging and suggest that these networks can be used to improve the efficiency and accuracy of management and production activities in rural areas. However, there are still challenges to be overcome, such as improving the robustness of the models and increasing the number of images in challenging situations in the dataset
Palabras clave : Detecção de objetos
Redes neurais
Aprendizado profundo
Pecuária de precisão
Object deteccion
Neural networks
Deep learning
Precision livestock
CNPq: CNPQ::ENGENHARIAS
Idioma: por
País: Brasil
Editorial : Universidade Federal de Juiz de Fora (UFJF)
Sigla de la Instituición: UFJF
Departamento: Faculdade de Engenharia
Clase de Acesso: Acesso Aberto
Licenças Creative Commons: http://creativecommons.org/licenses/by-sa/3.0/br/
URI : https://repositorio.ufjf.br/jspui/handle/ufjf/15951
Fecha de publicación : 15-jun-2023
Aparece en las colecciones: Engenharia Computacional - TCC Graduação



Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons