Use este identificador para citar ou linkar para este item: https://repositorio.ufjf.br/jspui/handle/ufjf/14054
Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
vitormonteiroandradegoulart.pdfPDF/A5.06 MBAdobe PDFThumbnail
Visualizar/Abrir
Tipo: Dissertação
Título: Treinamento de redes neurais com incorporação da técnica Backpropagation ao FDIPA
Autor(es): Goulart, Vitor Monteiro Andrade
Primeiro Orientador: Freire, Wilhelm Passarella
Co-orientador: Mazorche, Sandro Rodrigues
Membro da banca: Norman, Jose Herskovits
Membro da banca: Fonseca, Leonardo Goliatt da
Resumo: As Redes Neurais Artificiais são modelos matemáticos e computacionais inspirados no funcionamento do cérebro humano. Elas são capazes de aprender e realizar tarefas como reconhecimento de padrões, classificação de imagens, detecção de fraudes em cartão de crédito entre outras aplicações. A estrutura de uma rede é composta de nós (que são os neurônios) ligados por arestas (que são as conexões) distribuídos em camadas. Essas conexões possuem valores (pesos) que representam o quanto aquela ligação é importante para a determinação do resultado final. A computação da rede é dada por uma série de composição de funções (funções de ativação) aplicadas ao produto dos pesos pelos valores atribuídos aos neurônios de cada camada. Para que a rede possa aprender, técnicas de otimização devem ser aplicadas para a determinação dos pesos ótimos da rede. Esse trabalho teve como principal objetivo incorporar a técnica backpropagation ao algoritmo de otimização FDIPA - Feasible Directions Interior Point Algorithm para a obtenção dos pesos ótimos de uma rede neural. Concluída essa tarefa, vários testes foram realizados para a comprovação da eficiência da proposta.
Abstract: Artificial Neural Networks are mathematical and computational models inspired by the functioning of the human brain. They are able to learn and perform tasks such as pattern recognition, image classification, credit card fraud detection and other applications. The structure of a network is composed of nodes (which are the neurons) connected by edges (which are the conections) distributed in layers. These conections have values (weights) that represent how important the connection is to the determination of the final result. The computation of the network is given by a series of composition of functions (activation functions) applied to the product of the weights by the values attributed to the neurons in each layer. In order to the network to learn, optimization techniques must be applied to determine the optimal network weights. The main objective of this work is to incorporate the backpropagation technique to the optimization algorithm FDIPA - Feasible Directions Interior Point Algorithm to obtain the optimal weights of a neural network. After completing this task, several tests were carried out to prove the efficiency of the proposal.
Palavras-chave: Redes neurais
Otimização
Aprendizado de máquina
Backpropagation
Neural networks
Optimization
Machine learning
Backpropagation
CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::MATEMATICA
Idioma: por
País: Brasil
Editor: Universidade Federal de Juiz de Fora (UFJF)
Sigla da Instituição: UFJF
Departamento: ICE – Instituto de Ciências Exatas
Programa: Mestrado Acadêmico em Matemática
Tipo de Acesso: Acesso Aberto
Attribution-NoDerivs 3.0 Brazil
Licenças Creative Commons: http://creativecommons.org/licenses/by-nd/3.0/br/
DOI: https://doi.org/10.34019/ufjf/di/2022/00058
URI: https://repositorio.ufjf.br/jspui/handle/ufjf/14054
Data do documento: 11-Fev-2022
Aparece nas coleções:Mestrado Acadêmico em Matemática (Dissertações)



Este item está licenciado sob uma Licença Creative Commons Creative Commons