https://repositorio.ufjf.br/jspui/handle/ufjf/14054
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
vitormonteiroandradegoulart.pdf | PDF/A | 5.06 MB | Adobe PDF | Visualizar/Abrir |
Tipo: | Dissertação |
Título: | Treinamento de redes neurais com incorporação da técnica Backpropagation ao FDIPA |
Autor(es): | Goulart, Vitor Monteiro Andrade |
Primeiro Orientador: | Freire, Wilhelm Passarella |
Co-orientador: | Mazorche, Sandro Rodrigues |
Membro da banca: | Norman, Jose Herskovits |
Membro da banca: | Fonseca, Leonardo Goliatt da |
Resumo: | As Redes Neurais Artificiais são modelos matemáticos e computacionais inspirados no funcionamento do cérebro humano. Elas são capazes de aprender e realizar tarefas como reconhecimento de padrões, classificação de imagens, detecção de fraudes em cartão de crédito entre outras aplicações. A estrutura de uma rede é composta de nós (que são os neurônios) ligados por arestas (que são as conexões) distribuídos em camadas. Essas conexões possuem valores (pesos) que representam o quanto aquela ligação é importante para a determinação do resultado final. A computação da rede é dada por uma série de composição de funções (funções de ativação) aplicadas ao produto dos pesos pelos valores atribuídos aos neurônios de cada camada. Para que a rede possa aprender, técnicas de otimização devem ser aplicadas para a determinação dos pesos ótimos da rede. Esse trabalho teve como principal objetivo incorporar a técnica backpropagation ao algoritmo de otimização FDIPA - Feasible Directions Interior Point Algorithm para a obtenção dos pesos ótimos de uma rede neural. Concluída essa tarefa, vários testes foram realizados para a comprovação da eficiência da proposta. |
Abstract: | Artificial Neural Networks are mathematical and computational models inspired by the functioning of the human brain. They are able to learn and perform tasks such as pattern recognition, image classification, credit card fraud detection and other applications. The structure of a network is composed of nodes (which are the neurons) connected by edges (which are the conections) distributed in layers. These conections have values (weights) that represent how important the connection is to the determination of the final result. The computation of the network is given by a series of composition of functions (activation functions) applied to the product of the weights by the values attributed to the neurons in each layer. In order to the network to learn, optimization techniques must be applied to determine the optimal network weights. The main objective of this work is to incorporate the backpropagation technique to the optimization algorithm FDIPA - Feasible Directions Interior Point Algorithm to obtain the optimal weights of a neural network. After completing this task, several tests were carried out to prove the efficiency of the proposal. |
Palavras-chave: | Redes neurais Otimização Aprendizado de máquina Backpropagation Neural networks Optimization Machine learning Backpropagation |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::MATEMATICA |
Idioma: | por |
País: | Brasil |
Editor: | Universidade Federal de Juiz de Fora (UFJF) |
Sigla da Instituição: | UFJF |
Departamento: | ICE – Instituto de Ciências Exatas |
Programa: | Mestrado Acadêmico em Matemática |
Tipo de Acesso: | Acesso Aberto Attribution-NoDerivs 3.0 Brazil |
Licenças Creative Commons: | http://creativecommons.org/licenses/by-nd/3.0/br/ |
DOI: | https://doi.org/10.34019/ufjf/di/2022/00058 |
URI: | https://repositorio.ufjf.br/jspui/handle/ufjf/14054 |
Data do documento: | 11-Fev-2022 |
Aparece nas coleções: | Mestrado Acadêmico em Matemática (Dissertações) |
Este item está licenciado sob uma Licença Creative Commons