Método secante estructurado piara el entrenamiento del perceptrón multicapa

Dentro del grupo de modelos de redes neuronales artificiales está el perceptrón multicapa: una red neuronal unidireccional constituida por tres o más capas, cuyo entrenamiento se hace mediante un algoritmo denominado retro-propagation oe errores. En este trabajo, proponemos e implementamos por pr...

Full description

Saved in:
Bibliographic Details
Published in:Revista de ciencias Vol. 18; no. 2; p. 131
Main Authors: Vivas, Hevert, Martínez, Héctor Jairo, Pérez, Rosana
Format: Journal Article
Language:Spanish
Published: Universidad del Valle 01-12-2014
Subjects:
Online Access:Get full text
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:Dentro del grupo de modelos de redes neuronales artificiales está el perceptrón multicapa: una red neuronal unidireccional constituida por tres o más capas, cuyo entrenamiento se hace mediante un algoritmo denominado retro-propagation oe errores. En este trabajo, proponemos e implementamos por primera vez, el método secante estructurado para el entrenamieeto del perception multicapa y analizamos su desempeño numérico comparandolo con métodos ampliamente usados con el mismo eraposito. Pruebas numéricas preliminares muesarao un buen desempeño numérico del método propuesto. Palabras clave: método secante estructurado, entrenamiento de redes neuronales artificiales, perceptrón multicapa, mínimos cuadrados no lineales. In the group of models of artificial neural networks, it is the multilayer perceptron, a unidirectional neural network consisting of three or more layers, its training is done by an algorithm called backpropagation. In this work, we introduced the structured secant method for the training of multilayer perceptron and we compare its numerical performance with other methods widely used with the same purpose. Some numerical experiments show a good performance of this algorithm. Keywords: Multilayer perceptron, structured secant method, training neural network, nonlinear least squares.
ISSN:0121-1935
2248-4000