El problema de optimización en una red neuronal artificial: métodos de optimización basados en el gradiente
Cargando...
Archivos
Fecha
2022
Autores
Título de la revista
ISSN de la revista
Título del volumen
Editor
Universidad Nacional de Piura
Resumen
El objetivo de la presente investigación es describir y explicar los métodos de optimización basados en el gradiente para minimizar el error global cometido durante el proceso completo de aprendizaje de la red neuronal artificial Perceptrón multicapa. Los métodos de optimización que se describen y explican son el método del gradiente descendente y el método del gradiente conjugado. El vector gradiente es la base en el proceso de aprendizaje o entrenamiento de la RNA Perceptrón multicapa. En esta fase de aprendizaje o entrenamiento de la RNA se establecen los pesos de la red que mejor ajusten al modelo. Este ajuste de pesos se lleva a cabo a través de una regla de aprendizaje, construida con el objetivo de minimizar una determinada función de error o coste (la suma de los cuadrados de los errores de salida de la red). Se aplica el operador gradiente descendente sobre dicha función, asegurando así que un cambio en los valores de los pesos provoque un descenso por la superficie de esta función hasta alcanzar el mínimo local más próximo. Los pesos se modifican siguiendo la dirección negativa del gradiente de la función de error. El descenso por la superficie de la función de error busca encontrar un valor mínimo de error (local o global), lo que puede hacer que el proceso de aprendizaje se detenga en un mínimo y así lograr la convergencia de la red. Se utilizó un enfoque cualitativo de tipo descriptivo explicativo. Los resultados obtenidos señalan que métodos de optimación basados en el gradiente son la base en el proceso de entrenamiento o aprendizaje de la red neuronal Perceptron multicapa y que su uso permite minimizar el error global cometido durante el proceso completo de aprendizaje de dicha red neuronal artificial.
Descripción
Palabras clave
función de error, gradiente descendente, gradiente conjugado, perceptron multicapa