Redes de propagación hacia atrás
Origen
Al parecer el algoritmo fue ideado a
principios de los 70 por Werbos, y redescubierto a principios de los 80 por
Parker y Rumelhart independientemente, sin embargo, no se hizo popular hasta
1986, cuando Rumerlhart, Hinton y Williams presentaron una descripción clara y
concisa del mismo. Y es que en un primer momento no se valoró como se merecía.
El hecho de que permaneciera en el olvido tanto tiempo también debe ser una
consecuencia de la condición interdisciplinar del campo, repartido entre las
matemáticas y ciencias de la computación, las neurociencias y la psicología.
Desde la fecha clave de 1986 han surgido
nuevas versiones que han tratado de aumentar la velocidad de convergencia del
algoritmo y han tratado de superar algunos de sus inconvenientes, como la
tendencia a alcanzar mínimos locales y no globales, punto que será discutido
más tarde.
Las redes de propagación hacia atrás son
aquellas consideradas como un algoritmo de aprendizaje, es decir, consiste en
propagar el error hacia atrás, de la capa de salida hasta la capa de entrada
pasando por las capas intermedias y ajustando cada una de ellas con el fin de
solucionar o reducir el error presentado inicialmente.
Descripción
matemática del algoritmo de retropropagación
Se explica una versión del algoritmo
(Hinton, 1992) para redes con las siguientes características:
·
No recurrentes
·
Función de activación sigmoidal
·
Capas totalmente
interconectadas
·
Operación totalmente síncrona
Sigmoidal:
Se trata de una función continua no lineal
con bastante plausibilidad fisiológica. La función sigmoidal posee un rango
comprendido entre 0 y 1. Esto, aplicado a las unidades de proceso de una red
neuronal artificial significa que, sea cual sea la entrada, la salida estará comprendida
entre 0 y1.
Comentarios
Publicar un comentario