Publicación
-
2019 Roodschild, Matias and Gotay, Jorge and Rodriguez, Sebastian and Will, Adrian, Optimización de Scaled Conjugate Gradient para Froog Neural Networks, In 48 JAIIO - Simposio Argentino de Inteligencia Artificial, 2019.
-
Tipo: En congreso
Miembros:
Resumen: Scaled Conjugate Gradient es un algoritmo de aprendizaje iterativo para redes neuronales artificiales, destacándose por su velocidad de convergencia frente al Backpropagation. Esto se debe a que utiliza derivadas de segundo orden, lo que permite una convergencia más veloz. En este artículo, se demuestra lo expuesto por Möller en su trabajo original, respecto a que una adecuada implementación del Scaled Conjugate Gradient puede reducir en un 50 % el tiempo de ejecución. La implementación fue realizada en la herramienta gratuita ”Froog Neural Networks”de redes neuronales y probada en 4 base de datos estaándar, con diferentes cantidades de neuronas para probar la efectividad de los cambios realizados.1
-