SSYSPE

Platform to share knowledge, news, discussions and jobs about software, systems and IT fields related
* Identificarse    * Registrarse


Nuevo tema Responder al tema  [ 1 mensaje ] 
Autor Mensaje
NotaPublicado: 25 May 2018, 19:18 
Desconectado
Avatar de Usuario

Registrado: 17 Mar 2018, 21:31
Mensajes: 7
Para la optimizacion de los parametros de una Red neuronal, se pueden utilizar distintas técnicas. Hoy en dia las técnicas mas utilizadas son aquellas basadas en la gradiente de la función objetivo, estas técnicas son conocidas como "Gradient Descent Optimization". Muchas veces estos algoritmos se utilizan como cajas negras que brindan a nuestra red neuronal la capacidad de aprender.

En el siguiente link se encuentra una explicación de los distintos algoritmos que se utilizan para la optimizacion de los parametros de la red neuronal.

http://ruder.io/optimizing-gradient-descent/

Del blog de Sebastian Ruder.

Los algoritmos mencionados en el blog son: Momentum, Nesterov accelerated gradient, Adagrad, Adadelta, RMSprop, Adam, AdaMax, Nadam, AMSGrad
Ademas realiza una comparación entre estos y una recomendación de como elegir el optimizador a utilizar.

Imagen

Imagen


Arriba
 Perfil  
 
Mostrar mensajes previos:  Ordenar por  
Nuevo tema Responder al tema  [ 1 mensaje ] 


¿Quién está conectado?

Usuarios navegando por este Foro: Marlon y 1 invitado


No puedes abrir nuevos temas en este Foro
No puedes responder a temas en este Foro
No puedes editar tus mensajes en este Foro
No puedes borrar tus mensajes en este Foro
No puedes enviar adjuntos en este Foro

Buscar: