【1】Deep Learning 시작하기_최적화가 가장 중요하다!
Adadelta Optimizer (Adaptive Delta)
“아다그라드, 아직 갈 길이 먼데 보폭이 점점 작아지네? 가중치의 변화량을 고려해서 학습률을 변화시키자!”
작성자 홍다혜 ghdek11@gmail.com / 이원재 ondslee0808@gmail.com
'BLOG > 딥러닝' 카테고리의 다른 글
Overfitting이 무엇일까? (0) | 2021.03.24 |
---|---|
Adam Optimizer (Adaptive Moment Estimation) (0) | 2021.03.24 |
RMSProp (0) | 2021.03.24 |
Adagrad Optimizer (Adaptive Gradient) (0) | 2021.03.24 |
Momentum Optimizer (0) | 2021.03.24 |