[Deep Learning] end-to-end trainable neural network
논문을 읽다가 이해가 안되던 end-to-end trainable neural network 의 의미를 알아보도록 하자.
모델의 모든 매개변수가 하나의 손실함수에 대해 동시에 훈련되는 경로가 가능한 네트워크로써 역전파 알고리즘 (Backpropagation Algorithm) 과 함께 최적화 될 수 있다는 의미이다.
예를들어 인코더(언어의 입력을 벡터로)와 디코더(벡터의 입력을 언어로)에서 모두가 동시에 학습되는 기계 번역 문제에서 효과적으로 적용 될 수 있다.
즉, 신경망은 한쪽 끝에서 입력을 받아들이고 다른 쪽 끝에서 출력을 생성하는데, 입력 및 출력을 직접 고려하여 네트워크 가중치를 최적화 하는 학습을 종단 간 학습(End-to-end Learning) 이라고 한다.
Convolutional neural network 가 카메라의 원시 픽셀을 명령어에 직접 매핑하는 과정을 거치게 될 때 역전파는 종종 입력을 해당 출력으로 매핑하는 것과 관련하여 네트워크 가중치를 학습하는 효율적인 방법으로 사용된다.
만약, 신경망에 너무 많은 계층의 노드가 있거나 메모리가 적합하지 않을 경우 종단 간(end-to-end) 방식으로 훈련 시킬 수 없다. 이 경우 네트워크를 더 작은 네트워크의 파이프라인으로 나누어 해결 할 수 있는데 각 작은 네트워크는 독립적으로 훈련을 하게 되고 원하는 출력을 얻기 위해 연결 될 수 있다. 이러한 방식을 Divide and train 이라고 한다. 최적화가 중간 산출물에 의존한다는 점에서 국지적으로 수행이 되기 때문에 최적의 결과를 보장할 수 없다.
참고자료 1 : https://www.quora.com/What-does-it-mean-by-%E2%80%9Cend-to-end-trainable-neural-network%E2%80%9D
참고자료 2 : https://www.quora.com/What-does-it-mean-for-a-neural-network-to-be-trained-end-to-end
'AI Research Topic > Deep Learning' 카테고리의 다른 글
[Deep Learning] 회귀분석 (Regression) 과 경사하강법 (Gradient Descent) (3) | 2017.08.25 |
---|---|
[Deep Learning] pre-training 과 fine-tuning (파인튜닝) (0) | 2017.08.17 |
[Deep Learning] 7. 2층 신경망 구현하기 (0) | 2017.07.17 |
[Deep Learning] 6. 경사하강법 (Gradient Method) (0) | 2017.07.14 |
[Deep Learning] 5. 마코프 의사결정 과정 (Markov decision process, MDP) (0) | 2017.07.05 |