[Pytorch] RNN에서 Tanh말고 Sigmoid나 ReLU를 사용하면 안될까?
·
Python/Deep Learning
안녕하세요. 오늘은 RNN을 Pytorch로 직접 구현해보고, Tanh(hyperbolic tangent) 대신, Sigmoid나 ReLU를 사용하면 어떻게 되는지 실험을 한 번 해보겠습니다. www.youtube.com/watch?v=tlyzfIYvMWE&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=26 제가 Pytorch를 처음 공부할 때 위 영상을 많이 참고 했습니다. Pytorch를 처음 공부하시는 분이시라면, 위 딥러닝 홀로서기 Pytorch Kist 영상을 보시는 걸 추천드립니다. 자료도 아낌없이 GIt에 올라와 있고, 라이브 코딩을 하면서 수업이 진행되기 때문에 접근하는 노하우를 기를 수 있다고 생각합니다. 코드는 위 영상 GIthub의 자료를 수정한 내..
18진수
'Tanh 대신 ReLU를 사용하면' 태그의 글 목록