[Pytorch] RNN에서 Tanh말고 Sigmoid나 ReLU를 사용하면 안될까?
·
Python/Deep Learning
안녕하세요. 오늘은 RNN을 Pytorch로 직접 구현해보고, Tanh(hyperbolic tangent) 대신, Sigmoid나 ReLU를 사용하면 어떻게 되는지 실험을 한 번 해보겠습니다. www.youtube.com/watch?v=tlyzfIYvMWE&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=26 제가 Pytorch를 처음 공부할 때 위 영상을 많이 참고 했습니다. Pytorch를 처음 공부하시는 분이시라면, 위 딥러닝 홀로서기 Pytorch Kist 영상을 보시는 걸 추천드립니다. 자료도 아낌없이 GIt에 올라와 있고, 라이브 코딩을 하면서 수업이 진행되기 때문에 접근하는 노하우를 기를 수 있다고 생각합니다. 코드는 위 영상 GIthub의 자료를 수정한 내..
[딥러닝] ReLU 함수가 비선형 함수인 이유...! (선형함수와 비선형함수의 차이점)
·
Python/Deep Learning
안녕하세요. 오늘은 딥러닝에서 가장 많이 사용되는 ReLU를 통해 비선형함수와 선형함수의 차이점을 알아보겠습니다. 머신러닝에서 선형함수를 통해 회귀문제를 해결할 수 있게 되었고, 더 복잡한 문제를 풀기 위해 비선형 함수 Sigmoid, Tanh, ReLU를 나오기 시작합니다. 현재까지 복잡한 문제를 딥러닝 분야에서 ReLU를 사용하는 것은 당연시 되고 있습니다. 바로, 본론으로 들어가겠습니다. TesorFlow, Keras, Pytorch를 통해 ReLU를 사용하는 것은 굉장히 간단합니다. 신호 및 시스템의 개념적 이야기로 가보겠습니다. ReLU는 왜 비선형 함수일까요? 선형 시스템과 비선형 시스템의 차이 선형성을 가지고 있으면 선형 시스템이고, 그 외는 비선형 시스템입니다. 선형성을 가지는 조건은 무엇..
[딥러닝 논문 리뷰] Xception: Deep Learning with Depthwise Separable Convolutions (feat.Pytorch)(2)
·
Python/Deep Learning
https://openaccess.thecvf.com/content_cvpr_2017/papers/Chollet_Xception_Deep_Learning_CVPR_2017_paper.pdf 안녕하세요. Xception 논문 리뷰 2회차입니다. 1회차 논문리뷰로 An Extreme version of Inception module이 Depthwise Separable Convolution까지 소개했습니다. 아래 전 편의 글을 읽는 것을 추천드립니다. https://coding-yoon.tistory.com/78?category=825914 [딥러닝 논문 리뷰] Xception: Deep Learning with Depthwise Separable Convolutions (feat.Pytorch)(1) 안녕..
18진수
'ReLu' 태그의 글 목록