[Pytorch] RNN에서 Tanh말고 Sigmoid나 ReLU를 사용하면 안될까?
·
Python/Deep Learning
안녕하세요. 오늘은 RNN을 Pytorch로 직접 구현해보고, Tanh(hyperbolic tangent) 대신, Sigmoid나 ReLU를 사용하면 어떻게 되는지 실험을 한 번 해보겠습니다. www.youtube.com/watch?v=tlyzfIYvMWE&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=26 제가 Pytorch를 처음 공부할 때 위 영상을 많이 참고 했습니다. Pytorch를 처음 공부하시는 분이시라면, 위 딥러닝 홀로서기 Pytorch Kist 영상을 보시는 걸 추천드립니다. 자료도 아낌없이 GIt에 올라와 있고, 라이브 코딩을 하면서 수업이 진행되기 때문에 접근하는 노하우를 기를 수 있다고 생각합니다. 코드는 위 영상 GIthub의 자료를 수정한 내..
[딥러닝] RNN with PyTorch ( RNN 기본 구조, 사용 방법 )
·
Python/Deep Learning
오늘은 Pytorch를 통해 RNN을 알아보겠습니다. https://www.youtube.com/watch?v=bPRfnlG6dtU&t=2674s RNN의 기본구조를 모르시면 위 링크를 보시는걸 추천드립니다. Pytorch document에 RNN을 확인하겠습니다. https://pytorch.org/docs/stable/nn.html 1. RNN (default) RNN의 입력은 [sequence, batch_size, input_size] 으로 이루어집니다. import torch import torch.nn as nn input = torch.randn(4, 7, 5) print(input.size()) # 결과 # torch.Size([4, 7, 5]) sequence = 4차원, batch_si..
18진수
'rnn' 태그의 글 목록