Skip to content

Commit dbf2007

Browse files
committed
Update README.md
1 parent fcc5628 commit dbf2007

File tree

1 file changed

+79
-1
lines changed

1 file changed

+79
-1
lines changed

README.md

Lines changed: 79 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -4,7 +4,8 @@
44
해당 실습 코드를 구현하기 위해 참고한 References는 맨 아래의 링크들을 참고해주세요.
55

66

7-
## Indexes
7+
8+
# Indexes
89

910
1. linear_regression_model
1011
2. mnist_tutorial
@@ -25,6 +26,83 @@ Appendix-2. Word2Vec
2526

2627

2728

29+
## Linear Regression
30+
31+
파이토치의 가장 기본적인 사용 방법에 대한 이해를 위해, 간단한 선형 회귀 예측을 구현한 코드입니다.
32+
33+
data set 또한 굉장히 작기 때문에, 01_data.csv로 디렉터리에 함께 동봉되어 있습니다.
34+
35+
실행 코드 또한 main.py 코드 한개입니다.
36+
37+
38+
39+
## Mnist Tutorial
40+
41+
마찬가지로 파이토치의 기본적인 사용 방법 이해를 위한 Mnist Tutorial 코드입니다.
42+
43+
utils.py의 load_mnist Function을 통해 **Mnist Dataset를 자동으로 다운받아 학습을 시작**합니다.
44+
45+
또한, 코드 구조화를 위해 다음과 같이 코드 파일을 구분하였습니다.
46+
47+
- **train.py (메인 학습 실행 코드)**
48+
49+
- model.py (신경망 구조 클래스)
50+
- trainer.py (학습기 클래스)
51+
- utils.py (유틸 함수 모음)
52+
- **predict.py (모델 예측 실행 코드)**
53+
54+
55+
56+
## Mnist Autoencoder
57+
58+
간단한 오토 인코더를 구현해보는 코드로, Mnist로 실습을 수행하였습니다. 기본적으로 위의 Mnist Tutorial 코드와 같은 구조를 가집니다.
59+
60+
61+
62+
## Advanced Pytorch
63+
64+
### 1. Custom Dataset
65+
66+
Pytorch에 지원하는 커스텀 데이터셋 클래스를 사용해보는 실습입니다. Dataset으로는 Sklearn의 유방암 데이터셋을 사용하였습니다.
67+
68+
### 2. Pytorch ignite
69+
70+
위에서 사용한 커스텀 데이터셋과 더불어, Pytorch 확장 프레임워크인 Ignite를 사용하여 코드 구조화에 사용하였습니다. Dataset은 Mnist이며, 이후에 모든 코드는 Ignite를 통해 구현되었습니다.
71+
72+
73+
74+
## CNN
75+
76+
Mnist를 CNN을 사용하여 구현한 코드입니다.
77+
78+
79+
80+
## Transfer Learning
81+
82+
torchvision에서 제공하는 model을 기반으로 전이 학습을 실시하는 코드입니다. Dataset은 Mnist이며, **"resnet", "alexnet", "vgg", "squeezenet", "densenet"**을 이용해 전이학습을 수행합니다.
83+
84+
전이 학습시, 사전에 기록된 기존 모델의 parameter을 동결시킬 것인지 말지를 결정할 수 있으며, 마지막 Output 단의 Classification의 Class 수를 재정의하여 전이학습을 수행합니다.
85+
86+
87+
88+
## RNN
89+
90+
Mnist를 RNN을 사용하여 구현한 코드입니다.
91+
92+
93+
94+
## Preprocessing
95+
96+
해당 챕터는 모델 학습 관련 코드가 아닙니다. 자연어처리에서 데이터 전처리시에 사용되는, Tokenize, Regular Expression, Subword Segmentation 등에 대하여 다룹니다.
97+
98+
또한, torchtext에 제공하는 Dataset 기능을 사용해보았습니다.
99+
100+
101+
102+
103+
104+
105+
28106

29107
# References
30108

0 commit comments

Comments
 (0)