Skip to content

Commit 319e6e1

Browse files
authored
blitz/cifar10_tutorial 오타 수정 (#638)
* 오타 수정 색상로 -> 색상으로 * 오타(띄어쓰기) 수정 떨어져있는지 -> 떨어져 있는지 따라가다보면 -> 따라가다 보면 따라가보겠습니다 -> 따라가 보겠습니다
1 parent 81051a2 commit 319e6e1

File tree

2 files changed

+5
-5
lines changed

2 files changed

+5
-5
lines changed

beginner_source/blitz/cifar10_tutorial.py

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -31,7 +31,7 @@
3131
있습니다: '비행기(airplane)', '자동차(automobile)', '새(bird)', '고양이(cat)',
3232
'사슴(deer)', '개(dog)', '개구리(frog)', '말(horse)', '배(ship)', '트럭(truck)'.
3333
그리고 CIFAR10에 포함된 이미지의 크기는 3x32x32로, 이는 32x32 픽셀 크기의 이미지가
34-
3개 채널(channel)의 색상로 이뤄져 있다는 것을 뜻합니다.
34+
3개 채널(channel)의 색상으로 이뤄져 있다는 것을 뜻합니다.
3535
3636
.. figure:: /_static/img/cifar10.png
3737
:alt: cifar10

beginner_source/blitz/neural_networks_tutorial.py

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -25,7 +25,7 @@
2525
- 학습 가능한 매개변수(또는 가중치(weight))를 갖는 신경망을 정의합니다.
2626
- 데이터셋(dataset) 입력을 반복합니다.
2727
- 입력을 신경망에서 전파(process)합니다.
28-
- 손실(loss; 출력이 정답으로부터 얼마나 떨어져있는지)을 계산합니다.
28+
- 손실(loss; 출력이 정답으로부터 얼마나 떨어져 있는지)을 계산합니다.
2929
- 변화도(gradient)를 신경망의 매개변수들에 역으로 전파합니다.
3030
- 신경망의 가중치를 갱신합니다. 일반적으로 다음과 같은 간단한 규칙을 사용합니다:
3131
``새로운 가중치(weight) = 가중치(weight) - 학습률(learning rate) * 변화도(gradient)``
@@ -132,7 +132,7 @@ def forward(self, x):
132132
# 손실 함수 (Loss Function)
133133
# -------------------------
134134
# 손실 함수는 (output, target)을 한 쌍(pair)의 입력으로 받아, 출력(output)이
135-
# 정답(target)으로부터 얼마나 멀리 떨어져있는지 추정하는 값을 계산합니다.
135+
# 정답(target)으로부터 얼마나 멀리 떨어져 있는지 추정하는 값을 계산합니다.
136136
#
137137
# nn 패키지에는 여러가지의 `손실 함수들 <http://pytorch.org/docs/nn.html#loss-functions>`_
138138
# 이 존재합니다.
@@ -150,7 +150,7 @@ def forward(self, x):
150150
print(loss)
151151

152152
########################################################################
153-
# 이제 ``.grad_fn`` 속성을 사용하여 ``loss`` 를 역방향에서 따라가다보면,
153+
# 이제 ``.grad_fn`` 속성을 사용하여 ``loss`` 를 역방향에서 따라가다 보면,
154154
# 이러한 모습의 연산 그래프를 볼 수 있습니다:
155155
#
156156
# ::
@@ -164,7 +164,7 @@ def forward(self, x):
164164
# 미분되며, 그래프 내의 ``requires_grad=True`` 인 모든 Tensor는 변화도가
165165
# 누적된 ``.grad`` Tensor를 갖게 됩니다.
166166
#
167-
# 설명을 위해, 역전파의 몇 단계를 따라가보겠습니다:
167+
# 설명을 위해, 역전파의 몇 단계를 따라가 보겠습니다:
168168

169169
print(loss.grad_fn) # MSELoss
170170
print(loss.grad_fn.next_functions[0][0]) # Linear

0 commit comments

Comments
 (0)