JUstory
Backpropagation - 경사하강법 본문
Chain Rule
Upstream Gradient = Loss를 output variable에 대해서 미분한 값
$$\frac{\partial L}{\partial z}$$
Local Gradient = Output에 대해서 input으로 미분한 값
$$ \frac{\partial z}{\partial x}$$
Downstream Gradient = Upstream Gradient x Local Gradient
$$ \frac{\partial L}{\partial x} = \frac{\partial L}{\partial z} \times \frac{\partial z}{\partial x}$$
Gradient Flow 패턴
add gate mul gate
copy gate max gate
'딥러닝' 카테고리의 다른 글
[딥러닝] Linear Regression (1) | 2024.10.14 |
---|---|
[딥러닝] 활성화 함수 Activation Function (0) | 2024.09.04 |
Nearest Neighbor Classifier (0) | 2024.08.21 |
[딥러닝 기초] Linear Regression 가중치 구하기 (0) | 2024.08.14 |
[딥러닝] Linear Regression(2)_손실함수 (0) | 2024.08.12 |