Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
more
Archives
Today
Total
관리 메뉴

JUstory

Backpropagation - 경사하강법 본문

딥러닝

Backpropagation - 경사하강법

jueuniiiju 2024. 8. 26. 15:42
Chain Rule

 

Upstream Gradient = Loss를 output variable에 대해서 미분한 값

 $$\frac{\partial L}{\partial z}$$

 

Local Gradient = Output에 대해서 input으로 미분한 값

$$ \frac{\partial z}{\partial x}$$

 

 

Downstream Gradient = Upstream Gradient  x  Local Gradient

 

$$ \frac{\partial L}{\partial x} = \frac{\partial L}{\partial z} \times \frac{\partial z}{\partial x}$$

 

 

 

Gradient Flow 패턴

add gate                                                            mul gate

 

 

 

copy gate                                                      max gate