반응형
복습
Gradient Descent
Computational Graphs
backpropagation
거꾸로 미분하면서 간다
computational graph를 따라서 gradients를 계산하면서 chain rule을 적용하는 반복적인 과정(input,parameters,intermediates)
local gradient를 사용하여 계산 진행
Another example of backprop
1) df/d(variable) 를 구함 -> f 어떤거?
2) local gradient와 upstream gradient를 사용하여 계산
sigmoid function
grouping nodes -> activation
patterns in backward flow
??
Vectorized operations
-> 너무 크니까 mini-batch로 뽑아서 할것임
-> 어떤 input이 어떤 output에 영향을 주는지? diagonal matrix(대각행렬), element-wise
gradient값은 output에 얼마나 영향을 주는지를 나타냄
Neural Network
h 는 함수와 같은 것
반응형
'AI > CS231n' 카테고리의 다른 글
[Lecture 6] Training Neural Networks I (0) | 2022.05.18 |
---|---|
[Lecture 5] Convolutional Neural Networks (0) | 2022.05.17 |
[Lecture 3] Loss Functions and Optimization (0) | 2022.05.15 |
[Lecture 2] Image Classification (0) | 2022.05.12 |
[Lecture 1] Introduction to Convolutional Neural Networks for Visual Recognition (0) | 2022.05.11 |