根据Chain Rule可以把 写成 ,而计算 的过程我们称为正向传递(Forward pass),计算 的过程我们称为反向传递(Backward pass)。
从计算结果可以发现, 只要看 前面接的是什麽, 的微分就是什麽。
要计算Neural Network里面的每一个weight对它的Activation function的输入 的偏微分,就只要把输入丢进去,然後去计算每一个Neuron的输出就可以了,这个步骤我们就称之为正向传递(Forward pass)。
假设Activation function是Sigmoid function, 通过Sigmoid function得到 ,接着 会乘上一个weight再加上一些value得到 , 还会在乘上另一个weight再加上一些value得到 。
将 经过Chain Rule写成 ,其中 就是这个Sigmoid function的微分。
经过Chain Rule写成 ,而我们可以很容易看出 ,但我们不知道 对 的关系,所以先假设我们知道 的值。
而有了 我们就可以算出 得出下图的式子。
我们可以将那个式子画成像是Neuron一样,而根据前向传递我们知道了 ,所以 是一个常数。
第一个Case:假设橘色的这两个Neuron是Output layer,那今天你要算 就相对简单。
第二个Case:假设橘色的这两个Neuron不是Output layer,那根据前面学的我们想要算出前面的偏微分,就必须要先知道後面的偏微分,就等於是我们就要一直往後看下一个layer直到Output layer。
但是其实我们只需要换一个方向,从Output layer开始算回去的做法就叫做反向传递(Backward pass),我们可以建另外一个反向的Neural Network,它的Activation function需要先算完Forward pass之後才算的出来,其他都跟一般的Neural Network计算一样,就可以算出 。
<<: Day 13: Structural patterns - Composite
聊天机器人主要分为两种类型: 以工作为导向 (宣告式) 的聊天机器是专注於执行一项功能的单一用途程序...
随着考试的日子越来越接近,系里的气氛也越来越紧张。 「这麽一观察,系里选修这门课的人还真多。」诗忆看...
之前因为可能因为需要使用收集的资料作分析,所以做了一个使用 Django来生成excel档案的功能,...
搭配 in 的 for 回圈会搜寻物件中所有 property 为 enumerable 者 而使...
什麽是 Google App Script (GAS)? 引述 Google 官方文件 的说明: 想...