Day-22 更加灵活的神经网路,我们可以做哪些变化

  • 今天我们来还债 XDD,还之前跳过的很多解释,还有如何更加灵活的调整神经网路
  • 那就让我们一步一步来吧~

偷偷小声地说,今天这篇就让笔者水一篇吧 QQ,再去解释数学好累 QQ

Activation functions

  • 我们前面看过好多次这个名词了,到底什麽是 Activation function ?
  • Activation function 中文叫做激励函数,最主要的目的是应用於非线性变换,因为如果没有 Activation function,我们的计算 input 跟 output 都会是 linear 的,这样就会失去深度学习的意义
  • 那 Activation functions 有非常非常多种,而我们比较常见的有
    • Step function
    • Sigmoid
    • TanH
    • ReLU
    • Leaky ReLU
    • Softmax
    • ...
  • 那我们这边就不特别解释这个部分,简单来说每种 Activation Function 都有优势和劣势,这个部分值得大家自己研究何尝试
  • 那我们在前面的 Feed-Forward NN 用的 Activation function 是 ReLU,读者可以尝试看看换成 Sigmoid 或是换成别的去看看准确率阿等等不同的变化~

Hidden Layers

  • Hidden Layer 是神经网络中除了 input & output layer 的中间神经元们,那我们可以发现如何定义这些 Hidden Layer 其实没有一个特别的规定,怎麽决定一层 Hidden Layer 要有几个神经元,要有几层,每一层之间的变化要怎麽变化?这些就是深度学习发展过程中研究的课题
  • 大家也可以试着去调整看看我们 feed-forward NN 上的 Hidden Layer 状况~
  • 那这边要注意,最後一层的 Hidden Layers 要考虑到输出,第一层的 Hidden Layers 要考虑输入

每日小结

  • 其实还有更多可以注意和调整的东西,例如 batch_size 或是更细节的神经元抛弃之类的更深入的技巧,但是这些东西就需要大家自己更加深入理解这个领域之後再去做操作了,我们这边就不特别介绍了
  • 神经网络是非常的灵活的东西,可以自行调整的东西也非常多,如何找到 "最佳" ,是一个非常困难的议题,也正是深度学习领域中大家努力的目标,因此大家可以多多尝试
  • 那假设,我们今天已经成功训练了一个非常强大的模型了,花了一周的时间在训练,总不会使用时又要跑一个月吧 QQ,不用,明天就让我们来聊聊怎麽保存你的可爱模型~

<<:  Day22-大量图片的页面(下)_利用hover搞点漂亮的

>>:  Day 21. Unity 介面与Unreal Engine介面比较

JavaScript学习日记 : Day13 - 闭包(Closure)

当一个函数被建立时,闭包就会被产生,虽然常见的闭包说明方式会使用巢状函数当作例子,这是最常见的例子没...

[Day27] 布林通道策略

今天弄布林通道策略的部分,一般看到的布林通道会先弄出一条均线,然後在上下2个标准差的地方各画一条线,...

[第五天]从0开始的UnityAR手机游戏开发-如何在Vuforia创建可辨识图片

第四天的小试身手解答:将Unity介面改为2By3,Project从Two Column Layou...

索引合并(index merge)

一般来说,Mysql只会为单一索引生成扫描区间,但还是有特殊情况会为多个索引生成扫描区间。 这种为多...

[DAY1] 新的一天,新的开始

废言 第一次参加这种文章比赛,感觉有点奇妙,平常光是写作文就非常厌恶,居然没想到我会想来参加这种要连...