OK,资料分析做完了,
现在要进入演算法的部分,
我们未来几天将从经典卷积神经网路架构中,
寻找适合FER2013资料集的演算法。
最後经由实验挑出最佳的CNN演算法。
在实验结果出来之前,
请让我来介绍一些知名CNN架构吧!
在唐朝,刘禹锡的〈陋室铭〉曾书「山不在高,有仙则名。水不在深,有龙则灵」。
但是,在深度学习的领域应该改为「山就要高,有ResNet则名。水就要深,有VGG则灵」
西元2014年,
〈Very Deep Convolutional Networks for Large-Scale Image Recognition〉横空出世,
当时没有人想到,居然有神经网路可以深到16层,甚至是19层。
它就是VGG Net。
表格中D栏和E栏分别代表VGG16和VGG19的神经网路架构,
可以发现两者架构基本一样,只是VGG19多了3层卷积层。
VGG的架构可以说是十分简单,
但在当时可是一大创新!
相较於AlexNet的成功,
VGG用多个小卷积核取代单一大卷积核的操作看似随意,
但背後的意义却非常有道理。
实作部分请参考明天的文章
<<: [Day23]What's Cryptanalysis?
>>: Day 23 : 模型分析 TensorFlow Model Analysis (TFMA)
多执行绪(multithreading) 所以我们的多执行绪在程序是怎麽运作呢? 一般情况: 假设 ...
昨天安装好Node.js了!所以今天要介绍的是Node.js里面的一个预设的套件,它叫做npm它有点...
刚开始学习JavaScript的时候,很单纯的认为所有程序码是逐行执行的,就像看书不都是ㄧ行一行阅读...
今天,我们来介绍一下常见的基本型别吧~ 基本型别 - 整数型别 - int int 型态是有正负号的...
(好的我知道标题没押韵很虚,我尽力了) 昨天我们终於处理完Database的东东,并且成功用Djan...