接续昨天的文章,今天介绍一下Yolo v1的Loss Function,由於在训练的时候我们当然希望模型的结果是越接近正确的结果越好,但是实际上不太可能,预测和现实会有误差,称之为残差,然後训练的目的就是将这个残差压到越低越好,因为越低代表越接近正确的结果,模型不断训练。计算残差,在不断调整将残差降低,直到训练结束。
所以来看一下Yolo v1的残差计算公式:
最後再来介绍一下非极大值抑制(Non Maximum Suppression, NMS),
这个东西是为了解决当一些物体被2个或以上的网格中的物件框给选中时,到底该用哪个物件框,首先将所有物件框的置信度计算出来,并选择置信度最高的物件框,拿他和其他的物件框计算IOU,如果重合程度到一定程度,便将该物件框移除。
以上便是Yolo v1的介绍,有说不清楚或编排的地方以後会再来修改:)。
<<: Lektion 28. 可拆式动词・动词可以拆 Trennbare Verben
>>: Day26影片教学:Azure小白如何使用Azure Container Registry异地复写建立多份Container Image
目的 亲代物件负责架构,实作细节则交给继承的子代物件负责。 说明 试想一个情境,物件内某个方法的实作...
今天,我们先来看看阶乘要怎麽写~ 我的程序码长这样: #include<stdio.h>...
Q1. Two-pointer 是什麽? 我个人认为双指标 ( Two-pointer ) 比较像写...
此系列文章会同步发文到个人部落格,有兴趣的读者可以前往观看喔。 当网站有 to-do list 时...
此CNN非彼CNN 卷积神经网路 (Convolutional Neural Network),通...