Day 16: 人工神经网路初探 损失函数(上)

损失函数 Loss function

损失/误差函数(loss function)又叫做代价函数(cost function),是用来评估模型的预测值与真实值不一致的程度,也是神经网络中优化的目标函数,神经网络训练或者优化的过程就是最小化损失函数的过程,损失函数越小,说明模型的预测值就越接近真实值,模型的健壮性也就越好。

损失函数可以被大约分成三种类别:

  • 回归损失函数(Regression loss function) 通常使用於当我们想要训练模组去预测连续值结果,像是股票价位与房屋价位。
  • 二元分类损失函数 (Binary Classification) 通常使用於当我们想要训练模组去预测最大值的两个类别(classes),像是猫和狗或者癌症或非癌症。
  • 多元分类损失函数(Multi classification) 通常使用於当我们模组需要预测多於两个的类别,像是物件侦测。

Regression loss function

  • Mean squared error (MSE)
    何时使用: 这是Regression问题的默认误差函数,推荐使用於目标变数是普遍或者高斯型态的分布状态

  • Mean squared logarithmic error (MSLE)
    这个函数先计算预测值的对数值和计算MSE
    何时使用: 当目标变数具分散值和预测较大的值时,可能不希望惩罚模组像是MSE那麽严重。通常使用於你的模组在预测非刻度值时。

  • Mean absolute error loss
    将其计算为期望值与预测值之间的绝对差平均值。
    何时使用: 当目标变数是普遍分散和有些离群值时。

Binary Classification Loss function

  • Binary cross-entrpoy
    这是二元分类问题的预设损失函数,此函数优於其他函数。
    Cross-entropy计算了实数与预测第一类别机率分布的平均总和数,分数是被最小化的,且最好的值设定为零。
    何时使用: 当目标数值的范围在0到1之间。

  • Hinge loss
    这个函数备主要使用於支援向量机,基於二元分类。
    何时使用: 当目标数值的范围在-1到1之间。

  • Squared hinge loss
    此函数计算hinge loss的平方,平滑误差还数的表层,使其更容易使用在数值上。

参考资料:
https://kknews.cc/code/9opor8j.html


<<:  DAY 10-《区块密码2》AES(2)-密钥排程及安全性

>>:  Day09 - Gem-jwt 介绍与应用

乾卡住

第二天装好django 然後建立了第一个专案bb後 然後我按照影片教的执行 runserver 然後...

那些被忽略但很好用的 Web API / RequestIdleCallback

时间管力大师就是要忙里偷闲 各位应该知道 JavaScript 是单执行绪(单线程)的程序语言,也...

安全密码储存开发方法

开发和部署安全服务和应用程序需要与许多内部和外部系统整合,例如:身份验证和云端储存。 许多软件开发都...

Day42 ( 电子元件 ) OLED 绘制数学图形

OLED 绘制数学图形 教学原文参考:OLED 绘制数学图形 这篇文章会使用 micro:bit 连...

Day 12: 人工智慧在音乐领域的应用 (机器学习/深度学习与类神经网路三)

今天作为机器学习这系列的收尾,我们来聊聊深度学习与机器学习的差异,以及为什麽现今的机器学习/深度学习...