1. 监督式学习
2. 非监督式学习
3. 集成学习
常见的回归系数估计方法:
最常见的是普通最小平方法(Ordinary Least Squares, OLS)
当为多元回归分析时(X1,X2,.....,Xn),需挑选适合的自变数X,分为三种方法:
较常使用-逐步挑选(stepwise)
四大假设:
优点:
缺点:
确认线性回归有over-fitting问题,再试试看"正规化回归"。
LASSO Regression:
岭回归(Ridge Regression):
弹性网罩模型(elastic nets):
参考资料:
说明:
建立二元类别机率值之胜率比,後对数值的线性分类模型,罗吉斯回归的依变项(Y)主要为二元的类别变项(亦即是或否,0或1),罗吉斯回归的自变项(X),可以是离散变数,也可以是连续变数。
参考资料:
为非线性分类模型。
基本假设:
优点:
缺点:
参考网址:
说明:
优点:
缺点:
参考资料:
说明:
优点:
缺点:
参考资料:
说明:
优点:
缺点:
专有名词:
输入层(Input Layer):
输出层(Output Layer):
隐藏层(hidden Layer):
神经元(或称感知器,Neuron):
激活函数(activation function):
损失函数(loss function):
正向传播(forward propagation):
反向传播(back propagation):
架构及运行方式:
优点:
缺点:
参考资料:
说明:
优点:
缺点:
参考资料:
说明:
衡量准则:
支持度(support):计算品项集合在整个交易资料库出现的次数比,介於[0, 1],说明规则的统计显着性。
信心度(confidence):利用支持度取出集合後,排列所有可能後挑出高信心度即为关联规则。比如支持度挑出{A, B}两品项,其可能规则包含{A} ⇒ {B}或{B} ⇒ {A}。{A}⇒{B}的信心度=P(B|A)=买A的人有多少个AB都买,说明规则的强度。
增益率:说明项集{A}和项集{B}之间的独立性,公式为"AB共同出现次数/A和B单独出现次数",若Lift=1说明{A}和{B}相互独立,说明两个条件没有任何关联。如果Lift<1,说明两个事件是互斥的。一般认为Lift>3才是有价值的规则。
参考资料:
说明:
优点:
缺点:
参考资料:
说明:
方法:
模型:
优点:
参考资料:
说明:
模型:
AdaBoost:
是一种Boosting分类算法。
一般用於类别二分。
方法:
GDBT(Gradient descent + Boosting):
核心是CART回归树。
引进残差的概念。
与随机森林差异在於:
与Adaboost不同在於:
参考资料:
说明:
参考资料:
<<: [Day11] [笔记]React Hooks - UseRef
>>: [2021铁人赛 Day11] General Skills 08
之前都是教Python内建的函式,今天就要升级罗~今天要教到的是模组,模组跟函式一样都是可以自己创造...
这次想要介绍的部分是 Audio message,它跟 Image message 一样可以透过li...
甚麽是立即函数? IIFE (Immediately Invoked Function Expres...
缓存对於服务器的好处,在於使用者会将数据加载到内存,减少了对资料库的访问 终端输入 python m...
前言 昨天分享了冰山理论,今天接着谈「焦点讨论法 | ORID」,并在後半延伸至引导学(Facili...