本章是同学自己讲述,有些观点可能有些问题.
1: 没有免费的午餐: 对特定问题的先验认识的条件下, 没有最优的分类器.
2: 丑小鸭定理: 对特定问题的先验认识的条件下,没有最优的特征表达.
3: occam' razor: 杀鸡焉用牛刀? 小的剃须刀就可以了,干吗用电锯??? keep it simple,stupid. 简单就是美.
爱因斯坦:描述一个问题,解决一个问题,要尽可能的简单,但不要更简单.
杜达:长期的进化过程, 使我们自身的"模式识别仪器"面临强大的自然选择的压力---要求执行更简单的计算,需要更少的神经元,花费更短的时间,等等,导致我们的分类器趋向简单的方案.
沃伦.巴菲特:盖茨的成功不在于他做了什么,而在于他没做什么.
一个人要专注做一件事情,理想太多了, 变得没有理想了.
总之,我们的分类器要尽可能保持简单,因为,简单的通常是最有效的.这是经验!
4: 回归中的偏差和方差关系
4.1)
偏差小: 准确度高
方差小: 推广性好.
4.2)
曲线拟合的均方误差 = 偏差^2 + 方差. 与两者都有关系
5: 刀切法 和 自助法
由于现实中,获取样本往往是比较困难的,怎么充分的利用好手里的现有的样本???
刀切法: 降低样本中噪声的影响.每次统计模型的参数信息的时候, 去掉一部分样本.
自助法: 把样本分为多个独立的自助集.相当于多次重复里利用手里的样本.
6: bagging & boosting & 基于查询的学习
略去.
7:单个分割平面的能力
也就是说 线性分类面的能力???
一般位置: d维空间的点, 没有d+1个点落在d-1维子空间时,我们称这些点处于一般位置.
eg: d=1,一维空间的点. 如果没有2两个点落在0维子空间(也就是处在同一个点上.)
eg: d=2,2维空间的点. 如果没有3两个点落在1维子空间(也就是处在同一个线上.)
正是由于线性分类器的弱点,
---我们引入了非线性分类器 BP --- 改变分类面的线性关系为非线性
---我们引入了SVM --- 改变样本点的空间位置使之可以使用线性分类器.
一般位置: