跳转至

限制估计的种类

1 粗糙度惩罚和贝叶斯方法

  • 由显式的惩罚 以及粗糙度惩罚控制的函数类别

  • 举例:三次光滑样条 这里的粗糙惩罚控制了 的二阶微分较大的值,而且惩罚的程度由 来决定。 表示没有惩罚,则可以使用任意插值函数,仅仅允许关于 的线性函数。

  • 举例:可加性函数 可加性惩罚与可加性函数 联合使用去构造可加的光滑坐标函数的模型

  • 举例:投影映射回归 (Projection Pursuit Regression),见投影映射回归 其中 为自适应选择的方向,每个函数 有对应的粗糙惩罚 (?)。

  • 惩罚函数,或者说 正则 (regularization) 方法,表达了我们的 先验信仰 (prior belief)。寻找具有一个特定类型的光滑行为函数类型,而且确实可以套进贝叶斯的模型中.惩罚 对应先验概率, 为后验分布,最小化 意味着寻找后验模式

2 核方法和局部回归

  • 概念:通过确定局部邻域的本质来显式给出回归函数的估计或条件期望,并且属于局部拟合得很好的规则函数类,可视为k近邻算法(K-Nearest Neighbour, KNN)的推广。

  • 在这个算法中,我们给预测点附近的每个点赋予一定的权重,然后与线性回归类似,在这个子集上基于最小均方误差来进行普通的回归

  • 类似于KNN每次预测都需要实现选出对应的数据子集,本算法使用使用“核”来对附近的点赋予更高的权重,其中就是核函数(kernel function),类如常用的高斯核:

  • 例如:Nadaraya-Watson 回归,核估计的最简单形式,此时的形式是

  • 例如:局部加权线性回归 (Locally Weighted Linear Regression,LWLR),此时的形式为,利用加权线性最小二乘法求解

  • 例如:k-近邻方法,此时核函数可以看作 (: 距离近的点,: 集合的指标函数)

3 基函数和字典方法

  • 线性和多项式展开式或者多种多样的更灵活的模型。这些关于 的模型是基本函数的线性展开 其中每个 是输入 的函数,并且其中的线性项与参数 的行为有关

  • TODO:第6和11章进行补充