Regression-PPT

ZhuYuanxiang 2020-10-12 18:15:39
Categories: Tags:

回归问题

学习提纲

线性无噪声模型

一元回归:学习框架

多元回归:学习框架

线性有噪声模型

一元:有噪声模型:建模

多元:有噪声模型:建模

函数建模:学习框架

::: notes

最小二乘问题:在不同的模型中代价函数会有不同。使用的思想都是平方误差函数。

计算条件:代价函数 J ( w ) 连续可微。

:::

一元:平方和误差函数:多元函数极值

多元:平方和误差函数:多元函数极值

正则化平方和误差函数:多元函数极值

::: notes

机器学习:称之为权值衰减

统计学习:称之为 参数收缩

正则化方法通过限制模型的复杂度,避免复杂的模型在有限的数据集上训练时产生过拟合问题。

使得确定最优模型复杂度的问题从确定合适的基函数数量问题转移到确定正则化系数 λ 的值问题。

:::

一元:最速梯度下降

多元:最速梯度下降

一元:最小均方误差 / 随机梯度下降

::: notes

没有 阈值 作为停止条件,是因为每次只使用其中一个值,而每个值带来的迭代步长是随机的,
因此不能基于 阈值 来判断是否可以停止,而应该基于 迭代次数 来决定。
:::

多元:最小均方误差 / 随机梯度下降

梯度下降算法对比

::: notes

随机梯度下降:极小化代价函数的瞬时值

随机梯度下降收敛性:随机过程中的随机游走 ( 布朗运动 ),收敛于渐近稳定的不动点

:::

概率建模:学习框架

::: notes

训练样本存在相关性,就需要更加复杂的随机过程去构建模型。

因为高斯分布的概率密度函数计算方便,如果是其他概率密度函数就需要考虑其他的方法来计算了。

参数如果是变化的,那么就需要在线学习,也称自适应算法。

与 Markov 过程 和 朴素贝叶斯分类 的区别

:::

最大似然估计

::: notes

增强对 平方误差函数 的理解

:::

偏差——方差分解

注:偏差——方差分解属于频率论的角度,依赖于对所有的数据集求平均。[^Bishop,2006] Sec.3.2. [^Duda,2003] Sec.9.3.

最大后验估计

::: notes

增强对 正则化平方误差函数 的理解

:::

线性基函数模型

线性基函数建模

基函数的选择

::: notes

可以把多项式基函数模型看作线性模型的数据经过非线性特征变换,变换后的特征线性无关。

可以把 Fourier 基函数模型看作线性模型的数据经过非线性特征变换,变换后的特征规范正交。

:::

函数建模:学习框架

平方和误差函数:多元函数极值

正则化平方和误差函数:多元函数极值

基函数:最大似然估计

基函数:最大后验估计

广义线性模型

一元回归:广义线性模型