Ch05

ZhuYuanxiang 2020-10-12 18:15:39
Categories: Tags:

C05. 神经网络

5.1 神经元模型

神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。[^Kohonen,1988]

5.2 感知机与多层网络

感知机(Perceptron)由两层神经元组成,输入层接收外界的输入信号后传递给输出层,输出层是M-P神经元,亦称「阈值逻辑单元」(threshold logic unit)

两层感知机模型

多层前馈神经网络(Multi-Layer Feedforward Neural Networks)

5.3 误差逆传播算法

误差逆传播(Error BackPropagation),亦称反向传播算法,或者简称为BP算法。算法不仅可以用于训练多层前馈神经网络,还可以用于训练其他网络模型。

5.4 全局最小与局部最小

全局最小(Global Minimum):参数空间中所有点的误差函数值均不小于全局最小点的误差函数值

局部最小(Local Minimum):参数空间中某个点的领域点的误差函数值均不小于这个局部最小点的误差函数值

跳出局部最小点的方法:这些方法都是启发式,没有理论保障

5.5 其他常见神经网络

5.5.1 RBF网络

径向基函数网络(Radial Basis Function, RBF):是单隐层前馈神经网络,使用径向基函数作为隐层神经元的激活函数,输出层则是对隐层神经元输出的线性组合。
$$
\phi(\pmb{x})=\sum_{i=1}^q w_i\rho(\pmb{x}_i,\pmb{c}i)=\sum{i=1}^q w_i\exp{-\beta_i\Vert\pmb{x}-\pmb{c}_i\Vert^2}
$$
训练RBF网络

5.5.2 ART网络

竞争型学习(Competitive Learning)是无监督学习策略,网络的输出神经元相互竞争,每一时刻仅有一个竞争获胜的神经元被激活,其他神经元的状态被抑制。这种机制亦称为「胜者通吃」(winner-take-all)原则。

自适应谐振理论(Adaptive Resonance Theory, ART)网络是竞争型学习的重要代表。该网络由比较层、识别层、识别阈值和重置模块构成

ART模型的特点

5.5.3 SOM网络

自组织映射(Self-Organizing Map, SOM)网络是一种竞争学习型的无监督神经网络。能够将高维输入数据映射到低维空间,同时保持输入数据在高维空间的拓扑结构,即将高维空间中相似的样本点映射到网络输出层中的邻近神经元。

5.5.4 级联相关网络

级联相关(Cascade-Corrrelation)网络是一种结构自适应网络,将网络的结构作为学习的目标之一,希望通过训练过程找到最符合数据特点的网络结构

5.5.5 Elman网络

Elman网络是最常用的递归神经网络,网络中存在环形结构,将某些神经元的输出反馈回来作为输入信号的一部分,从而学习与时间相关的动态变化。

5.5.6 Boltzmann机

Boltzmann机是一种「基于能量的模型」(energy-based model)

5.6 深度学习

模型的参数越多,则复杂度越高,「容量」越大,训练效率也越低,并且容易过拟合,或者「发散」而不能收敛到稳定状态。

深度学习的方法

深度学习的多隐层堆叠,是在对输入信号进行逐层加工,逐渐将初始的「低层」特征表示转化为「高层」特征表示,然后用「简单模型」完成复杂的分类学习任务,即深度学习就是「特征学习」(feature learning)或者「表示学习」(representation learning)