深度学习(花书)第十五章

ZhuYuanxiang 2021-11-18 00:00:00
Categories: Tags:

C15.Representation Learning

本章的目标

15.1 Greedy Layer-Wise Unsupervised Pretaining

贪心逐层无监督预训练(Greedy Layer-Wise Unsupervise Pretaining),简称无监督预训练。训练的深度监督网络中不含有特殊的网络结构(例如:卷积、循环)。预训练依赖于单层表示学习算法(例如:受限玻尔兹曼机、单层自编码器、稀疏编码模型或者其他学习潜在表示的模型)。每一层使用无监督学习预训练,将前一层的输出作为输入,输出数据的新的表示。这个新的表示的分布有可能是更加简单的。

贪心逐层无监督预训练是一个贪心算法,即逐层寻找最优表示,每次处理一层网络,训练第$k$次时保持前面的网络层的参数不变。低层的网络(最先训练)不会在引入高层的网络后进行调整。

贪心逐层监督预训练算法:基于浅层模型的训练比深度模型更容易

15.1.1 When and Why Does Unsupervised Pretaining Work?

贪心逐层无监督预训练的应用目标

无监督预训练的两个重要理念

无监督预训练效果分析

无监督预训练模型使用场合

无监督预训练的主要缺点:使用了两个单独的训练阶段

15.2 Transfer Learning and Domain Adaption

迁移学习和领域自适应指的是利用一个情景(分布$P_1$)中已经学到的内容去改善另一个情景(分布$P_2$)中的泛化情况。

表示学习

迁移学习的极端形式