栈式自编码算法
From Ufldl
(→Discussion) |
(→Discussion) |
||
Line 179: | Line 179: | ||
栈式自编码神经网络具有任何有着强大表示能力的深度神经网络的所有优点。 | 栈式自编码神经网络具有任何有着强大表示能力的深度神经网络的所有优点。 | ||
更进一步,它通常能够获取到输入的“层次型分组”或者“部分-整体分解”结构。为了弄清这一点,回顾一下,自编码器倾向于学习得到能更好地表示输入数据的特征。因此,栈式自编码神经网络的第一层会学习得到原始输入的一阶特征(比如图片里的边缘),第二层会学习得到二阶特征,其对应一阶特征的呈现模式(比如在构成轮廓或者角点时,什么样的边缘会共现)。栈式自编码神经网络的更高层还会学到更高阶的特征。 | 更进一步,它通常能够获取到输入的“层次型分组”或者“部分-整体分解”结构。为了弄清这一点,回顾一下,自编码器倾向于学习得到能更好地表示输入数据的特征。因此,栈式自编码神经网络的第一层会学习得到原始输入的一阶特征(比如图片里的边缘),第二层会学习得到二阶特征,其对应一阶特征的呈现模式(比如在构成轮廓或者角点时,什么样的边缘会共现)。栈式自编码神经网络的更高层还会学到更高阶的特征。 | ||
+ | |||
+ | 中英对照: | ||
+ | |||
+ | 【初译】 | ||
+ | 无 | ||
+ | |||
+ | 【一审】 | ||
+ | 自编码器(Autoencoder) | ||
+ | 预训练(PreTrain) | ||
+ | 栈式自编码神经网络(stacked autoencoder) | ||
+ | 微调(fine-tuning) | ||
+ | 原始输入(raw inputs) | ||
+ | 层次型分组(hierarchical grouping) | ||
+ | 部分-整体分解(part-whole decomposition) | ||
+ | 一阶特征(first-order features) | ||
+ | 二阶特征(second-order features) | ||
+ | 更高阶特征(higher-order features) | ||