微调多层自编码算法

From Ufldl

Jump to: navigation, search
Line 45: Line 45:
注:我们可以认为输出层softmax分类器是附加上的一层,但是其求导过程需要单独处理。具体地说,网络“最后一层”的特征会进入softmax分类器。所以,第二步中的导数由 <math>\delta^{(n_l)} = - (\nabla_{a^{n_l}}J) \bullet f'(z^{(n_l)})</math> 计算,其中 <math>\nabla J = \theta^T(I-P)</math>。
注:我们可以认为输出层softmax分类器是附加上的一层,但是其求导过程需要单独处理。具体地说,网络“最后一层”的特征会进入softmax分类器。所以,第二步中的导数由 <math>\delta^{(n_l)} = - (\nabla_{a^{n_l}}J) \bullet f'(z^{(n_l)})</math> 计算,其中 <math>\nabla J = \theta^T(I-P)</math>。
}}
}}
 +
 +
 +
{{CNN}}
==中英文对照==
==中英文对照==
-
stacked autoencoder 栈式自编码神经网络(可以考虑翻译为“多层自动编码机”或“多层自动编码神经网络”)
 
-
fine tuning 微调
+
:栈式自编码神经网络(可以考虑翻译为“多层自动编码机”或“多层自动编码神经网络”)    Stacked autoencoder
-
Backpropagation Algorithm 反向传播算法
+
:微调    Fine tuning
-
feedforward pass 前馈传递
+
:反向传播算法    Backpropagation Algorithm
-
activation 激活值 (可以考虑翻译为“激励响应”或“响应”)
+
:前馈传递    feedforward pass
 +
:激活值 (可以考虑翻译为“激励响应”或“响应”)    activation
==中文译者==
==中文译者==
-
初译:@太二真人 一审:@余凯_西二旗民工 终审:@JerryLead
+
 
 +
崔巍(watsoncui@gmail.com), 余凯(kai.yu.cool@gmail.com), 许利杰(csxulijie@gmail.com)

Revision as of 15:41, 5 April 2013

Personal tools