稀疏编码
From Ufldl
Line 1: | Line 1: | ||
- | |||
== 稀疏编码 == | == 稀疏编码 == | ||
Line 139: | Line 138: | ||
根据前面的的描述,稀疏编码是有一个明显的局限性的,这就是即使已经学习得到一组基向量,如果为了对新的数据样本进行“编码”,我们必须再次执行优化过程来得到所需的系数。这个显著的“实时”消耗意味着,即使是在测试中,实现稀疏编码也需要高昂的计算成本,尤其是与典型的前馈结构算法相比。 | 根据前面的的描述,稀疏编码是有一个明显的局限性的,这就是即使已经学习得到一组基向量,如果为了对新的数据样本进行“编码”,我们必须再次执行优化过程来得到所需的系数。这个显著的“实时”消耗意味着,即使是在测试中,实现稀疏编码也需要高昂的计算成本,尤其是与典型的前馈结构算法相比。 | ||
+ | |||
+ | |||
+ | |||
+ | ==中英文对照== | ||
+ | |||
+ | :稀疏编码 Sparse Coding | ||
+ | :无监督学习 unsupervised method | ||
+ | :超完备基 over-complete bases | ||
+ | :主成分分析 PCA | ||
+ | :稀疏性 sparsity | ||
+ | :退化 degeneracy | ||
+ | :代价函数 cost function | ||
+ | :重构项 reconstruction term | ||
+ | :稀疏惩罚项 sparsity penalty | ||
+ | :范式 norm | ||
+ | :生成模型 generative model | ||
+ | :线性叠加 linear superposition | ||
+ | :加性噪声 additive noise | ||
+ | :特征基向量 basis feature vectors | ||
+ | :经验分布函数 the empirical distribution | ||
+ | :KL 散度 KL divergence | ||
+ | :对数似然函数 the log-likelihood | ||
+ | :高斯白噪音 Gaussian white noise | ||
+ | :先验分布 the prior distribution | ||
+ | :先验概率 prior probability | ||
+ | :源特征 source features | ||
+ | :能量函数 the energy function | ||
+ | :正则化 regularized | ||
+ | :最小二乘法 least squares | ||
+ | :凸优化软件convex optimization software | ||
+ | :共轭梯度法 conjugate gradient methods | ||
+ | :二次约束 quadratic constraints | ||
+ | :拉格朗日对偶函数 the Lagrange dual | ||
+ | :前馈结构算法 feedforward architectures | ||
Line 144: | Line 177: | ||
柳翠寅(liucuiyin@163.com),林锋(xlfg@yeah.net),王方(fangkey@gmail.com) | 柳翠寅(liucuiyin@163.com),林锋(xlfg@yeah.net),王方(fangkey@gmail.com) | ||
+ | |||
+ | |||
+ | |||
+ | {{Languages|Sparse_Coding|English}} |