





|
Deep transductive nonnegative matrix factorization for speech separation
| 提出了一种基于上述 Deep NMF 基本框架的深度转导 NMF 模型(DTNMF) 学习了一个关于每个说话者的源信号的共享字典,用于分离单通道语音信号的混合。 |
|
Deep non-negative matrix factorization architecture based on underlying basis images learning,
A deep orthogonal non-negative matrix factorization
method for learning attribute representations,
| 不分解特征矩阵H,分解基础矩阵W |
第一阶段(单层NMF):交替最小二乘法(ANLS)
第二阶段(精调):近似更新准则
将损失函数重写成:

其中![]()
是单位矩阵
通过选择梯度的非负方向来更新
和
计算梯度
采用适当的步长,微调阶段第 i 层的更新规则为(虽然我不清楚这是怎么推出来的。。。)

优点:计算复杂度低
缺点:收敛速度慢、会调入局部最优点
在W和H上加入约束条件

稀疏约束广泛用于单层约束 NMF 问题。 这种限制条件有助于提高分解的唯一性。
| l1范数+NMF | Non-negative sparse coding |
| l2范数+NMF | Improving molecular cancer class discovery through sparse non-negative matrix factorization |
|
Regression shrinkage and selection via the lasso: a retrospective
证明二次项可能导致矩阵的值减小但不稀疏。 换句话说,基于 l1-norm 的稀疏约束模型比基于 l2-norm 的模型更有效。 | |
| l1范数+DNMF |
Sparsity-constrained deep nonnegative matrix factorization for hyperspectral unmixing
对每个特征矩阵Hi进行L1番薯约束 |
| l1/2范数+DNMF | l1-norm 的一个缺点是它不满足完全可加性
Hyperspectral unmixing using sparsity-constrained deep nonnegative matrix factorization with total variation
|
|
Spectral unmixing of hyperspectral imagery using multilayer nmf
|
)
)

| 对W和H同时进行正交处理 |
Orthogonal nonnegative matrix tri-factorizations for clustering
提出了ONMF |
| 近似正交 NMF | 有的时候一个样本不一定只属于一个cluster,严格正交是不对的
Two effificient algorithms for approximately orthogonal nonnegative matrix factorization,
提出了ANOMF |
|
DONMF
|
A deep orthogonal non-negative matrix factorization method for learning attribute representations
DONMF 的目的是进一步分解 W,为 ONMF 或 AONMF 配备深度架构,使 ONMF 能够: (1)自动学习潜在的属性层次结构; (2) 基于高级抽象,找到更适合聚类分析的数据表示。
|
NMF算法是一种无监督学习方法。 因此,可以在分类设置中将判别信息添加到 NMF 方法中
| Fisher 判别限制+NMF |
Weighted fifisher non-negative matrix factorization for face recognition
Fisher non-negative matrix factorization for learning local features
正则项是由类内分布和类间分布表示
|
| 自监督NMF |
Facial expression recognition based on graph-preserving sparse non-negative matrix factorization,
约束非负矩阵分解(CNMF),获取部分数据标签信息并将其作为附加约束。 这种方法可以保证相同标签的数据映射到子空间中的同一个类。 |
局部不变性 :从高维空间映射到低维空间后可以保留几何特征信息
| NMF+图拉普拉斯 |
Graph laplacians and their convergence on random neighborhood graphs
Weighted graph laplacians and isoperimetric inequalities
|
|
Graph regularized Multi-layer Concept Factorization (GMCF)
|
Graph regularized multilayer concept factorization for data representation,
使用Concept Factorization
|
| GCMF+L 1/2范数 |
Deep convex nmf for image clustering
|
| GMCF只计算两个顶点之间的距离,不能充分利用数据点之间的高阶关系。 GMCF 只保留数据的局部结构,同时忽略特征的几何形状。 为了解决这些问题,Semi-supervised graph regularized deep nmf with bi-orthogonal constraints for data representation, 提出了一种新的半监督深度学习算法SGDNMF。 SGDNMF它在每一层都应用了双超图拉普拉斯正则化,而不是以前文献中使用的常见图拉普拉斯。 目标函数是 |
提出了deep non-smooth NMF(dns NMF)