跳转到内容

辛克宏定理

维基百科,自由的百科全书

辛克宏定理(英語:Sinkhorn's theorem)是线性代数中的一个定理,指所有元素为正的方块矩阵都可以写成一个正对角矩阵、一个双随机矩阵英语Doubly stochastic matrix与另一个正对角矩阵之积的形式。

定理

如果是所有元素都严格为正的矩阵,则存在元素严格为正的对角矩阵,使得是双随机矩阵,即每一行或列之和均为1。矩阵在前者乘以一个正数、后者除以相同正数的情况下是唯一的。[1][2]

辛克宏-诺普算法

一个逼近双随机矩阵的简单迭代方法是交替地缩放中所有行与列的比例,使其元素之和为1。辛克宏和诺普(Knopp)提出了该算法并分析了其收敛性。这一算法与调查统计学中的迭代比例拟合英语Iterative proportional fitting本质上相同。

扩展

酉矩阵中存在类似的结论:对于任意酉矩阵,都存在两个对角酉矩阵,使得的每一列和每一行的元素之和均为1。[3]

对矩阵间映射也有类似的扩展结论[4][5]:给定一个克劳斯(Kraus)算子表示将一个密度矩阵映射到另一个密度矩阵的量子操作,即

其满足迹不变

并且其范围在正定锥内部(严格正定)。在此条件下,存在正定的缩放因子),使得缩放后的克劳斯算子

是双随机的,即

其中表示恒等算子。

应用

2010年代,辛克宏定理开始被用于求解熵正则化的最优传输问题。[6]这一方法在机器学习领域引起了关注,因为由此得到的辛克宏距离(Sinkhorn distance)可用于评估数据分布之间的差异。[7][8][9]在一些最大似然训练效果不佳的情况下,这种方法可以改进机器学习算法的训练效果。

参考文献

  1. ^ Sinkhorn, Richard. (1964). "A relationship between arbitrary positive matrices and doubly stochastic matrices." Ann. Math. Statist. 35, 876–879. doi:10.1214/aoms/1177703591
  2. ^ Marshall, A.W., & Olkin, I. (1967). "Scaling of matrices to achieve specified row and column sums." Numerische Mathematik. 12(1), 83–90. doi:10.1007/BF02170999
  3. ^ Idel, Martin; Wolf, Michael M. Sinkhorn normal form for unitary matrices. Linear Algebra and Its Applications. 2015, 471: 76–84. S2CID 119175915. arXiv:1408.5728可免费查阅. doi:10.1016/j.laa.2014.12.031. 
  4. ^ Georgiou, Tryphon; Pavon, Michele. Positive contraction mappings for classical and quantum Schrödinger systems. Journal of Mathematical Physics. 2015, 56 (3): 033301–1–24. Bibcode:2015JMP....56c3301G. S2CID 119707158. arXiv:1405.6650可免费查阅. doi:10.1063/1.4915289. 
  5. ^ Gurvits, Leonid. Classical complexity and quantum entanglement. Journal of Computational Science. 2004, 69 (3): 448–484. doi:10.1016/j.jcss.2004.06.003可免费查阅. 
  6. ^ Cuturi, Marco. Sinkhorn distances: Lightspeed computation of optimal transport. Advances in neural information processing systems: 2292–2300. 2013. 
  7. ^ Mensch, Arthur; Blondel, Mathieu; Peyre, Gabriel. Geometric losses for distributional learning. Proc ICML 2019. 2019. arXiv:1905.06005可免费查阅. 
  8. ^ Mena, Gonzalo; Belanger, David; Munoz, Gonzalo; Snoek, Jasper. Sinkhorn networks: Using optimal transport techniques to learn permutations. NIPS Workshop in Optimal Transport and Machine Learning. 2017. 
  9. ^ Kogkalidis, Konstantinos; Moortgat, Michael; Moot, Richard. Neural Proof Nets. Proceedings of the 24th Conference on Computational Natural Language Learning. 2020.