更新于 2017年5月2日 机器学习
爱可可-爱生活   网页版 2017-05-01 06:32
资源 PDF 教育网站 矩阵
【价值250亿美元的特征向量:Google背后的线性代数】《The $25,000,000,000 eigenvector: The linear algebra behind Google》K Bryan, T Leise (2006)

functicons 网页版 转发于2017-05-01 06:46
The weights of the web pages is the eigenvector of the link matrix. This is mathematically simple and beautiful, the real challenge is the scale of the matrix: 10B * 10B, but because it’s sparse, the real scale is 10B * c.