主成分分析
https://zh.wikipedia.org/zh-tw/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90
python_主成分分析(PCA)降維
https://www.itread01.com/content/1548307290.html
PCA降維的原理、方法、以及python實現
用Python (scikit-learn) 做PCA分析
https://zhuanlan.zhihu.com/p/144193861
機器學習 - 降維 - PCA主成分分析
機器學習(6)--主成分分析(Principal component analysis,PCA)
https://arbu00.blogspot.com/2017/02/6-principal-component-analysispca.html
三種方法實現PCA演算法(Python)
https://www.itread01.com/content/1547582056.html
Day18-Scikit-learn介紹(10)_ Principal Component Analysis
https://ithelp.ithome.com.tw/articles/10206243
數據降維: 主成分分析(PCA)與NIPALS演算法數學原理
https://zhuanlan.zhihu.com/p/59803328
關於主元件分析函數
淺談降維方法中的 PCA 與 t-SNE
主成分分析(Principle Component Analysis,PCA),是一種多變數統計分析方法,也是資料降維和視覺化的常用方法。PCA的原理是將原矩陣投影到一個新的正交坐標系下,且通過依次選擇新坐標軸的方向,使得矩陣在新坐標軸上的投影(主成分的樣本值)的方差最大。PCA模型有多種方式可以推導,現介紹其中三種:特徵分解,奇異值分解,非線性反覆運算偏最小二乘法(NIPALS)。
在許多數據集中,可使用 SVD 函數計算分數與影響力,但一般不建議此方式:
• 若是使用奇異值分解 (SVD),則必須計算所有分數,即使不需要較高的分數亦然。由於 SVD 是大型且非常冗長的數據集,因此運算會沒有效率且可能失敗。
• SVD 函數要求數據矩陣的欄數要大於列數。若是量測多於變數,則會產生問題。
• NIPALS (非線性疊代偏最小平方法,Nonlinear Iterative Partial Least Squares) 演算法會反覆計算分數與影響力,因此避免這些問題。它不僅在數值上很穩定,且可用於任何大小的數據集。其僅會計算所需數目的主元件。
#PCA, NIPALS, SVD, 特徵值, 降維, 主成分分析
留言
張貼留言