[資訊] 資料降維: PCA

主成分分析

https://zh.wikipedia.org/zh-tw/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90


python_主成分分析(PCA)降維

https://www.itread01.com/content/1548307290.html


PCA降維的原理、方法、以及python實現

https://www.3chy.com.tw/3c%E8%B3%87%E8%A8%8A/pca%E9%99%8D%E7%B6%AD%E7%9A%84%E5%8E%9F%E7%90%86%E3%80%81%E6%96%B9%E6%B3%95%E3%80%81%E4%BB%A5%E5%8F%8Apython%E5%AF%A6%E7%8F%BE%E3%80%82/


用Python (scikit-learn) 做PCA分析

https://zhuanlan.zhihu.com/p/144193861


機器學習 - 降維 - PCA主成分分析

https://jimmy-huang.medium.com/%E6%A9%9F%E5%99%A8%E5%AD%B8%E7%BF%92-%E9%99%8D%E7%B6%AD-pca%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90-9cc4ebcceb6


機器學習(6)--主成分分析(Principal component analysis,PCA)

https://arbu00.blogspot.com/2017/02/6-principal-component-analysispca.html


三種方法實現PCA演算法(Python)

https://www.itread01.com/content/1547582056.html


Day18-Scikit-learn介紹(10)_ Principal Component Analysis

https://ithelp.ithome.com.tw/articles/10206243


數據降維: 主成分分析(PCA)與NIPALS演算法數學原理

https://zhuanlan.zhihu.com/p/59803328


關於主元件分析函數

https://support.ptc.com/help/mathcad/r7.0/zh_TW/index.html#page/PTC_Mathcad_Help/about_principal_component_analysis_functions.html


淺談降維方法中的 PCA 與 t-SNE

https://medium.com/d-d-mag/%E6%B7%BA%E8%AB%87%E5%85%A9%E7%A8%AE%E9%99%8D%E7%B6%AD%E6%96%B9%E6%B3%95-pca-%E8%88%87-t-sne-d4254916925b



主成分分析(Principle Component Analysis,PCA),是一種多變數統計分析方法,也是資料降維和視覺化的常用方法。PCA的原理是將原矩陣投影到一個新的正交坐標系下,且通過依次選擇新坐標軸的方向,使得矩陣在新坐標軸上的投影(主成分的樣本值)的方差最大。PCA模型有多種方式可以推導,現介紹其中三種:特徵分解,奇異值分解,非線性反覆運算偏最小二乘法(NIPALS)。


在許多數據集中,可使用 SVD 函數計算分數與影響力,但一般不建議此方式:

• 若是使用奇異值分解 (SVD),則必須計算所有分數,即使不需要較高的分數亦然。由於 SVD 是大型且非常冗長的數據集,因此運算會沒有效率且可能失敗。

• SVD 函數要求數據矩陣的欄數要大於列數。若是量測多於變數,則會產生問題。

• NIPALS (非線性疊代偏最小平方法,Nonlinear Iterative Partial Least Squares) 演算法會反覆計算分數與影響力,因此避免這些問題。它不僅在數值上很穩定,且可用於任何大小的數據集。其僅會計算所需數目的主元件。



#PCA, NIPALS, SVD, 特徵值, 降維, 主成分分析


留言