優達筆記 特徵縮放

2021-09-10 07:28:22 字數 1581 閱讀 6848

特徵縮放

特徵縮放這個名字聽起來很膩害的樣子,實際上它講了乙個非常淺顯的方法。

例如下面的cameront1身高5.9,體重175,他穿l號的衣服。

sarah體重115,身高5.2,她穿s號的衣服。

那麼有個人叫chris,他體重140,身高6.1,應該穿了l還是s呢?

我們可以合理的猜測一下,chris的身高6.1更接近cameron的5.9的身高,因此可以和他一樣穿l號的,當然你也可以有其他的猜測,例如根據體重

特徵縮放就講的這麼一回事,公式如下:

x'=\frac}-x_}
例如剛剛的中,我們的身高有[115,140,174],這裡的最大值是175,最小值是115,那麼140的縮放值就是

x_'=\frac≈0.417
這中做法的有好有壞:

好處:得到的值都是0~1之間的,很方便

壞處:如果存在異常值,那麼結果就很不可靠

在python中實踐特徵縮放

這個公式非常簡單,當然你也可以自己編寫**來計算,不過我們要用到的是sklearn文件中的函式,因為這樣子更懶~

開啟sklearn的minmaxscaler函式,會看到下面的**示例:

然後我們開啟python的終端來操作一下剛剛例子中的身高陣列[115,140,174]

>>

>

from sklearn.preprocessing import minmaxscaler

>>

>

import numpy

>>

> weights=numpy.array([[

115.],

[140.]

,[175.]]

)>>

> scaler=minmaxscaler(

)>>

> rescaled_weight=scaler.fit_transform(weights)

>>

> rescaled_weight

array([[

0.],

[0.41666667],

[1.]

])

需要注意的是【使用rbf核函式的svm】和【k-均值聚類】演算法都會收到【特徵縮放】的影響,而【決策樹】和【線性回歸】則不會受到影響你的是對作者莫大的支援哦~?

如果你想看其他的關於機器學習的一些知識,可以關注我的知乎專欄,我是乙個機器學習小白,初學者總會遇到各種各樣的困難,我會從初學者的角度把每乙個坑都給你仔仔細細的講明白咯~

特徵縮放 feature scaling

特徵縮放的一些方法 feature scaling 資料規範化 是資料探勘或機器學習常用到的步驟,這個步驟有時對演算法的效率和準確率都會產生巨大的影響。對精度的影響 這個步驟的必要性要依賴於資料特徵的特性,如果有 2特徵,並且不同特徵間的值變化範圍差異大,那就很有必要使用feature scalin...

特徵縮放(Feature Scaling)

1 最大最小值歸一化 min max normalization 將數值範圍縮放到 0,1 區間裡 2 均值歸一化 mean normalization 將數值範圍縮放到 1,1 區間裡,且資料的均值變為0 3 標準化 z值歸一化 standardization z scorenormalizati...

優達twitter 清理 優達學城的學習感想及優惠

2017年12月因一次偶然的機會,看到優達學城的課程。當時通過優惠碼 0c637434報名能有優惠 你們也可以使用拿優惠哦 就決定參加了優達學成的資料分析入門課程。資料分析入門課程學習的內容有四大課程還有一節輔修課程。四大課程分別是 第一節分別是資料分析相關的介紹,應用的行業。第二節是python入...