機器學習 分類和回歸

2022-03-29 09:27:32 字數 1504 閱讀 9011

1.機器學習的主要任務:

一是將例項資料劃分到合適的分類中,即分類問題。 而是是回歸, 它主要用於**數值型資料,典型的回歸例子:資料擬合曲線。

2.監督學習和無監督學習:

分類和回歸屬於監督學習,之所以稱之為監督學習,是因為這類演算法必須直到**什麼,即目標變數的分類資訊

對於無監督學習,此時資料沒有類別資訊,也不會給定目標值。在無監督學習中,將資料集合分成由類似的物件組成的多個類的過程被成為聚類;將尋找描述資料統計值的過程稱之為密度估計。此外,無監督學習還可以減少資料特徵的維度,以便我們可以使用二維或者三維圖形更加直觀地展示資料資訊。

3.線性回歸和非線性回歸

線性回歸需要乙個線性模型。乙個線性的模型意味著模型的每一項要麼是乙個常數,要麼是乙個常數和乙個**變數的乘積。乙個線性等式等於每一項相加的和。等式:

response = constant + parameter * predictor + ... + parameter * predictor  <=>  y = bo + b1x1 + b2x2 + ... + bkxk

在統計學中,如果乙個回歸方程是線性的,那麼它的引數必須是線性的。但是可以轉換**變數加上平方,來使得模型產生曲線,比如 y = bo + b1x1 + b2x1

2這時模型仍然是線性的,雖然**變數帶有平方。當然加上log或者反函式也是可以的。

另外可以參考的博文:khan公開課 - 統計學學習筆記:(九)線性回歸公式,決定係數和協方差

線性回歸等式有乙個基本的形式,而非線性回歸提供了許多靈活的曲線擬合方程。以下是幾個matlab中的典型非線性方程例子。

非線性函式的乙個例子就是高階多項式(即多項式階數p>1):g = ao + a1x + a2x^2+ ... + akx^k。其他型別的非線性函式可通過泰勒展開用多項式逼近表示。函式g在x0處的線性近似為g(x0)+g'(x0)(x-x0)。

機器學習 回歸和分類的區別

回歸與分類的不同 分類和回歸的區別在於輸出變數的型別。定量輸出稱為回歸,或者說是連續變數 定性輸出稱為分類,或者說是離散變數 舉個例子 明天的氣溫是多少度,這是乙個回歸任務 明天是陰 晴還是雨,就是乙個分類任務。1.回歸問題的應用場景 的結果是連續的,例如 明天的溫度,23,24,25度 回歸問題通...

機器學習 分類與回歸

連續變數 定性輸出稱為分類,或者說是 離散變數 回歸問題通常是用來 乙個值 如 房價 未來的天氣情況等等,例如乙個產品的實際 為500元,通過回歸分析 值為499元,我們認為這是乙個比較好的回歸分析。乙個比較常見的回歸演算法是線性回歸演算法 lr 另外,回歸分析用在神經網路上,其最上層是不需要加上s...

機器學習 K NN分類 回歸

k近鄰 從字面上理解,就是 近朱者赤,近墨者黑。和誰離得近和誰歸為一類。1 演算法原理 1 計算測試資料與各個訓練資料之間的距離,方法 閔可夫斯基距離 2 按照距離的遞增順序排序 3 選取距離最小的k個點 4 確定前k個點所在類別的出現頻率 即為各個類別出現次數 5 返回前k個點所在類別的出現頻率,...