線性回歸 和 邏輯回歸

2021-10-05 15:27:34 字數 1958 閱讀 6196

跟著b站乙個小姐姐學的 很不錯

1: 什麼是回歸 什麼是分類?

簡單來說一般回歸問題在數值上是乙個連續的 而分類問題在數值上一般是離散型的

回歸:回歸模型的更傾向於很小的區域 或者是乙個x對應乙個y

線性回歸就不在討論了 這裡學習一下 邏輯回歸

邏輯回歸 聽起來是回歸 但實際上他是解決分類問題的 是乙個分類模型 其思想也是基於線性回歸 屬於廣義的線性回歸模型

logistic regression演算法是將線性函式的結果對映到了sigmoid函式中

那麼邏輯回歸為何說是乙個分類演算法呢 請看sigmoid函式的影象

這個函式的自變數的取值範圍可以在-00 到 +00  函式值在(0-1)之間取值   當線性回歸的結果對映到sigmoid函式中 來本的回歸問題自然也就成了分類問題了  我們可以這樣來看 當函式值大於0.5的時候 認為這時候的x是乙個正的分類 小於0.5的時候x是負分類 這樣講回歸的問題就轉換成了分類問題

線性回歸是回歸問題 邏輯回歸是分類問題 要明確!!! 線性變換 非線性對映

以前感覺高數很牛 後來線代很厲害 現在發現 概率論才是王牌啊 三者合一 王炸無敵啊 !!!!!

這裡簡明的說一下 為什麼要對odds取對數  目的就是為了把他的值域擴充套件到整個實數集範圍內 logit(p)在實數集範圍呢  同樣 線性回歸模型也在實數集範圍呢 所以一定可以用後者來表示前者  就是上面中的那個公式  推導在下面的中非常完整  這樣就盡情展示了 從線性回歸模型 是如何到 邏輯回歸的  這樣理解起來相對容易 透徹一些

#下面隨便畫一下sigmoid函式的影象 有乙個更加直觀的認識

import numpy as np

import matplotlib.pyplot as plt

import math

#math.exp(10) # e^10

def

sigmoid

(x):

return1/

(1+math.exp(

-x))

z = np.arange(-5

,5,0.001

)#注意pyton中for迴圈的這種用法

y =[sigmoid(i)

for i in z]

#引數lw 是決定線粗

plt.plot(z,y,color =

'red'

,lw =2)

plt.axhline(y=

0,lw =

2,label =

"y = 0"

,color =

'blue'

)plt.axhline(y =

1,lw =

2,label =

"y = 1"

,color=

"blue"

)#顯示出格仔

plt.grid(

)#這句話就是放上你的標籤

線性回歸和邏輯回歸

最近開始學習機器學習,有點心得體會,記錄一下,希望大家批評指正 監督學習 supervised learning 根據已有的資料集,知道輸入和輸出結果之間的關係。根據這種已知的關係,訓練得到乙個最優的模型。也就是說,在監督學習中訓練資料既有特徵 feature 又有標籤 label 通過訓練,讓機器...

Coursera 線性回歸和邏輯回歸

在原式子裡加入乙個 error term 之後得到這個 error tem 的正態分佈,從而到處輸出y和x 之間的概率關係。然後通過最大似然估計法,得到若要使得y的概率最大,等價於利用最小二乘法最小化 引數 的數量隨著訓練資料的增大而變多,但是當訓練資料量巨大的時候,每次 所需要的代價都很高。原訓練...

線性回歸, 邏輯回歸和線性分類器

線性回歸,linear regression 邏輯回歸,logistic regression 線性分類器,linear classifier 邏輯分類器,logistic classifier.注意,這個名詞是我在文章中為了方便說明問題造出來的.線性回歸可以看作乙個perceptron,啟用函式是...