簡單的回歸分析

2021-10-05 22:04:11 字數 1864 閱讀 1549

最近在看慕課上北大開的資料結構和演算法python版,老師講的深入淺出,我會不斷輸出課上的心得體會,與大家共同討論,共同進步。

回歸分析是一種用於資料分類的回歸模型。這個模型非常簡單,事實上,它是乙個線性分類器

無論如何,當你想要去探索你的資料的時候,這是乙個很好的出發點。

很容易程式設計,完全可以速成。且模型是解釋性的模型,也就是說模型將告訴你每個特性對因變數的影響。

綠色和藍色-正確的分類紅色-錯誤分類

首先,輸入的資料可以通過多項式特徵手動擴充套件,而邏輯回歸幾乎不需要對資料進行任何假設就可以成為非常有用的非線性分類器。

import numpy as np

from bokeh.plotting import figure, show, output_notebook

deflogistic_regression

(x, y, w, lr=

0.001

, steps=

1000):

m =len(y)

sigmoid =

lambda z:1/

(1+ np.exp(

-z))

for _ in

range

(steps)

:# prediction

hypothesis = sigmoid(x @ w)

# fix overflow & underflow

hypothesis = np.clip(hypothesis,1e-

5,1-

1e-5)

# loss function, gradient, training

loss =-1

/ m *

(y @ np.log(hypothesis)+(

1- y) @ np.log(

1- hypothesis)

) gradient =

1/ m *

(x.t @ (hypothesis - y)

) w -= lr * gradient

# current loss & prediction

return loss, sigmoid(x @ w)

測試:

n =

10000

# random values

x_, y_ = np.random.rand(

2, n)

# polynomial coefficients

x = np.c_[np.ones(n)

, x_, y_, x_ **

2, y_ **2]

# y: target values

y =(x_ -

.5<=

(y_ -.5)

**2)*

1# weights

w = np.zeros(

5)

for _ in

range(10

):loss, h = logistic_regression(x, y, w, lr=5.

, steps=

1000

)print

(loss)

print

('accuracy'

, np.mean(y == h.

round()

))print

('weights'

, w)

小劉學python,與你一起進步,一起走向技術大牛!

簡單的回歸

import numpy as np import matplotlib.pyplot as plt defgenerate data w,b x np.linspace 0,100,10000 y w x b return x,y defloss calculat w,b,x,y loss 0fo...

回歸分析中的「回歸」的理解

出自高爾頓種豆子的實驗,通過大量資料統計,他發現個體小的豆子往往傾向於產生比其更大的子代,而個體大的豆子則傾向於產生比其小的子代,然後高爾頓認為這是由於新個體在向這種豆子的平均尺寸 回歸 大概的意思就是事物總是傾向於朝著某種 平均 發展,也可以說是回歸於事物本來的面目 回歸這個詞應該是直譯過來的,題...

spss回歸分析 SPSS之回歸分析

spss之回歸分析專題課程目錄如下 1回歸分析如何解讀 2回歸分析實戰操作 3回歸分析如何判斷模型和變數具有統計學意義 詳情 閱讀原文 檢視吧!保準你收穫滿滿啊!部分結果截圖所示 至此你已經學會了利用spss之回歸分析專題全過程啦,趕快試試吧!一 python基礎與提高專題 二 3天玩轉爬蟲,爬取網...