《機器學習基礎》組隊學習打卡1

2021-10-05 07:43:44 字數 880 閱讀 6723

本節內容:線性回歸的概念¶

主要學習以下5個方面:

1、線性回歸的一般形式:

有資料集 ,其中, ??=(??1;??2;??3;…;???),??∈?

其中n表示變數的數量,d表示每個變數的維度。

2、線性回歸損失函式、代價函式、目標函式

損失函式(loss function):度量單樣本**的錯誤程度,損失函式值越小,模型就越好。

代價函式(cost function):度量全部樣本集的平均誤差。

目標函式(object function):代價函式和正則化函式,最終要優化的函式。

常用的損失函式包括:0-1損失函式、平方損失函式、絕對損失函式、對數損失函式等;常用的代價函式包括均方誤差、均方根誤差、平均絕對誤差等。

3、線性回歸的優化方法:梯度下降法、牛頓法、擬牛頓法

4、線性回歸的評價指標:mse、rmse、mae、r2等

5、**實踐:

import numpy as np

from sklearn.linear_model import linearregression

import matplotlib.pyplot as plt

%matplotlib inline

lr = linearregression(fit_intercept=true)

lr.fit(x,y)

print(「估計的引數值為:%s」 %(lr.coef_))

print(『r2:%s』 %(lr.score(x,y)))

x_test = np.array([2,4,5]).reshape(1,-1)

y_hat = lr.predict(x_test)

print(「**值為: %s」 %(y_hat))

《資料探勘》組隊學習打卡1

有幸在組隊最後時刻加入戰隊,開始一段新的學習旅程。目前已完成task1的學習,關於賽題理解部分,本賽題屬於比較簡單的基礎型專案,適合作為入門。檢視訓練 測試資料概況 import numpy as np import pandas as pd path data train data pd.read...

《機器學習基礎》組隊學習第二次打卡

一 學習內容 貝葉斯概率模型 二 知識點梳理 1.相關概念 生成模型 在概率統計理論中,生成模型是指能夠隨機生成觀測資料的模型,尤其是在給定某些隱含引數的條件下。它給觀測值和標註資料序列指定乙個聯合概率分布。在機器學習中,生成模型可以用來直接對資料建模 例如根據某個變數的概率密度函式進行資料取樣 也...

《機器學習基礎》組隊學習第三次打卡

概率模型有時候既含有觀測變數,又含有隱變數或潛在變數,如果概率模型的變數都是觀測變數,那麼給定資料,可以直接用極大似然估計法,或貝葉斯估計方法估計模型引數,但是當模型含有隱變數時,就不能簡單的使用這些方法,em演算法就是含有隱變數的概率模型引數的極大似然估計法,或極大後驗概率估計法 em演算法的乙個...