李巨集毅機器學習 1 回歸

2022-09-10 20:57:21 字數 343 閱讀 5427

案例學習:**寶可夢的cp值

step 2: goodness of function

step3: best function

\(w^1=w^0-\eta \frac|_\)

多次迭代直到達到極小值

對於有多個引數的模型,將微分改為偏微分,分別更新每個引數,以兩個引數\(w\)和\(b\)為例:

存在的問題

saddle point

local minima

我們真正關心的是模型在測試集上的表現,而不是訓練集

選擇不同複雜程度的模型

overfitting的另一種解決方法:正則化 regularization

李巨集毅機器學習 回歸 讀書筆記

大二小白,剛剛接觸機器學習。如果有任何問題,希望各位批評指正。互相關注,共同進步呀。stochastic gradient descent 隨機梯度下降演算法 feature scaling 特徵縮放 arg min l loss function parameters 在上節課說道,我們在得出最後...

李巨集毅機器學習之邏輯回歸筆記

x 和 w 都是向量,可以從樸素貝葉斯推出來這個公式 假設每個樣本都是基於 f x p left c mid x right 該函式,所以可以得到訓練資料的可能性函式,使之最大的引數就是最好的引數。將函式取log,並且轉化為求最小值的問題,將c1,c2換為取值為0,1的y1,y2 經過轉換得到兩個變...

李巨集毅 機器學習HW1

這是乙個線性回歸的例子,先讀取資料,將b整合到w中 import numpy as np import csv import pandas as pd f open r c users lenovo desktop hw1 train.csv data list csv.reader f index...