機器學習筆記P1 李巨集毅2019

2022-06-12 07:42:11 字數 2796 閱讀 4396

該部落格將介紹機器學習課程by李巨集毅的前兩個章節:概述和回歸。

視屏鏈結1-introduction

視屏鏈結2-regression

該課程將要介紹的內容如下所示:

從最左上角開始看:

regression(回歸):輸出的目標是乙個數值。如**明天的pm2.5數值。

接下來是classification(分類):該任務的目標是將資料歸為某一類,如進行貓狗分類。

在分類任務中,將涉及線性和非線性的模型。其中,非線性的模型包含了deep-learning,svm,決策樹,k-nn等等。

結構化學習相對於回歸或者分類來說,輸出的是乙個向量,結構化學習的輸出可以是影象、語句、樹結構等等。目前最火的的gan就是乙個典型的結構化學習樣例。

回歸、分類和結構化學習可以歸為有監督任務,除此之外還有半監督任務以及無監督任務。

有監督模型對於模型的輸入全部都是有標籤的資料,半監督模型對於模型的輸入,部分是有標籤的資料,部分是沒有標籤的資料。無監督模型對於模型的輸入全部都是沒有標籤的資料。

除此之外,因為手動對資料進行標註的代價很大,因此可以考慮將其他領域以及訓練好的模型遷移到自己的任務中來,這叫做遷移學習

目下,還有另外乙個當下很火的技術叫做reinforcement learning(增強學習)。增強學習和監督學習的主要區別是:在有監督學習中,我們會對資料給出標籤,然後拿模型得到的結果與結果進行對比,將結果進行一些處理之後用來優化模型。而在增強學習中,我們不會給模型正確的答案,取而代之的是我們會給模型乙個分數,以此來表示模型結果的好壞程度。在增強學習中,模型並不知道為什麼不好,只知道最終的結果評分。

對於乙個回歸問題,我們假設已經有的資料為\(x\),其對應的真實標籤為\(\hat y\)。我們需要尋找一組函式\(f(.)\)以使得\(f(x)\)盡可能相等或者接近真實值\(\hat y\)。我們將函式值定義為\(y\),則有\(y=f(x)=b+wx\)。其中,\(b,w,x\)均為向量,代表著資料的某個特徵。同時,我們將\(w\)稱為權重,\(b\)稱為偏差。我們的目標就是找到這樣的一組\(f(.)\)使得,任意給出乙個資料\(x\),都有\(y=\hat y\)。我們將這樣的一組函式\(f(.)\)稱之為模型(model)。因為\(b\)和\(w\)可以取得任意值,我們很難人工去設定這樣的一組引數,所以我們可以先讓它們取得一組隨機值,然後通過損失函式(\(loss\))來將引數進行調整優化。我們可以簡單的將損失函式定義為:

\[l(w, b) = \sum_^

\]公式中的\(n\)表示樣本個數,同時我們使用了平方差來作為損失函式,當然也可以選取其它的形式。這樣,我們可以通過最小化損失函式值來優化模型引數。

為了最小化損失函式,我們可以使用梯度下降法。通過梯度下降法,我們每次更新引數之前都首先計算一下模型中的各個引數對\(loss\)的影響程度,選擇能夠使得\(loss\)下降最快的方向來更新引數。這樣,我們就能夠快速地優化模型。

在這個過程中,我們會計算引數\(w\)和\(b\)對於\(loss\)的微分,這可以簡單地視作有乙個有一條曲線是\(loss\)和\(w\)的關係曲線,\(loss\)隨著\(w\)的變化而變化,計算微分就算為了計算沿著曲線的切線。 當切線的斜率為負數時,顯然將\(w\)沿著該方向改變會使得\(loss\)變小。

在此,我們將引數更新的公式設定為:

\[w^ =w^k - \eta \frac|_

\]其中\(\eta\)為學習率,是乙個超引數。對於偏差\(b\)的優化也是進行同樣的處理。

經過一定輪數的引數更新之後,\(\frac\)將會趨近於0,這時候,我們認為模型效能已經達到了最佳。但是需要注意的是,這種方法很容易就會使得模型陷入區域性最小而無法達到全域性最小的情形。當然,對於凸優化是完全不存在這個問題的,因為它的區域性極小點就是全域性最小點。

詳細引數對於損失的計算公式為:

已知:\[l(w, b) = \sum_^(\hat y^k - (b + w*x^k))^2

\]則:

\[\frac = 2\sum_^(\hat y^k - (b + w*x^k))(-x^k)

\]\[\frac = -2\sum_

\]為了使我們的模型能夠很好的擬合訓練集資料,我們總是會有很多的方法,最簡單的就是直接增大模型的複雜度,比如,將線性的規則更新為二次、三次的函式等等,即我們能夠很容易地使得模型能夠很好的擬合訓練集資料,只要我們的模型夠複雜。然而,我們更想要看到的情況是,我們模型在測試集或者說在模型沒有見到過的資料集合上會表現出良好的效能。過為複雜的模型有更大的可能性出現對於訓練集過擬合的情況,當兩個模型都能很好地擬合訓練集時,我們總是偏向於選擇複雜度低的模型。

模型的過擬合是很難避免的,我們也能夠使用很多方法來降低過擬合,提高模型的泛化能力。如:

正則化(regularization)

正則化就是更改\(loss\)函式,以約束模型的複雜度,公式如下:

\[l = \sum_^n (\hat y^k- (b + \sum w_kx_k))^2 + \lambda \sum(w_k)^2

\]後面的項即為用於約束模型複雜度的項。可以看到,我們期望\(w_k\)越小越好。當引數值較小且接近於0的時候,對應的曲線是比較平滑的,這時候,當輸入的資料出現變化時,輸出對於這些變化是比較不敏感的。這個\(\lambda\)值越大,表明我們越希望引數值更小。顯然,這也是乙個需要我們進行嘗試的超引數。

李巨集毅機器學習課程筆記 1

機器學習 自動找函式 f input output 1.regression 輸出是乙個數值 2.classification 分類 二分類 多分類 rnn 迴圈神經網路 cnn 卷積神經網路translation 繪二次元圖4.supervised learning 監督學習labeled dat...

李巨集毅機器學習 學習筆記

function set就是model 機器學習3大步驟 1.定義模型 function 集合 2.指定模型 function 好壞的評價指標 3.通過演算法選擇到最佳的模型 function alphago下棋模型抽象為棋局向下一步的分類問題 減少擁有label的data用量的方法 1.semi ...

李巨集毅 機器學習HW1

這是乙個線性回歸的例子,先讀取資料,將b整合到w中 import numpy as np import csv import pandas as pd f open r c users lenovo desktop hw1 train.csv data list csv.reader f index...