菜鳥機器學習的逆襲之路 day2

2021-10-02 20:17:02 字數 977 閱讀 5438

今天家裡人實在忍受不了我在家裡不學習的日子,於是下了血本。爸爸說陪著我學習,我學多久他就陪我學多久。哎,看到爸爸看書的樣子還是蠻心疼的。。

今天看了吳恩達第一部分的機器學習,寫一下自己還記得的東西,一是回顧,二是怕自己忘了這些知識。

總結部分如下:

監督學習:給機器樣本和結論,讓機器學習一種演算法可以適應這些樣本和結論的過程是監督學習。

無監督學習:只給機器海量樣本,機器學出什麼都可以,看看它到底能學出個啥。

回歸:監督學習的一種,相當於是我想得到一些連續的結果,或者說結論與輸入之間有一種函式關係表示,我們就叫做回歸。

分類:監督學習的一種,感覺就是求離散解,如果我想得到的結果是幾個離散的結果,比如判斷是、否或者判斷是菜花、西瓜、番茄炒蛋(最近我做的可好吃了)等。

線性回歸:個人感覺本質就是乙個線性方程:y=ax+b;

這裡有兩部分未知需要求解:一部分是a,b已知,x為變數,求解y,這種方程求解,由於是相當於我們假設了一種函式可以應用於我們原來想求解的實際問題中,所以這個函式叫做假設函式。

另一種就是j(a,b)=1/2m * sum(y(a,b)-y)^2,由於這裡我們求解的是存在一某乙個a,b使得這裡的j值最小,就是所謂的代價函式。線性回歸中,代價函式的改變或者說迭代遵循的原則是梯度下降原則:

所謂梯度下降原則就是由於存在兩個未知數,我們需要改變a,b時總要有乙個方法去改變,方法的核心當然是改變a,b可以使得j減小。那麼我們可以從梯度方向上向下移動j,便是乙個方法,反映到數學表示式:

變數(a,b)=變數(a,b)-α 乘以 (j對變數的微分)。note:此處α指的是移動腳步的大小,這也稱作梯度下降函式。

這個思路也很簡單,就是變數a=a-梯度上移動值乘以權重;b=b-梯度上移動值乘以權重。

如此,我們就可以使得ab不斷去改變去尋找全域性上的最優解(j在整個實數域的最小值),當j=0 or j1=j2時,迭代結束。(當然,迭代前我們需要賦予ab初值,一般為0)

以上就是線性回歸部分的學習心得了。明天我要看20節課。

菜鳥深度學習的逆襲之路 day5

乙個session可能會擁有一些資源,例如variable或者queue。當我們不再需要該session的時候,需要將這些資源進行釋放。有兩種方式,呼叫session.close 方法 使用with tf.session 建立上下文 context 來執行,當上下文退出時自動釋放。總結一下,記得初始...

html 菜鳥的逆襲之路

注釋 表頭。yellow bgcolor color 改變背景顏色 先進行簡單的操作練習,培養初始的程式設計意識。多個標籤,代表更多的段落。段落的行數依賴於瀏覽器視窗的大小。如果調節瀏覽器視窗的大小,將改變段落中的行數。br標籤折行 h 標籤指標題,代指數字序號。數字1 10代表標題的從大到小。hr...

機器學習 day2

歸一化 將所有資料轉化到同一標準下,使的某乙個特徵對最終結果不會造成更大的影響。通過對原始資料進行變換把資料對映到 預設為 0,1 之間 問題 如果資料中異常點過多,會有什麼影響?最大值最小值會受影響。方差考量資料的穩定性。標準化 將所有資料進行變換到平均值為0,標準差為1之間。standardsc...