FPGA機器學習之stanford機器學習第三堂1

2022-08-03 09:39:09 字數 1037 閱讀 3297

請注意

:csdn那邊的部落格因為那邊審核的時間太長。搬遷入這裡。stanford機器學習前2堂在csdn的部落格裡面。

剛開始他寫了,

這個公式第二堂講的,是梯度下降法,**房價的那個。

如果完全擬合的話,並不能說明你擬合的很好,也有可能是你的資料樣本採集的不正確。

過擬合就是說,僅僅是擬合了某種特定狀況的行為特徵。而沒有反應出房價和面積的真正規律。

locally weighted linear regression    

區域性加權線性回歸

。從表面上看區域性加權線性回歸還是線性回歸,所以基本結構還是一樣的。不過區別在於,

這個是上一堂線性回歸的要求。

這個是加權線性回歸。多了乙個w是權係數。而這個w呢??

這裡這個t呢。叫頻寬係數,是我們自己設定的。和a學習係數的性質差不多。從這個式子可以看出,其實是用周邊的點,來擬合當前的點。離的遠的貢獻就低一些,也就是關聯性不強。這樣擬合的就準確一些。

按照老師的說法是,w的函式還在討論中,僅僅是e指數比較合適。

好像這個是每一次**都需要重新學習重新擬合,所以資料量大的時候,代價很大。

epsilon希臘字母,表示的是error,表示那些沒有被表示出來的特徵。被遺忘的參考因素等。

這裡的誤差模型為什麼選用高斯分布,第乙個它只是乙個方便的討論模型,第二個,目前最合適的。

...............未完待續。

我能力有限,但是我努力的將學習成果分享。到這裡就是我今天所學到的新知識,一起學習一起努力吧。

FPGA機器學習之stanford機器學習第一堂

主講 吳恩達。如果你學機器學習,對這個人牛,神的程度,不了解。你就可以洗洗睡了。必定全球人工智慧最權威專家中有他乙個。他說,機器學習是最重要的it技能。這個是在矽谷那種地方。在中國,目前最火爆的是,網頁和安卓。不過大資料,網際網路,智慧型機械人時代的到來,機器學習也會變的很重要。如果自己程式設計去識...

FPGA 機器學習之BP神經網路2

來個小例子講述一下,過程。apf 是0.9 af是0.1 為什麼用0.9,用0.1 主要是因為1和0.在計算過程中,會有計算隱患 可能遇到0,就計算不下去等情況 a0 1 1.78 a0 2 1.14 也就是第一組資料。輸出a2 0.9 最後我們要進行多次的迭代和優化,優化的呢?就是w1,和w2.使...

FPGA機器學習之BP神經網路4

神經網路3,主要是一些用matlab自帶函式來完成神經網路的例子。matlab自帶的函式,都是經過優化,而且函式的實現過程是被封裝好了點。效能也是非常的優良了。可是自己寫出來的bp神經網路可能就不能達到那樣的效果。要想在fpga上實現,或者要知道內部的運 況,還是要自己寫才行。這個是自己寫的bp神經...