深度學習概論學習筆記

2021-09-26 23:24:21 字數 1573 閱讀 5663

神經網路是乙個受大腦工作方式開發出來的強力學習演算法

我的理解是模擬spring框架中 mvc的 dao層,service層,和 controller層。

只不過service層是可以學習 並且自己開發的的。

x 輸入 y輸出

假設將3個64x64的矩陣提取出來放入特徵向量。

總值為64x64x3 = 12288 這時我們就用n = nx = 12288標識 來表示輸入的特徵向量的維度。

訓練的目標是要訓練出乙個分類器,來進行影象識別

以的特徵向量x作為輸入來**輸出的結果是1還是0

(x,y)來標識乙個單獨的樣本

x是nx維的特徵向量

標籤y值為0或1

訓練集由m個訓練樣本構成

而(x^(1),y^(1))表示樣本一的輸入和輸出

這些一起就代表整個訓練集

m = m_train 

x = [x(1),x(2)]行著為m個樣本數量,而豎著為n個樣本

總結:維度就是有多少特徵,樣本數就是橫著的那個。

logistic回歸是乙個用於二分分類的演算法

因為我們目標的y值需要0<=y<=1 所以我們需要將sigmoid函式作用到這個量上

sigmoid函式是這樣的

乙個光滑的從0~1的函式 與y軸交點為0.5 sigmoid本身的含義為s型

其中sigmoid(z)的表示為

如果z的函式非常大,那麼e^-z接近於0 相反則接近於1

所以sigmoid(z)是乙個大於0小於1的函式

至此我們可以用 y = sigmoid(wx+b)來訓練出 0<=y<=1的結果

我們期望讓訓練出的y值趨近實際y值

loss function :我們通過定義這個損失函式l來衡量你得**輸出值y 和 實際的y值有多接近 

誤差平方看起來似乎是乙個合理的選擇,但用這個的話,梯度下降法就不太好用,在logistic回歸中,我們會定義乙個不同的損失函式,它起著與差方相似的作用這些會給我們乙個凸的優化問題。

即loss function 用來衡量期望的輸出與y之間的差異,換句話說,loss函式用來計算單個訓練例項的錯誤。

我們在此用的是這個函式

成本函式指的是整個訓練集損失函式的平均值。

我們要尋找的引數w和b是損失最小的cost值

使用 repeat{

w = w - a j()的導數

通過優化成本函式,來不斷地使w和b的值能擬合到實際值。

深度學習概論

在監督學習中,輸入x,習得乙個函式,對映到輸出y。比如上述應用於房價 的例子,輸入房屋的一些特徵,就能輸出 資料規模不大時,各種演算法之間的優劣很難衡量,最終的效能更多取決於手工設計元件的技能。由於傳統的機器學習模型無法處理海量的資料,資料規模過大後,它們的效能變進入了瓶頸期。與20年前相比,現在收...

AI 深度學習概論

什麼是是神經網路?假如有6間房屋的資料集,已知房子的面積,單位是平方公尺或平方英呎,已知房子的 如果通過這6間房子的 和房子的面積,房子的 首先要建立起乙個資料模型 x軸為 y軸為房子面積的模型 用這些資料,來擬合一條直線,但是明白一點,不可能為負數,然後一條擬合直線出來了 這個 房價的模型,是最簡...

深度學習之基本概論

深度學習 dl,deep learning 是機器學習 ml,machine learning 領域中乙個新的研究方向,它被引入機器學習使其更接近於最初的目標 人工智慧 ai,artificial intelligence 深度學習是學習樣本資料的內在規律和表示層次,這些學習過程中獲得的資訊對諸如文...