吳恩達machine learning邏輯回歸

2021-10-08 20:43:53 字數 1056 閱讀 2451

1.假設函式h(x),因為邏輯回歸演算法的y值只有零和一兩個值,那麼如果依然要用線性回歸的方程來表達這一種趨勢的話,會導致誤差很大

於是就引進了乙個sigmoid函式,這個函式是無限趨近於0和1。

也就是h(x)=g(z)=1/1+e^(-z)。所以我們假設當這個函式的值取到》=0.5時,那麼就表示**y=1.

也就是說當z>=0時(z的值就可以表示為theta』*x,相當於線性回歸裡的h(x))

那麼如果我們得到的資料集是這樣的,我們的最終目標就是找到最好的那個theta值,能夠很好的區別開兩種資料集

把這個theta代入到z得到乙個函式,這個函式就是決策邊界,最後新的資料集的特徵值代入這個決策邊界函式,>=0的話就判斷y=1否則等於0.

中間costfunction的推導呢簡單說一下

就是如果按照之前梯度下降來算的話,是得不到最小代價的,因為sigmoid函式並不是乙個凸函式

非凸函式不一定能收斂到全域性最小值,也就是不一定能得到最小代價

所以把costfunction改為了

分為了兩部分,第一部分是當y=1,h(x)=1時誤差為0,且隨著h(x)的值縮小而變大

第二部分就是當y=0時,h(x)為0時誤差為0,且隨著h(x)的值變大而變大

接下來就可以計算使誤差最小的theta值了

吳恩達預處理

詳細 見這裡 0.匯入相應的包 import os import tensorflow as tf import numpy as np from pil import image1.處理標籤 1.os.listdir file dir 函式獲取檔案路徑裡面的所有檔案目錄,並返回為乙個列表 2.la...

深度學習 吳恩達

第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...

吳恩達機器學習筆記

為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...