ML 學習筆記 吳恩達

2021-10-01 22:55:37 字數 945 閱讀 4590

吳恩達ml-logistic介紹代價函式的時候,有點迷糊。見下圖:

因為這它定義了乙個叫cost()的函式,我就突然把這個函式與之前線性回歸(linear regression)的cost()函式搞混了,然後引發了我的疑惑。

首先我們在做線性回歸**是要先確定**函式h()[hypthesis],然後將整個資料集代入 h() 並於標籤值y 做比較確定每組引數(parameters) 的lose-j(),假設使用梯度下降演算法gd的基礎上求得最小代價–min(j())的基礎上確定h()引數,來擬合資料。

對比分類問題,原來線性的損失函式 lose-j()是乙個線性的即假設j()全為凸函式,而分類問題中結果是非線性的–於是引入了啟用函式[我們這裡以*sigmoid()*為啟用函式] ,使**的結果符合我們的要求–這裡課程有詳細的推導,損失函式j()也發生了改變,如圖-2。他的意思是:假設輸入資料x被歸為a類(和y=1,y=0是乙個意思,只不過用a/b/c更容易理解,ps:此組資料屬於哪一類需要預先告訴計算機),然後根據此類對應的cost()計算方法(這裡的cost不再是 (h()-y())^2只是計算方法改變了)最終的目的還是計算lose,確定引數,擬合資料

吳恩達ML課程筆記(Chapter13)

k 聚類的數量 c i 樣本點x i 被分到的聚類的索引值 k 第k個聚類中心的位置 1.聚類演算法 把無標記 non label 的資料分成一簇一簇的演算法 2.k means演算法 我的另一篇部落格 3.k means演算法也可以分類那些資料比較集中的資料集,比如像這樣 4.這裡需要注意一點,大...

吳恩達ML課程筆記(Chapter 16)

1.幾個說明 n.u the number of users n.m the number of movies r i,j 1 if user j has rated movie i y i,j rating given by user j to movie i 1.題目如下 我們的任務就是,對於使...

吳恩達機器學習筆記

為了解決實際生活中的問題,我們通常需要乙個數學模型。比如,小明有乙個房子 他想賣掉房子 為了知道房子的 小明收集了該地區近兩年的房屋交易 他發現房屋 與房屋大小呈正相關,所以他畫了了一幅圖 小明的房屋大小用紅色的 代替。可見和小明房屋一樣大小的房子並不存在,而類似的房屋 又有很大差別,如此小明決定用...