史丹福大學機器學習筆記 正則化的邏輯回歸模型

2021-08-11 01:57:41 字數 786 閱讀 8883

在上面部落格中我們討論了正則化的線性回歸模型,下面我們來討論一下正則化的邏輯回歸模型。

前面我們講述了兩種常用於邏輯回歸的方法:

基於梯度下降法的邏輯回歸模型

基於高階優化的邏輯回歸模型

基於梯度下降法的邏輯回歸模型:

首先我們還是需要先設計加入正則化後的損失函式,與線性回歸模型相似,我們只需要在原來邏輯回歸損失函式的基礎上加入正則化即可,於是,加入正則化後的損失函式為:

與線性回歸模型相同,我們不對引數θ0

進行懲罰。對上述損失函式求取的過程同樣與線性回歸模型一樣,可以分為兩步,求取梯度下降的過程如下所所示:

值得注意的是:上面的式子看上去與線性回歸的式子相同,但是由於假設的不同,所以與線性回歸在本質上是不同的。同時不對引數θ0

進行懲罰。

基於高階優化的正則化邏輯回歸模型:

與原來講述的額高階優化相同,在matlab中可以通過fminuc函式來實現最小化,值得注意的是引數θ0

的更新規則與其他情況不同,同時在高階優化中損失函式需要我們自己定義。下面就是高階優化計算損失函式的過程:

計算之後的損失函式,就可以使用fminuc函式進行最小化,具體的細節可以參考這裡。

史丹福大學深度學習開言

歡迎來到深度學習的教程!描述 本教程將教你關於無監督式學習和深度學習的主要思想。在學習它們的過程中,你也將需要實現幾個深度學校的演算法,看著它們為你工作,並且學習怎樣使用或者應用這些思想到新的問題中。本教程假定你有機器學習的基本知識 具體而言,便是熟悉監督學習的思想,邏輯回歸,梯度下降 如果你並不熟...

史丹福大學機器學習公開課

寒假玩了大半了,把各種遊戲給解除安裝了,正兒八經的學習啦。一直想把這個公開課看完,上學的時候吧不想看,放假了也不想看,胡亂寫寫,作為乙個渣渣,把不明白給記下來。這個公開課的第一課,主要是介紹了機器學習概念應用什麼的,好像主要是概念吧,之前看的記不太清了。第二課 監督學習應用 梯度下降 可以看這個鏈結...

史丹福大學與矽谷

1951年,史丹福大學的工程學院院長弗雷德里克 特曼 frederick terman 決定創辦在校園創辦工業園區,將校園的土地租給當時的高科技公司使用,就被認為是這樣乙個瞬間。這一決定不僅奠定了矽谷的基礎,也徹底改變了史丹福大學的格局,他本人也因此被尊稱為 矽谷之父 史丹福大學物理系沈志勳教授,s...