邏輯回歸的回顧

2021-08-09 04:27:48 字數 668 閱讀 5257

1、模型函式

2、啟用函式

3、單個訓練資料的損失函式(衡量概率與y到底有多接近)

4、m個訓練資料的損失

5、為什麼這裡損失函式是這樣的。

因為這裡**是值是概率,所以用線性回歸的損失函式方法不合適(為什麼不合適?因為用那種方法求得的函式不是凸函式,會有多個極值),那麼這裡的損失函式為什麼寫成這樣呢?這裡我們要畫出來log函式了,因為我們知道h(x)的值是概率,所以大於0小於1,根據損失函式可知,當概率與1相差不大的時候,-log函式就會趨近於0,當概率與0,當y==1時。

當y=0時,當概率與0相差不大的時候,-log的函式就會趨近於0,(這裡與前面的-log裡面的內容並不相同)因此能夠用來衡量損失。

6、對於m個訓練樣本

邏輯回歸 最基礎的線性邏輯回歸詳解

線性邏輯回歸是最基礎,也是最基本的線性模型,也就是說理解該模型,對於後續其他線性模型的研究有重要意義。所以今天找了時間專門回憶了一下。一 什麼是回歸,什麼是邏輯回歸?用一條直線對資料點進行擬合,擬合過程稱為回歸。logistic回歸 根據現有資料對分類邊界線建立回歸公式,以此進行分類。二 如何建立回...

邏輯回歸的例項

案例背景和目標 import pandas as pd import matplotlib.pyplot as plt import numpy as np data pd.read csv creditcard.csv print data.head 樣本不均衡解決方案 count classes...

機器學習 邏輯回歸 Python實現邏輯回歸

coding utf 8 author 蔚藍的天空tom import numpy as np import os import matplotlib.pyplot as plt from sklearn.datasets import make blobs global variable path...