機器學習 模型為什麼是這個樣子 期望

2021-08-21 05:32:01 字數 1134 閱讀 2000

昨晚寫完邏輯回歸準備寫感知機時,突然想到了兩個問題,感知機就停下筆來。第乙個問題是:我說了不管是分類還是回歸,都是要對p(

y|x)

p (y

|x

)進行建模,也說了,線性回歸是n(

y|wt

x,σ)

n (y

|wtx

),邏輯回歸是be

r(y|

sigm

(wtx

))b er

(y|s

igm(

wtx)

)。也通過極大似然估計出了模型引數,一切好像都捋順了。但是,突然我楞一下,模型呢?輸入輸出是什麼樣的關係?難道要我拿著輸入去輸進高斯分布,伯努利分布裡嗎?

其實這兩個演算法的模型我們是知道的。線性回歸就是y=

wtx y=w

tx

嘛,邏輯回歸就是y=

sigm

(wtx

) y=s

igm(

wtx)

嘛。可是這兩個模型表示形式是怎麼來的呢?

肯定是什麼什麼公式等式一步一步推到了這個模型形式吧?

就在我苦苦徘徊之際,靈光一閃。期望!

對,就是期望!其實我們要得到的是什麼?不就是我 有乙個輸入的時候,你給我乙個輸出嗎?那這個輸出怎麼得到呢?那線性回歸舉例,輸出

y y

是以wt

x' role="presentation" style="position: relative;">wtx

wtx為均值,以σ2

σ

2為方差的高斯分布啊?對不對?那高斯分布的期望的什麼?說到這裡我都笑了,均值啊!高斯分布的期望是它的均值啊!這裡的均值是什麼?不就是wt

x wtx

。邏輯回歸也是一樣的道理。所以,當有乙個輸入進模型的時候,其實我們輸出是什麼?是期望,是e[

y]e [y

],也就是yp

(y) yp(

y)

. 這個是我想到的,我的理解,沒有從哪本書上看到過,因為好像大家都預設線性回歸就是這個樣子,邏輯回歸就是那個樣子。估計引數的時候把極大似然函式掏了出來。沒有說模型為什麼是現在這個樣子。我的解釋就是期望。所以我的「概率-建模「**到這裡還是對的!

國內IT行業為什麼還是這個樣子?

今天上blog看到一篇文章,說的是乙個笑話諷刺了現在國內it行業的一些現狀 名字記不住了 我覺得很有道理,為什麼中小型it行業的公司都將所有責任放在程式設計師身上?管理人員只負責發發工資,搞搞後勤?產品出問題直接將責任推到專案經理身上,然後根據具體問題又下放到程式設計師身上,然後所謂的管理人員就根據...

機器學習模型為什麼要將特徵離散化

在學習機器學習中,看過挺多案例,看到很多人在處理資料的時候,經常把連續性特徵離散化。為此挺好奇,為什麼要這麼做,什麼情況下才要做呢。一 離散化原因 資料離散化是指將連續的資料進行分段,使其變為一段段離散化的區間。分段的原則有基於等距離 等頻率或優化的方法。資料離散化的原因主要有以下幾點 1 演算法需...

什麼是機器學習

機器學習 machine learning 是研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的效能。它是人工智慧的核心,是使計算機具有智慧型的根本途徑,其應用遍及人工智慧的各個領域,它主要使用歸納 綜合而不是演譯。學習能力是智慧型行為的乙個非常重...