讀July關於概率論所想

2021-06-29 11:17:20 字數 1678 閱讀 9380

3月29日,一口氣讀完了july整理的關於概率論與數理統計方面的知識(ref:其中大部分的內容其實在以前的課程上面見到過,但是關於數學史這一塊,以前雖然聽過過一點點,今天是把他的來龍去脈都搞清楚了。

接下來,記錄一些我看過文章之後的一些疑問:

1.關於先驗後驗

2、貝葉斯公式

貝葉斯定理(bayes』 theorem),是概率論中的乙個結果,它跟隨機變數的條件概率以及邊緣概率分布有關。在有些關於概率的解說中,貝葉斯定理(貝葉斯更新)能夠告知我們如何利用新證據修改已有的看法。

通常,事件a在事件b(發生)的條件下的概率,與事件b在事件a的條件下的概率是不一樣的;然而,這兩者是有確定的關係,貝葉斯定理就是這種關係的陳述。

如此篇blog第二部分所述「據維基百科上的介紹,貝葉斯定理實際上是關於隨機事件a和b的條件概率和邊緣概率的一則定理。

如上所示,其中p(a|b)是在b發生的情況下a發生的可能性。在貝葉斯定理中,每個名詞都有約定俗成的名稱:

p(a)是a的先驗概率或邊緣概率。之所以稱為」先驗」是因為它不考慮任何b方面的因素。

p(a|b)是已知b發生後a的條件概率(直白來講,就是先有b而後=>才有a),也由於得自b的取值》 而被稱作a的後驗概率。

p(b|a)是已知a發生後b的條件概率(直白來講,就是先有a而後=>才有b),也由於得自a的取值而被稱作b的後驗概率。

p(b)是b的先驗概率或邊緣概率,也作標準化常量(normalized constant)。

這裡很多東西都沒有搞清楚,到底什麼是似然,p(b|a) 這乙個項,為什麼能夠稱為相似度。

2.關於訊號。

之前,和大師兄就討論過,什麼是訊號?訊號的本質就是方差,而本文中關於資訊理論的分析,也可以看出,方差其實暗示著資訊量,

用於機器學習的資料(主要是訓練資料),方差大才有意義

所以說,資訊理論的方法,其實是在讓我們合理的使用資訊,從而推測出無偏見的引數的分布。

3.關於中心極限定理。

第一次知道中心極限定理有這麼多種形式,關於其極限的形式,確實十分的有意思,不管之前是什麼分布形式,通過線性的疊加,疊加之後的隨機變數就會趨向於高斯分布。

4.關於歷史。

高斯通過另矩估計的結果等於極大似然估計的結果,從而得出了誤差曲線服從高斯分布。

5.關於貝葉斯。

至今我依然不清楚,貝葉斯的本質是什麼,可能還是要多看看貝葉斯的演算法,運用到實際之後,才能知道。

由於本文中,重點不在貝葉斯定理,而本文第一節之2.1小節已對其做簡要介紹,再者,此文從決策樹學習談到貝葉斯分類演算法、em、hmm第二部分也詳細介紹過了貝葉斯方法,故為本文篇幅所限,不再做過多描述。

6.關於最小二乘與誤差曲線的確定

關於高斯的推導,其實很早就看過了,在極座標下的推導,也覺得問題不是很大。

而5.3節landon的推導,沒有看懂。

5.3、landon的推導(1941)

雜訊的本質到底是什麼,為什麼雜訊會是高斯分布的?

5.4、正態分佈和最大熵

對於5.4節,最大熵的論斷,了解到在給定均值和方差的情況下,高斯曲線的熵最大。

暫時的想法就這麼多,很久沒有寫過東西了,發現寫起東西來手生。

概率論學習

離散型隨機變數的值和概率的分布列表 在很多教材中,這樣的列表都被叫做離散型隨機變數的 概率分布 其實嚴格來說,它應該叫 離散型隨機變數的值分布和值的概率分布列表 這個名字雖然比 概率分布 長了點,但是對於我們這些笨學生來說,肯定好理解了很多。因為這個列表,上面是值,下面是這個取值相應取到的概率,而且...

概率論基礎

概率論 第一章 隨機事件及其概率 分為兩類 1.確定性現象 2.隨機現象 1.1隨機事件及其運算 1.隨機試驗與樣本空間 隨機試驗具有下列三個特徵 1 試驗可在相同條件下重複進行 2 試驗的結果不止乙個 3 每次實驗之前,不能判定哪乙個結果將會出現 用e表示隨機試驗。試驗e中的每乙個可能結果稱為基本...

概率論筆記

注 本文用 表示並運算,表示交運算,a 表示a的逆事件 樣本空間 乙個試驗中所有可能情況組成的集合 事件的關係與運算 a包含於b a發生 b發生 a並b a與b的和事件 a或b發生 a交b a與b的積事件 ab同時發生 a b a與b的差事件 a發生b不發生 a b互斥 不相容 a交b 空集 a b...