使用統計學習計算選出所有牌有效且沒有無效牌的概率

2021-08-07 05:31:58 字數 1282 閱讀 8888

題目:桌面上有六張扣著的牌,其中三張牌的資訊是有效的,三張牌的資訊是無效的。乙個人在不知道有多少張有效資訊牌數的情況下,讓他一次性選擇 n 張牌,請問他一次性選出所有有效牌且沒有無效牌的概率是多少?第一次算的是c(3,n)/c(6,n),當然這道題目最終想要的應該是乙個值才對,但是問題來了,按照統計學習的思想,題目中並沒有給出先驗分布,也就是說n服從什麼分布,如果n服從均勻分布,那麼結果就是1/6*1/2+1/6*c(3,2)/c(6,2)+1/6*c(3,3)/c(6,3) = 1/8

但是如果換是你來,你會假設n服從均勻分布嗎?n不應該服從均勻分布啊,但是我們可以知道n服從的分布跟六張牌的分布有關係,六張牌滿足伯努利分布,假設這六張牌每張牌為有資訊的可能性相同,且都為p(這是第乙個假設**),那麼某一種組合(比如該組合中有a個有資訊的牌,6-a個沒有資訊的牌)出現的概率跟這個數成正比 p的a次方乘以(1-p)的(6-a)次方。那麼在出現a個有資訊牌的組合下,選多少個牌選中的概率最大,那麼你就會選多少個牌。但是我們知道乙個規律c(a,n)/c(6,n) = a*(a-1)…(a-n+1)/6*(6-1)…(6-n+1),隨著n值得增加最終計算的結果越小,所以不管a為多少,作為乙個聰明的人都應該從裡面挑一張牌,也就是我會讓n = 1, 這時候最終算出來的概率就是1/2.

後面的文字只管敘述自己的思想,具體公式推導會在後面通過筆算的方法展示出來。通過上面的描述我們知道m張牌裡面有a張牌是有效資訊的事件概率為p(a),那麼在a發生n=i的前提條件下抽出的i張牌全部是有效的事件為p(true|i,a)。那麼n=i的前提條件下抽出的i張牌全部是有效的而且所有牌裡面有a張是有資訊的概率為p(true,a|i) = p(true|i,a)* p(a)。p(true|i)= p(true,a|i)在a上的積分。在知道p(true|i)的前提條件下,只需要算出極大值就可以了,極大值對應的i就是n應該取得值。

公式如下:

在這個題目中因為剛好p(true|i,a)是單調的,所以不管a取任何值得時候i取1總是求得最大概率。但是針對更一般的解法,如果p(true|i,a)是乙個不單調的函式呢,這樣就要使用剛才推導的方法,最終計算出p(true|i),然後求使p(true|i)最大的時候i的表示式,當然這時候的i是與我們的第乙個假設p相關,當然全文也就使用到了乙個假設(這六張牌每張牌為有資訊的可能性相同,且都為p)

根據p(true|i,a)的形式求出的最終結果肯定是不一樣的,這裡就不針對每一種p(true|i,a)來具體討論最終計算出來的i了

統計學習 統計學習三要素

模型是所要學習的條件概率分布或者決策函式。統計學習的目的在於從假設空間中選取最優模型。故需要引入損失函式與風險函式。損失函式 衡量模型一次 的好壞。風險函式 衡量平均意義模型 的好壞。l y,f x begin 1,y neq f x 0,y f x end l y,f x y f x 2 l y,...

統計學習 4

統計學習 本次我們對另一種基本的分類和回歸方法進行介紹,決策樹。決策樹模型是樹形結構,在分類問題中,表示基於特徵對例項進行分類的過程。學習過程中,利用訓練資料,根據損失函式最小化的原則建立決策樹模型。時,對新的資料,利用決策樹模型進行分類。決策樹學習包括三個步驟 特徵選擇,決策樹生成和決策樹修剪。我...

統計學習 KNN

knn是一種基本的分類 由與該樣本最近的k個樣本進行投票表決 與回歸方法 回歸問題 可以將乙個樣本的k個近鄰的平均屬性或者加權平均屬性賦予該樣本 k值的選擇,距離度量以及分類決策規則是knn的三個基本要素。knn1968年由cover和hart提出。1.1閔可夫斯基距離 閔可夫斯基距離不是距離,是一...