機器學習儲備(11) 說說離散型隨機變數

2021-08-11 12:29:36 字數 933 閱讀 3345

交流思想,注重分析,更注重通過例項讓您通俗易懂。包含但不限於:經典演算法,機器學習,深度學習,leetcode 題解,kaggle 實戰。期待您的到來!01—

包含的概念

通過例子介紹以下幾個主要概念:

隨機變數的定義

不同的x取值也會不同

離散型隨機變數

古典概率

離散型隨機變數x=xi時的概率

分布函式02—

例子闡述以上概念

一堆蘋果,數量一共有5個,有好的,有壞的,如果定義事件:從中取出乙個蘋果其好壞標籤為x,那麼x就是乙個隨機變數,且 x 的可能取值有兩種:x0 = 好果,x1 = 壞果。明顯地,這個隨機變數x取值是離散的,因為只有兩種情況。並且,p(x0) + p(x1) = 1,因為這個蘋果要麼是好的,要麼是壞的。

然後,我們統計這5個蘋果後,發現有2個是好果,3個是壞果,那麼如果定義這種事件:從這5個蘋果中任意取3個求取得的好蘋果的個數 x,那麼這個隨機變數 x有什麼特點呢? 它與上面定義的那個隨機變數就不大一樣了吧,此時,x仍然是離散型隨機變數,但是它可能的取值為:取到0個好蘋果,1個好蘋果,2個好蘋果,這三種取值可能吧。

接下來,分析下這個離散型隨機變數x的分布律,由古典概率的方法得出:

其中, i = 0,1,2,可以得出:

可以看到三者的概率和為1,那麼隨機變數x的分布函式f(x)的圖形顯示如下:

這裡順便總結下離散型隨機變數的分布函式:

分布函式:簡單來說是對概率的定積分,是乙個區間上的概率累加。

離散型分布函式:是離散變數的概率在有限個變數區間內的概率累加。

如上圖所示,f(1) = p(x<=1) = p(x=0) + p(x = 1) = 0.7,

f(1.9) = p(x<=1.9),因為是離散的,直到 f(2) = p(x<=2)時,f(2)才取到1.0。

由此可見,離散型隨機 變數的分布函式呈現階梯型增長規律。

新知識和教程儲備 機器學習

tensorflow是用於機器學習的端到端開源平台。它具有工具,庫和 社群資源的全面,靈活的生態系統 可讓研究人員推動ml領域的最新發展,並使開發人員輕鬆構建和部署ml支援的應用程式。tensorflow最初是由google機器智慧型研究組織內google brain團隊的研究人員和工程師開發的,用...

機器學習 為什麼離散化,離散化的優勢

1,為什麼離散化 2,離散化的優勢 1,特徵離散化 連續特徵離散化的基本假設,是預設連續特徵不同區間的取值對結果的貢獻是不一樣的。特徵的連續值在不同的區間的重要性是不一樣的,所以希望連續特徵在不同的區間有不同的權重,實現的方法就是對特徵進行劃分區間,每個區間為乙個新的特徵。常用做法,就是先對特徵進行...

機器學習特徵連續 離散的區別

現在網上關於資料探勘 機器學習中資料預處理階段關於屬性 特徵 的各種連續,離散的變換,由於用詞不清,真讓人暈頭轉向。那麼資料探勘 機器學習中用於描述屬性 特徵 的 連續 離散 連續化 離散化 的這幾個詞到底是什麼含義呢?首先,韓家煒老師在他的書的第二章就對屬性的幾種型別進行了介紹 1.標稱屬性 即與...