相親決策樹

2021-10-10 07:58:49 字數 2520 閱讀 1384

相親所以

作為乙個女孩子,你媽媽一直很為你的終身大事擔心,今天又要給你介紹物件了。

你隨口一問:多大了?

她說:26。

你問:長得帥不帥?

她說:挺帥的。

你問:收入高不高?

她說:不算很高,中等情況。

你說:那好的,我去見見。

找男朋友,絕對是比找工作、創業、投資公司,更重要的戰略決策。這麼重要的決策,有沒有一些商業工具可用呢?當然。今天我要與你分享乙個工具:決策樹(decision tree)。

其實你剛才那連珠炮似的問題,就有決策樹的基本邏輯在裡面。

決策樹(decision tree是在已知各種情況發生概率的基礎上,通過構成決策樹來求取淨現值的期望值大於等於零的概率,評價專案風險,判斷其可行性的決策分析方法,是直觀運用概率分析的一種**法。由於這種決策分支畫成圖形很像一棵樹的枝幹,故稱決策樹。

西蒙說:管理就是決策。而決策樹,就是一種把決策節點畫成樹的輔助決策工具,一種尋找最優方案的畫圖法。

從乙個出發點出發,為了乙個目的或結果,這其中會有各種各種岔路口,如何選擇最優的方式呢?這就是決策

這些各種各樣的岔路口或者叫節點,在這個節點進行分叉,一層層下去就好像一棵樹,每個枝椏就是一種結果,在這些枝椏裡有一種最優解——決策樹

當你問「多大了?」的時候,其實就開始啟動了「相親決策樹」的第乙個決策節點。這個決策節點,有兩條分支線:第一,大於30歲?哦,是大叔,那就不見了;第二,三十歲以下?嗯,年齡可以。然後,你才會接著問「長得帥不帥?」這又是乙個決策節點,「不帥到了醜的級別」,那就別見了。如果至少中等 ,那就再往下,走到第三個決策節點「收入高不高?」。窮?那也不能忍。

你通過三個決策節點「年齡、長相、收入」,排除了「老、醜、窮的人」,選出「30歲以下,收入中等的帥小伙」。這套像樹一樣層層分支,不斷遞進的決策工具,就是「決策樹」。

怎麼樣?一點都不難吧。但是別急,你注意到沒有,你的「相親決策樹」有乙個不太現實的地方,就是你媽居然能回答你的每乙個問題。這讓你的決策,變得非常簡單直接。現實情況通常不是這樣的。

**現實情況通常是,你希望賴以決策的依據,是沒有確定答案的。**比如你如果問你媽:他的脾氣好嗎?你媽估計會說:哎呀,這個說不好,我只見過一面,感覺八成脾氣還不錯吧。你再問:他未來會有錢嗎?你媽估計會說:這天知道。他這麼努力,估計至少有三成概率,未來總會有錢吧?

聽完這些回答:80%可能脾氣不錯,30%可能將來會有錢,你還去不去相親?這就難決定了。這是,我們就往「決策樹」中引入了乙個「概率」。

這種被概率化了的決策樹,又叫:概率樹(probability tree)。

增加了「不確定性」後,應該怎麼用「決策樹」,或者「概率樹」決策呢?

假設滿意的最高分是10分,不滿意的最高分是-10分,現在你要做一件事情,給「脾氣」和「有錢」這兩個不確定的條件,所產生的四個組合,誠實的打個分。

如果他真的脾氣好,也真的未來很有錢,你有多滿意?如果真是這樣,那是100%的滿意啊!打10分。

好。如果他的脾氣雖然很好,但是很不幸,因為運氣問題、能力問題,最後真的還是一生窮困,你有多滿意?嗯,雖然沒錢,但好歹脾氣好。這就是命吧。如果真這樣,我的滿意度是3分。

好。接著來。如果不幸他的脾氣很差,最後還沒錢呢?這簡直就是渣男啊,-10分!

那如果脾氣差,但最後一不小心很有錢呢?這是乙個好問題。要不要為了錢忍呢?忍一輩子很難啊,我還是打-5分吧。

在80%好脾氣,30%會有錢的不確定下,你是見,還是不見呢?如果決定不見,你沒有得失,收益是「0」。但是如果見呢?那就有四種可能性:

脾氣差,但有錢的概率是20% x 30% = 6%。對這種情況,你打了-5分。也就是這條概率分支,你的收益是:6% x (-5分) = -0.3分。

脾氣差,沒錢呢?概率是:20% x 70% = 14%,收益是:14% x (-10分) = -1.4分。

脾氣又好又有錢的概率是:80% x 30% = 24%,收益是:24% x 10分 = 2.4分。

脾氣好,但是沒錢的概率是:80% x 70% = 56%,收益是:56% x 3分 = 1.68分。

所以,如果你選擇了見,你的總收益是:(-0.3分) + (-1.4)分 + 2.4分 + 1.68分 = 2.38分。

你決定見的總體收益是2.38分,不見的收益是0。所以,怎麼樣?應該趕緊畫個妝出門,去相親。

所以國家引進來,走出去的決策也是有依據的!

所以決策樹,就是一種把決策節點畫成樹的輔助決策工具,一種尋找最優方案的畫圖法;概率樹在決策樹的基礎上,增加了對條件發生概率的**,和對結果收益的評估,然後加權平均得到乙個「期望值」,用這個期望值,作為依據,輔助決策。

機器學習 相親資料決策樹實戰

需求 根據訓練集 是否要見相親物件 機器學習處理問題流程 1.準備資料,匯入資料集 2.資料探索性分析,eda分析 3.特徵工程 資料處理 特徵的預處理 4.資料切分 訓練集 測試集,訓練集佔比例高的 5.模型訓練 訓練集 機器學習演算法 決策樹演算法 6.利用測試資料進行 通過測試資料x灌入演算法...

決策樹和CART決策樹

首先簡單介紹下決策樹 說到決策樹肯定離不開資訊熵 什麼是資訊熵 不要被這名字唬住,其實很簡單 乙個不太可能的時間居然發生了,要比乙個非常可能的時間發生提供更多的資訊。訊息說 今天早上太陽公升起 資訊量是很少的,以至於沒有必要傳送。但另一條訊息說 今天早上日食 資訊量就很豐富。概率越大資訊量就越少,與...

決策樹(二)決策樹回歸

回歸 決策樹也可以用於執行回歸任務。我們首先用sk learn的decisiontreeregressor類構造一顆回歸決策樹,並在乙個帶雜訊的二次方資料集上進行訓練,指定max depth 2 import numpy as np quadratic training set noise np.r...