第三次機器學習

2021-09-12 01:18:08 字數 1594 閱讀 5608

s資訊理論基礎(熵 聯合熵 條件熵 資訊增益 基尼不純度)

熵表示隨機變數不確定的度量,熵越大,隨機變數的不確定性就越大。

條件熵是隨機變數x的條件下隨機變數y的不確定性。稱為h(y|x)

聯合熵就是度量乙個聯合分布的隨即系統造成的不確定度,這個與資訊熵一樣是乙個數學期望

決策樹的不同分類演算法(id3演算法、c4.5、cart分類樹)的原理及應用場景

演算法原理:決策樹需要做出決策也就是對資料進行不斷的分類,對資料進行不斷的清洗,

決策樹建好之後,帶著目標物件按照一定規則遍歷這個決策樹就能得到最終的分類結果。

回歸樹原理

在回歸樹中,葉子節點的**值一般為葉子節點中所有值的均值來作為當前葉子

節點的**值。所以在回歸樹中一般採用mse作為樹的評價指標,即均方差

決策樹防止過擬合手段

少一些特徵方案,少一些決策選擇

模型評估

回歸參照線性回歸評價指標,分類參照logistic評價指標

sklearn引數詳解,python繪製決策樹

class sklearn.linear_model.logisticregression(

penalty=』l2』, 引數型別:str,可選:『l1』 or 『l2』, 預設: 『l2』。該引數用於確定懲罰項的範數

dual=false, 引數型別:bool,預設:false。雙重或原始公式。使用liblinear優化器,雙重公式僅實現l2懲罰。

tol=0.0001, 引數型別:float,預設:e-4。停止優化的錯誤率

c=1.0, 引數型別:float,預設;1。正則化強度的導數,值越小強度越大。

fit_intercept=true, 引數型別:bool,預設:true。確定是否在目標函式中加入偏置。

intercept_scaling=1, 引數型別:float,預設:1。僅在使用「liblinear」且self.fit_intercept設定為true時有用。

class_weight=none, 引數型別:dict,預設:none。根據字典為每一類給予權重,預設都是1.

random_state=none, 引數型別:int,預設:none。在打亂資料時,選用的隨機種子。

solver=』warn』, 引數型別:str,可選:, 預設:liblinear。選用的優化器。

max_iter=100, 引數型別:int,預設:100。迭代次數。multi_class=』warn』, 引數型別:str,可選:,預設:ovr。如果選擇的選項是』ovr』,

那麼二進位制問題適合每個標籤。對於「多項式」,最小化的損失是整個概率分布中的多項式損失擬合,即使資料是二進位制的。當solver  ='liblinear』時,'multinomial』不

可用。如果資料是二進位制的,或者如果solver =『liblinear』,『auto』選擇』ovr』,否則選擇』multinomial』。

verbose=0, 引數型別:int,預設:0。對於liblinear和lbfgs求解器,將詳細設定為任何正數以表示詳細程度。

warm_start=false, 引數型別:bool,預設:false。是否使用之前的優化器繼續優化。

n_jobs=none,引數型別:bool,預設:none。是否多執行緒

第三次學習

1.學習前端的第三天 用時 5小時 學習內容 零基礎學院 第三天 學習目標 完成效果不好 分享乙個很好地 可以用來學習,對於初學者建立 很友好 2.什麼是css,css是如何工作的css是層疊樣示表 瀏覽器載入html 瀏覽器解析html,同時載入css 瀏覽器解析css,並使css結合html,生...

python學習第三次

如果說年利率是6.7 本利是每年翻滾,則多少年後本錢會翻倍 in 1 benqian 100000 year 0 存錢需要翻本的年數 while benqian 200000 benqian benqian 1 0.067 year 1 year year 1 print year out 1 11...

python第三次學習

1的學習 這一課時主要講了python的特點 簡史 應用領域以及環境等,還講了python語言的規範性 2 2的學習 變數定義 注釋寫法 行注釋 開頭,單獨成行或者在 的後面 塊注釋 好幾行的 或內容,以三個連續的單引號開頭和結束 原則 恰當 易懂 不是越多越好 對不容易懂的 新增注釋 變數概念 變...