python計算資訊熵 Python計算資訊熵例項

2021-10-11 19:26:45 字數 3335 閱讀 5944

計算資訊熵的公式:n是類別數,p(xi)是第i類的概率

假設資料集有m行,即m個樣本,每一行最後一列為該樣本的標籤,計算資料集資訊熵的**如下:

from math import log

def calcshannonent(dataset):

numentries = len(dataset) # 樣本數

labelcounts = {} # 該資料集每個類別的頻數

for featvec in dataset: # 對每一行樣本

currentlabel = featvec[-1] # 該樣本的標籤

if currentlabel not in labelcounts.keys(): labelcounts[currentlabel] = 0

labelcounts[currentlabel] += 1

shannonent = 0.0

for key in labelcounts:

prob = float(labelcounts[key])/numentries # 計算p(xi)

shannonent -= prob * log(prob, 2) # log base 2

return shannonent

補充知識:python 實現資訊熵、條件熵、資訊增益、基尼係數

我就廢話不多說了,大家還是直接看**吧~

import pandas as pd

import numpy as np

import math

## 計算資訊熵

def getentropy(s):

# 找到各個不同取值出現的次數

if not isinstance(s, pd.core.series.series):

s = pd.series(s)

prt_ary = pd.groupby(s , by = s).count().values / float(len(s))

return -(np.log2(prt_ary) * prt_ary).sum()

## 計算條件熵: 條件s1下s2的條件熵

def getcondentropy(s1 , s2):

d = dict()

for i in list(range(len(s1))):

d[s1[i]] = d.get(s1[i] , ) + [s2[i]]

return sum([getentropy(d[k]) * len(d[k]) / float(len(s1)) for k in d])

## 計算資訊增益

def getentropygain(s1, s2):

return getentropy(s2) - getcondentropy(s1, s2)

## 計算增益率

def getentropygainradio(s1, s2):

return getentropygain(s1, s2) / getentropy(s2)

## 衡量離散值的相關性

import math

def getdiscretecorr(s1, s2):

return getentropygain(s1,s2) / math.sqrt(getentropy(s1) * getentropy(s2))

# ######## 計算概率平方和

def getprobss(s):

if not isinstance(s, pd.core.series.series):

s = pd.series(s)

prt_ary = pd.groupby(s, by = s).count().values / float(len(s))

return sum(prt_ary ** 2)

######## 計算基尼係數

def getgini(s1, s2):

d = dict()

for i in list(range(len(s1))):

d[s1[i]] = d.get(s1[i] , ) + [s2[i]]

return 1-sum([getprobss(d[k]) * len(d[k]) / float(len(s1)) for k in d])

## 對離散型變數計算相關係數,並畫出熱力圖, 返回相關性矩陣

def discretecorr(c_data):

## 對離散型變數(c_data)進行相關係數的計算

c_data_column_names = c_data.columns.tolist()

## 儲存c_data相關係數的矩陣

import numpy as np

dp_corr_mat = np.zeros([len(c_data_column_names) , len(c_data_column_names)])

for i in range(len(c_data_column_names)):

for j in range(len(c_data_column_names)):

# 計算兩個屬性之間的相關係數

temp_corr = getdiscretecorr(c_data.iloc[:,i] , c_data.iloc[:,j])

dp_corr_mat[i][j] = temp_corr

# 畫出相關係數圖

fig = plt.figure()

fig.add_subplot(2,2,1)

sns.heatmap(dp_corr_mat ,vmin= - 1, vmax= 1, cmap= sns.color_palette('rdbu' , n_colors= 128) , xticklabels= c_data_column_names , yticklabels= c_data_column_names)

return pd.dataframe(dp_corr_mat)

if __name__ == "__main__":

s1 = pd.series(['x1' , 'x1' , 'x2' , 'x2' , 'x2' , 'x2'])

s2 = pd.series(['y1' , 'y1' , 'y1' , 'y2' , 'y2' , 'y2'])

print('condentropy:',getcondentropy(s1, s2))

print('entropygain:' , getentropygain(s1, s2))

print('entropygainradio' , getentropygainradio(s1 , s2))

print('discretecorr:' , getdiscretecorr(s1, s1))

print('gini' , getgini(s1, s2))

資訊熵計算權重

1948年美國數學家夏農 shanonc.e 為解決資訊的度量問題提出了資訊熵的概念。資訊熵是資訊理論中用來刻畫資訊無需度的乙個量,熵值越大,表示資訊的無序化程度越高,相對應的資訊效率越高 假設針對評價指標已經建立了合理的權重矩陣p,則pj表示第j個評價指標的權重。顯然pj的和為1且pj 0。為確定...

資訊熵的計算

最近在看決策樹的模型,其中涉及到資訊熵的計算,這裡東西是由訊號處理中來的,理論部分我就不再重複前人的東西了,下面給出兩個簡單的公式 當然學習過訊號與系統的童鞋一定覺得這不是夏農提出的東西嗎?o o 沒錯,就是這個東西,只不過我們用在了機器學習上,好了下面就看 吧,這些 也很簡單,我們知道資訊熵越大表...

資訊熵概念隨筆 資訊熵 資訊的熵

之前碰到有人問,資訊熵的事,問到,有的地方說資訊熵是用來描述事物的不確定程度,取值範圍0 1 為什麼在計算資訊熵的時候,結果卻是大於1的。其實,這裡涉及到了資訊熵不同角度的概念問題,我就從我所了解的兩個角度講下這兩種情況。1.從資訊熵的作用定義出發,它就是用來描述事物的不確定程度,也就是當事物完全不...