10 29 邏輯回歸和交差熵

2021-10-25 09:15:26 字數 2131 閱讀 2249

sigmoid函式

value_counts()是一種檢視**某列中有多少個不同值的快捷方法,並計算每個不同值有在該列中有多少重複值。

python value_counts()的基礎及高階用法(超詳細)

python中pandas庫中dataframe對行和列的操作使用方法

print(history.history.keys())     #檢視keras 訓練模型 history.history的關鍵字
import tensorflow as tf

from tensorflow.keras import layers

import pandas as pd

import numpy as np

import matplotlib.pyplot as plt

data = pd.read_csv(r'c:\users\administrator\desktop\credit-a.csv',header=none)

# print(data.iloc[:,-1].value_counts())

# print(data)

# fig = plt.figure()

# plt.scatter(data.tv, data.sales)

# plt.show()

x = data.iloc[:,:-1]

y = data.iloc[:,-1].replace(-1,0)

model = tf.keras.sequential()

#兩個隱藏層

model.add(tf.keras.layers.dense(4,input_shape=(15,),activation='relu'))

model.add(tf.keras.layers.dense(4,activation='relu'))

#乙個輸出層,啟用函式用sigmoid,邏輯回歸,使最後返回的是從0-1的概率值

model.add(tf.keras.layers.dense(1,activation='sigmoid'))

model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['acc'])

history=model.fit(x,y,epochs=100)

# history.history是個字典

print(history.history.keys()) # dict_keys(['loss', 'acc'])取出 loss 和 acc 繪圖

#loss和acc畫圖

邏輯回歸和最大熵模型

因變數隨著自變數變化而變化。多重線性回歸是用回歸方程描述乙個因變數與多個自變數的依存關係,簡稱多重回歸,其基本形式為 y a bx1 cx2 nxn。二項分布即重複n次獨立的伯努利試驗。在每次試驗中只有兩種可能的結果,而且兩種結果發生與否互相對立,並且相互獨立,與其它各次試驗結果無關,事件發生與否的...

邏輯回歸 交叉熵 softmax

softmax是一種歸一化函式,用於將向量中元素的值都歸一化0 1之間,並保持其加和為1。公示表達為 根據公式和可看出,前一層的啟用值越大,經過softmax函式後的值也就越大,又因為softmax的所有輸出加和為1,因此,常利用softmax層將啟用值與概率實現對映。多元分類 multi clas...

tensorflow 邏輯回歸與交叉熵

線性回歸 的是乙個連續值,邏輯回歸給出的 是 和 否 的回答 邏輯回歸 sigmoid函式是乙個概率分布函式,給定某個輸入,它將輸出為乙個概率值 多層感知器一層一層的往下對映,sigmoid 1,1 值 邏輯回歸損失函式 1.平方差所懲罰的是與損失為同一數量級的情形 1 mse刻畫它的損失非常不恰當...