logistic回歸 簡介 softmax回歸

2021-10-12 03:39:57 字數 1606 閱讀 7848

softmax邏輯回歸模型是logistic回歸模型在多分類問題上的推廣。在多分類問題中,類標籤y可以取兩個以上的值。softmax回歸模型對於諸如mnist手寫數字分類等問題是很有用的,該問題的目的是辨識10個不同的單個數字。

描述:大小是,大小是。其中n是輸入個數,m是分類個數。這裡的是經過onehot編碼後的分類標籤。

這是最原始的表示式,如果**現比較大的數值,會導致數值溢位(因為有指數運算),所以一般會進行乙個平移操作,將同一行的資料的最大值平移至0,具體實現與公式在這裡不涉及。

這個公式實在是太醜陋了,但是我又不會將它寫成矩陣形式。有興趣的同學可以看下面的推導

但是上面的推導只是對乙個樣本進行的推導,如何將它擴充套件到所有樣本?

import keras

from keras.models import sequential

from keras.layers import dense, dropout, activation

from keras.optimizers import sgd

# 生成虛擬資料

import numpy as np

x_train = np.random.random((1000, 20))

y_train = keras.utils.to_categorical(np.random.randint(10, size=(1000, 1)), num_classes=10)

x_test = np.random.random((100, 20))

y_test = keras.utils.to_categorical(np.random.randint(10, size=(100, 1)), num_classes=10)

model = sequential()

# dense(64) 是乙個具有 64 個隱藏神經元的全連線層。

# 在第一層必須指定所期望的輸入資料尺寸:

# 在這裡,是乙個 20 維的向量。

model.add(dense(64, activation='relu', input_dim=20))

model.add(dropout(0.5))

model.add(dense(64, activation='relu'))

model.add(dropout(0.5))

model.add(dense(10, activation='softmax'))

sgd = sgd(lr=0.1, decay=1e-6, momentum=0.9, nesterov=true)

model.compile(loss='categorical_crossentropy',

optimizer=sgd,

metrics=['accuracy'])

model.fit(x_train, y_train,

epochs=2000,

batch_size=128)

score = model.evaluate(x_test, y_test, batch_size=128)

logistic回歸 簡介 邏輯回歸 理論簡介

邏輯回歸logistic regression 分類演算法原理簡介 嗶哩嗶哩 乾杯 bilibili www.bilibili.com 如果某個函式可以用半開區間的指示函式的有限次線性組合來表示,那麼這個函式就是階躍函式。階躍函式是有限段分段常數函式的組合。然而邏輯回歸是乙個概率模型,我們需要的輸出...

logistic回歸 logistic回歸

logistic回歸 logistic回歸分析可用於估計某個事件發生的可能性,這是乙個分類模型而不是乙個回歸模型!它的基本思想是利用一條直線將平面上的點分為兩個部分,即兩個類別,要解決的問題就是如何擬合出這條直線,這個擬合的過程就稱之為 回歸 logistic模型 假設你有乙個需要 的內容,要通過三...

logistic分類(logistic回歸 LR)

幾乎所有的教材都是從logistic分類開始的,因為logistic分類實在太經典,而且是神經網路的基本組成部分,每個神經元 cell 都可以看做是進行了一次logistic分類。所謂logistic分類,顧名思義,邏輯分類,是一種二分類法,能將資料分成0和1兩類。logistic分類的流程比較簡單...