Theano學習筆記(二) 邏輯回歸函式解析

2021-07-07 04:21:00 字數 2188 閱讀 2276

有了前面的準備,可以用theano實現乙個邏輯回歸程式,邏輯回歸是典型的有監督學習。

為了形象,這裡我們假設分類任務是區分人與狗的**。

首先是生成隨機數物件

importnumpy

importtheano

importtheano.tensor as t

rng= numpy.random

資料初始化

有400張**,這些**不是人的就是狗的。

每張**是28*28=784的維度。

d[0]是訓練集,是個400*784的矩陣,每一行都是一張**。

d[1]是每張**對應的標籤,用來記錄這張**是人還是狗。

training_steps是迭代上限。

n= 400

feats= 784

d= (rng.randn(n, feats), rng.randint(size=n, low=0, high=2))

training_steps= 10000

#declare theano symbolic variables

x= t.matrix("x")

y= t.vector("y")

w= theano.shared(rng.randn(feats), name="w")

b= theano.shared(0., name="b")

print"initial model:"

printw.get_value(), b.get_value()

x是輸入的訓練集,是個矩陣,把d[0]賦值給它。

y是標籤,是個列向量,400個樣本所以有400維。把d[1]賦給它。

w是權重列向量,維數為影象的尺寸784維。

b是偏倚項向量,初始值都是0,這裡沒寫成向量是因為之後要廣播形式。

#construct theano expression graph

p_1= 1 / (1 + t.exp(-t.dot(x, w) - b)) #probability that target = 1

prediction= p_1 > 0.5 # theprediction thresholded

xent= -y * t.log(p_1) - (1-y) * t.log(1-p_1) # cross-entropy loss function

cost= xent.mean() + 0.01 * (w ** 2).sum()# the cost to minimize

gw,gb = t.grad(cost, [w, b]) #compute the gradient of the cost

# (we shall return to this in a

#following section of this tutorial)

這裡是函式的主幹部分,涉及到3個公式

1.判定函式

2.代價函式

3.總目標函式

第二項是權重衰減項,減小權重的幅度,用來防止過擬合的。

#compile

train= theano.function(

inputs=[x,y],

outputs=[prediction, xent],

updates=((w, w - 0.1 * gw), (b, b -0.1 * gb)))

predict= theano.function(inputs=[x], outputs=prediction)

構造**和訓練函式。

#train

fori in range(training_steps):

pred,err = train(d[0], d[1])

print"final model:"

printw.get_value(), b.get_value()

print"target values for d:", d[1]

print"prediction on d:", predict(d[0])

這裡算過之後發現,經過10000次訓練,**結果與標籤已經完全相同了。

Theano學習筆記(二) 邏輯回歸函式解析

有了前面的準備,能夠用theano實現乙個邏輯回歸程式。邏輯回歸是典型的有監督學習。為了形象。這裡我們如果分類任務是區分人與狗的 首先是生成隨機數物件 importnumpy importtheano importtheano.tensor as t rng numpy.random 資料初始化 有...

邏輯回歸學習筆記

邏輯回歸 邏輯回歸是乙個二分類問題,在分類過程值中可以得到代分類樣本所屬類別的概率。對於輸入x和輸出 結果y 邏輯回歸採用sigmoid函式,將實數域的x對映到 0 1 區間。sigmoid函式如下所示 h x 11 e x 則可以得到輸入x屬於正例和反例的概率,如下 py 1 x h x p y ...

學習筆記(三)邏輯回歸

線性回歸和邏輯回歸其實沒有多大的區別,就是邏輯回歸多了乙個sigmoid函式,使樣本能對映到 0,1 之間的數值,用來做分類問題。線性回歸 線性指輸入變數是一次的,回歸即擬合,線性回歸即 確定唯一的因變數 需要 的值 和乙個或多個數值型的自變數 變數 之間的關係。即 求出w,b的值y f x wx ...