Tensorflow 非線形回歸

2021-08-19 17:15:26 字數 1665 閱讀 5603

**:

import tensorflow as tf

import numpy as np

import matplotlib.pyplot as plt

#使用numpy來生成兩百個隨機點, 範圍在-0.5到0.5之間,均勻分布

#np.newaxis:插入新的維度

x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]

#生成一些干擾項

noise = np.random.normal(0, 0.2, x_data.shape)

y_data = np.square(x_data) + noise

#定義兩個placeholder

#[none, 1]:行數不確定,列數就1列

x = tf.placeholder(tf.float32, [none, 1])

y = tf.placeholder(tf.float32, [none, 1])

#定義神經網路中間層

#輸入層1個神經元,中間層10個神經元

weights_l1 = tf.variable(tf.random_normal([1, 10]))

biases_l1 = tf.variable(tf.zeros([1, 10]))

wx_plus_b_l1 = tf.matmul(x, weights_l1) + biases_l1

#雙曲正切函式作為啟用函式

l1 = tf.nn.tanh(wx_plus_b_l1)

#定義輸出層

#中間層10個神經元,輸出層1個神經元

weights_l2 = tf.variable(tf.random_normal([10, 1]))

biases_l2 = tf.variable(tf.zeros([1,1]))

wx_plus_b_l2 = tf.matmul(l1, weights_l2) + biases_l2

prediction = tf.nn.tanh(wx_plus_b_l2)

#二次代價函式

loss = tf.reduce_mean(tf.square(y-prediction))

#使用梯度下降法訓練

train_step = tf.train.gradientdescentoptimizer(0.1).minimize(loss)

with tf.session() as sess:

#變數初始化

sess.run(tf.global_variables_initializer())

for _ in range(2001):

sess.run(train_step, feed_dict=)

#獲得**值

prediction_value = sess.run(prediction, feed_dict=)

#畫圖plt.figure()

plt.scatter(x_data, y_data)

plt.plot(x_data, prediction_value, 'r-', lw=5)

plt.show()

執行結果:

tensorflow實現線形回歸

回歸是基於已有的資料對新的資料進行 除了標準的線形回歸,還會有戴明回歸 lasso回歸 嶺回歸 彈性網路回歸 邏輯回歸等,具體的定義和差別會在下文實現中體現。1 首先準備資料 這裡採用sklearn的資料iris資料集 from sklearn import datasets import nump...

線形回歸與損失函式

假設 特徵 和 結果 都滿足線性。即不大於一次方。這個是針對 收集的資料而言。收集的資料中,每乙個分量,就可以看做乙個特徵資料。每個特徵至少對應乙個未知的引數。這樣就形成了乙個線性模型函式,向量表示形式 這個就是乙個組合問題,已知一些資料,如何求裡面的未知引數,給出乙個最優解。乙個線性矩陣方程,直接...

Tensorflow 回歸分析

用tensorflow來做回歸分析,基於梯度下降法 這裡以一元回歸分析為例子來說明如何用tensorflow實現回歸分析。1 產生資料 採用隨機的方式來產生。先基於均值為0,方差為0.9的正態分佈產生隨機數x,再通過線性變換產生y,再新增乙個均值為0,方差為0.5的雜訊。這樣便得到資料x和y。imp...