TensorFlow 一元線性回歸

2022-05-07 11:06:10 字數 651 閱讀 4192

(x y)

1 31 5.1

1 6.99

y = w * x + b;

h(x) = 3 * x + 5;

3 * 1 + 5 = 8

代價函式:均方差

((8 - 3)的平方 + (11 - 5.1)的平方+(14 - 6.99)的平方)/ 2*3

123

456h(x) = 2.8 * x + 4;

h(x) = 2.6 * x +3;..

.h(x) = 2.0 * x + 1;

求最優解演算法:

梯度下降:

h(x) = 2.0 * x + 1;

獲得訓練資料和驗證資料(一堆(x,y)組成的訓練點)

假設乙個一元線性回歸函式 (a = w*x +b)

判斷假設函式的好壞 (代價函式)

調整假設的一元線性回歸函式 (梯度下降演算法 學習率)

得到最優的**一元線性回歸函式 (y = w*x +b)

根據驗證資料驗證函式是否符合要求

TensorFlow 神經網路一元線性回歸

1 一元線性回歸 import tensorflow as tf import matplotlib.pyplot as plt import numpy as np a 2 權重 b 1.5 偏置 設定隨機種子 np.random.seed 5 生成100個點,區間為 1到1 x data np....

tensorflow2 0實現一元線性回歸

參考 看看就明白了 from future import absolute import,division,print function import tensorflow as tf import numpy as np import matplotlib.pyplot as plt 學習率 le...

一元線性回歸模型

在回歸模型裡,線性回歸絕對是最簡單的,但這並不妨礙它成為回歸問題上的佼佼者。對於絕大部分的資料分析場景,線性回歸是我們的首選。歸其原因,有幾點 模型簡單且適用於大資料。訓練起來也非常快,資源消耗也少。線性回歸的評估標準?一種最簡單的方法就是測量真實值和 值之間的差異,也叫做誤差。假設一條線很好地擬合...