進軍機器學習 序言

2021-08-31 09:52:34 字數 2017 閱讀 7248

我們之所以建模, 主要的價值在於**. 學習統計時, 看到各種模型,

線性回歸,多元線性回歸, 曲線回歸等等, 都是為了建模.

但是模型是否好呢? 我們可以檢視r方, 調和r方.

機器學習的到來, 為統計開啟了另一扇大門. 交叉驗證, 檢視**準確度.

如果說現代統計學是一門循序漸進, 系統完善的科學, 機器學習則是各種流派,

黑貓白貓抓到老鼠就是好貓. 英雄不問出處.

機器學習的到來, 讓結果說話, 而不是所謂的邏輯或者假定. 存在的就是合理的,

路徑可能沒有發現, 終究會發現. 有可能是另乙個語言系統中了.

in [4]:

f = function(x) 3 + 2*x

x = rnorm(100)

y = f(x) + 0.5*rnorm(100)

dat =data.frame(x=x,y=y)

head(dat)

x y

0.7656238 4.5241703

-1.2045951 0.1475003

1.8686146 6.6297829

0.7531363 4.9709326

-0.6847217 1.7381070

-0.7545989 1.4639742

in [5]:

mod = lm(y~x)

summary(mod)

call:

lm(formula = y ~ x)

residuals:

min 1q median 3q max

-0.89810 -0.33549 0.01217 0.30443 1.03068

coefficients:

estimate std. error t value pr(>|t|)

(intercept) 2.99220 0.04318 69.29 <2e-16 ***

x 1.90101 0.04506 42.19 <2e-16 ***

---signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

residual standard error: 0.4266 on 98 degrees of freedom

multiple r-squared: 0.9478, adjusted r-squared: 0.9473

f-statistic: 1780 on 1 and 98 df, p-value: < 2.2e-16

模型引數

in [6]:

coef(mod)
(intercept)

2.99220004612752 x

1.9010058887296

公式: $$ y = 2.99 + 1.90*x $$

可以看出來, 通過資料還原x和y的關係, 和真是的x和y的關係比較接近.

作圖: 資料和模型的關係¶

in [7]:

plot(x,y,main="this is a plot")

abline(coef(mod),col="blue")

**x=-1和0.5時y的值

in [8]:

predict(mod,list(x=c(-1,0.5)),se.fit = true)
$fit

11.09119415739792

2

3.94270299049232

$se.fit

10.0670845693041622

2

0.0454934964906985

$df98

$residual.scale

0.426558713436954

in [ ]:

機器學習系列文章序言

機器學習專欄是我在2018年暑假開始全面入門機器學習的心得和總結,在這個為期接近三個月的暑假中,我會學習傳統機器學習,深度學習,以及強化學習三類主要的機器學習方法。在本欄目中,我不會照葫蘆畫瓢的搬抄其他地方的資料,所有的文章均為原創,均為我的心得體會和總結。所以存在一定程度的簡潔和省略。本專欄的目的...

《機器學習》讀書筆記一序言部分

參考文件 陸汝鈴 六問機器學習 文章摘自 機器學習 序言部分 在人工智慧發展早期,機器學習技術內涵幾乎全部是符號學習,從二十世紀九十年代起,統計機器學習猶如一匹黑馬橫空出世,迅速壓倒並取代了符號學習的地位。但這並不意味著符號學習完全被統計學習所取代,相反單純的統計機器學習,在最近的發展歷程中已經走到...

學習筆記序言

由於工作需要,從 年 月 日開始學習 微控制器的自學,為後期的專案開發做好技術儲備。由於以前不怎麼接觸硬體和電路原理方面的知識,現在學習起來還是感覺有點吃力的,所以想通過不斷地做筆記總結學習心得能夠進步更快一點,通過部落格的記錄堅持下來。學習筆記會是從 的工作原理等基礎的知識開始,然後通過 跑馬燈 ...