機器學習第一章

2021-08-28 03:48:05 字數 1198 閱讀 6192

今天進行了機器學習第一章的學習,我覺得首先你可以認清這些概念

(1)模型、策略、演算法

(2)分類與回歸的概念

(3)監督、無監督、半監督問題

(2)過擬合、欠擬合

下面是拓展的一些概念:

海森矩陣:

黑塞矩陣(hessian matrix),又譯作海森矩陣、海瑟矩陣、海塞矩陣等,是乙個多元函式的二階偏導數構成的方陣,描述了函式的區域性曲率。黑塞矩陣常用於牛頓法解決優化問題,利用黑塞矩陣可判定多元函式的極值問題。在工程實際問題的優化設計中,所列的目標函式往往很複雜,為了使問題簡化,常常將目標函式在某點鄰域展開成泰勒多項式來逼近原函式,此時函式在某點泰勒展開式的矩陣形式中會涉及到黑塞矩陣。

雅可比矩陣

在向量分析中, 雅可比矩陣是一階偏導數以一定方式排列成的矩陣, 其行列式稱為雅可比行列式. 還有, 在代數幾何中, 代數曲線的雅可比量表示雅可比簇:伴隨該曲線的乙個代數群, 曲線可以嵌入其中. 它們全部都以數學家卡爾·雅可比(carl jacob, 2023年10月4日-2023年2月18日)命名;英文雅可比量」jacobian」可以發音為[ja ˈko bi ən]或者[ʤə ˈko bi ən].

雅可比矩陣的重要性在於它體現了乙個可微方程與給出點的最優線性逼近. 因此, 雅可比矩陣類似於多元函式的導數.

牛頓法最優化問題:

在最優化的問題中, 線性最優化至少可以使用單純形法(或稱不動點演算法)求解, 但對於非線性優化問題, 牛頓法提供了一種求解的辦法. 假設任務是優化乙個目標函式ff, 求函式ff的極大極小問題, 可以轉化為求解函式ff的導數f′=0f′=0的問題, 這樣求可以把優化問題看成方程求解問題(f′=0f′=0). 剩下的問題就和第一部分提到的牛頓法求解很相似了.

這次為了求解f′=0f′=0的根, 把f(x)f(x)的泰勒展開, 展開到2階形式:

梯度下降只是數值求解的具體操作,和最小二乘準則下面的最優化問題都可以用隨機梯度下降求解

機器學習第一章

q 什麼是機器學習 機器學習不同於以往的計算機程式設計,致力於研究如何通過計算機手段,利用以往的經驗來改善系統自身的效能。一般的程式設計都是明確的告訴電腦該做什麼。機器學習希望提供資料給學習演算法,讓它自己學習,找到其種的規律。在面對新情況的時候就能應用已產生的模型,提供相應的判斷。機器學習的本質任...

《機器學習》 第一章

圖書館借了本機器學習,作者是 tom m.mitchell,亞馬遜這本書排名挺靠前的。好了,直接開篇。接下來大篇幅講述了,如何挑選訓練經驗,選擇目標函式,目標函式的表示,選擇函式逼近演算法。整個設計下來,分為了四大模組 執行系統 鑑定器 泛化器 實驗生成器。看過這本書的都會被第一章的跳棋學習深深吸引...

機器學習實戰 第一章

機器學習能讓我們從資料集得到啟發 搜素引擎,郵件過濾系統,推薦系統,資料探勘 啤酒和尿布 機器學習在我們生活中隨處可見。機器學習是必學的。即使想做其他方向的研究,ml也是基礎 1 機器學習專業術語 訓練集,測試集,目標變數 如 鳥的類別 知識表示 如 可以採用規則集的形式,也可以採用概率的形式 採用...