1 資料分析高數篇

2021-10-20 11:39:25 字數 1050 閱讀 6607

有監督學習:有標籤

無監督學習:無標籤

一、• 線性回歸 :• 通過已有的資料,進行新資料結果的**(有監督學習方式處理)

對連續型變數做**叫回歸,對離散型變數做**叫分類

比如有關於天氣的變數:晴,陰,雨。只能是其中單獨乙個,不存在介於兩種之間的,即不能又晴又雨。連續的變數是指取值可以是連續的變數。比如身高,體重等。可以在某個區間內取任意值都可以

二、• 樸素貝葉斯演算法(概率論的演算法) :• 通過先驗概率,去對後驗概率進行計算(有監督學習方式處理)

三、• k-means演算法 :• 計算所有樣本點到質心的距離,最後將質心放置在所有樣本點中心的位置上( 無監督學習方式處理)

• 機器學習常見數學符號

數學中 := 才是賦值符號,計算機中是 =

!= 為不等號

人工智慧的深度學習中的作用:可以求出函式的最大值或者最小值,通過求導找誤差最小值來減少誤差

泰勒公式也是找誤差最小值來減少誤差

函式凹凸性也可以確定誤差最小值來減少誤差

常數求導為0

在乙個多變數的函式中,偏導數就是關於其中乙個變數的導數而保持其它變數恆定不變。 • 假定二元函式 = , ,則對x,y求偏導的表示為:

對x的偏導數時:f=2x+3y求導變為δf/δx=2,其中2x的x為未知數,求導得2,而3y可以當y為有值的常數,然後求導為0

函式凹凸性確定 • 凹凸判定法 設函式在區間上有二階導數:(函式求導兩次,最後只剩乙個拋物線)

二階導永遠是小於0的時候就是凸函式(因為取到最小值點來減少誤差的才是凸函式),反之為凹函式

泰勒公式:通過不停的求導,求導次數越多,誤差越小,越接近原函式,誤差最小值越精確

機器學習領域常常會遇到求解相似度的問題,通常可以轉化為對距離的求解,最常用的是對「向量」 的距離求解,

向量距離越近關係越相似

• a(0, 3) b(2, 5)

曼哈頓距離0-3的絕對值加2-5的絕對值,0和2就是x1,3和5就是x2

切比雪夫距離0-3的絕對值和2-5的絕對值哪個更大,大的那個拿來當距離,

切比雪夫距離比歐式距離小,歐式距離比曼哈頓距離要小

1 資料分析

資料分析 1.資料分析定義 2.資料分析的作用 3.資料分析的基本步驟 3.1明確分析目的和思路 3.2資料收集 3.3資料處理 3.4資料分析 過程中的重點,必須確保正確 3.5資料展現 3.6報告撰寫 4.資料分析行業前景 4.1蓬勃發展的趨勢 4.2資料分析師職業要求 5.隨著科技發展帶來的挑...

資料分析 1

獲取瀏覽器標識 useragent 谷歌 開啟瀏覽器頁面,右擊檢查,開啟頁面,點選network開啟頁面,單擊第乙個網頁資訊index.html,頁面拉至底部可找到useragent,複製即可 2.設定響應時間 偽裝使用者瀏覽,爬蟲會被電腦發現啟動反爬蟲,所以要偽裝成使用者 新建查詢 從其他源 從w...

資料分析之sql篇

剛才在琢磨客戶分析的時候,突然想到乙個假設,如果某個客戶的續約率很高,那麼證明他在產品的使用上效果是很好的,如果這些些產品的組合十分有效,那麼檢視其他類似的客戶的續約率,做一次論證應該是有意義的。於是就有了下面的一段sql,雖然自認資料庫功底尚可,當初頭疼的not exists如今依然有點拐不過來彎...