機器學習 演算法面試知識點整理(持續更新中 )

2021-08-21 06:33:28 字數 1416 閱讀 8597

1、

監督學習(supervisedlearning):有類別標籤的學習,基於訓練樣本的輸入、輸出訓練得到最優模型,再使用該模型**新輸入的輸出;

代表演算法:決策樹、樸素貝葉斯、邏輯回歸、knn、svm、神經網路、隨機森林、adaboost、遺傳演算法;

2、半監督學習(semi-supervisedlearning):同時使用大量的未標記資料和標記資料,進行模式識別工作;

代表演算法:self-training(自訓練演算法)、generative models生成模型、svms半監督支援向量機、graph-basedmethods圖論方法、 multiviewlearing多視角演算法等;

3、無監督學習(unsupervisedlearning):無類別標籤的學習,只給定樣本的輸入,自動從中尋找潛在的類別規則;

代表演算法:主成分分析方法pca等,等距對映方法、區域性線性嵌入方法、拉普拉斯特徵對映方法、黑塞區域性線性嵌入方法、區域性切空間排列方法等;

4、hog特徵:全稱histogram of oriented gradient(方向梯度直方圖),由影象的區域性區域梯度方向直方圖構成特徵;

5、lbp特徵:全稱local binary pattern(區域性二值模式),通過比較中心與鄰域畫素灰度值構成影象區域性紋理特徵;

6、haar特徵:描述影象的灰度變化,由各模組的畫素差值構成特徵;

7、核函式(kernels):從低維空間到高維空間的對映,把低維空間中線性不可分的兩類點變成線性可分的;

8、svm:全稱support vector machine(支援向量機),在特徵空間上找到最佳的超平面使訓練集正負樣本的間隔最大;是解決二分類問題的有監督學習演算法,引入核方法後也可用來解決非線性問題;

9、adaboost:全稱adaptive boosting(自適應增強),對同乙個訓練集訓練不同的弱分類器,把這些弱分類器集合起來,構成乙個更強的強分類器;

10、決策樹演算法(decision tree):處理訓練資料,構建決策樹模型,再對新資料進行分類;

11、隨機森林演算法(random forest):使用基本單元(決策樹),通過整合學習將多棵樹整合;

12、樸素貝葉斯(***** bayes):根據事件的先驗知識描述事件的概率,對聯合概率建模來獲得目標概率值;

13、神經網路(neural networks):模仿動物神經網路行為特徵,將許多個單一「神經元」聯結在一起,通過調整內部大量節點之間相互連線的關係,進行分布式並行資訊處理。

面試知識點整理

new操作符都幹了什麼?1.先建立了乙個新的空物件 2.然後讓這個空物件的proto指向函式的原型prototype 3.將物件作為函式的this傳進去,如果return 出來東西是物件的話就直接返回 return 的內容,沒有的話就返回建立的這個物件。標籤有什麼用?解決父子元素margin top...

wap html 知識點整理(持續更新)

wap html 知識點整理 持續更新 px為固定大小 em rem為相對大小,其中em相對其父節點,rem相對html根節點 在把px轉換成rem的過程中,會在設定html的css的font size為62.5 已使得在進行px到rem的轉換中1rem 10px。但是這種方式在chrome中不起作...

SVM知識點整理(持續更新 )

1.svm的原理是什麼?svm是一種二類分類模型。它的基本模型是在特徵空間中尋找間隔最大化的分離超平面的線性分類器。間隔最大是它有別於感知機 1 當訓練樣本線性可分時,通過硬間隔最大化,學習乙個線性分類器,即線性可分支援向量機 2 當訓練資料近似線性可分時,引入鬆弛變數,通過軟間隔最大化,學習乙個線...