機器學習100問

2021-10-01 23:10:45 字數 2192 閱讀 6849

/《機器學習100問》一共分為三部分,分別是上篇,中篇,下篇。每一篇列出最常見的機器學習基礎概念問題。(擬打算在除夕前,出乙個《機器學習100答》,針對這三篇列出的問題,一一作出簡要的回答。)

注:如果只列出名詞,則問題是:它的定義,推導與應用是什麼?

感知機;

k近鄰法;

樸素貝葉斯;

決策樹;

邏輯斯蒂回歸;

svm;

常見的核函式;

boosting;

em;隱馬爾可夫;

條件隨機場;

監督方法總結;

正則化方法;

聚類演算法;

降低維度演算法;

關聯規則學習;

gbdt;

隨機森林;

pca;

模型評估指標;

欠擬合與過擬合;

roc;

auc;

lda;

常見的loss function;

分類演算法總結;

分類網路或回歸的區別;

梯度下降法的原理;

各種梯度下降法的優缺點;

經驗誤差與泛化誤差;

為什麼用roc與auc評價分類器;

偏差與方差;

k折交叉驗證;

類別不平衡;

k-means或knn中, 計算最近的鄰居距離的方法有歐式距離和曼哈頓距離,這兩種方法的區別是什麼?

knn中的k是怎麼取的,為什麼?

lr和svm的區別與聯絡?

lr與線性回歸的區別與聯絡?

邏輯斯蒂回歸為什麼要對特徵進行離散化?

gbdt和xgboost的區別?

判別模型與生成模型的區別?

l1與l2分別服從什麼分布?

adaboost的權值更新公式是什麼?

為何要對資料做歸一化?

歸一化有哪些型別?

哪些機器學習方法不需要做歸一化?

決策樹中的熵是什麼?

如何計算資料集某個特徵的資訊增益?

聯合概率分布與邊緣概率分布;

條件概率的鏈式法則;

期望/方差/協方差/相關係數;

牛頓法與梯度下降法的區別?

svm的kkt條件是什麼?

gbdt隨機森林能否並行訓練?

adam的原理;

交叉熵的定義;

如何優化kmeans?

如何進行特徵選擇?

資料增強的方法;

特徵工程一般包含什麼?

對缺失值敏感的有哪些模型?

梯度消失和梯度**的原因?

如何解決梯度消失和梯度**?

監督學習/非監督學習/半監督學習/弱監督學習;

區域性最優與全域性最優;

混淆矩陣;

產生維數災難的原理,如何避免這個問題;

正確率能很好地評估分類演算法嗎;

分類演算法的評估方法;

lda和pca的區別;

決策樹演算法優缺點;

平移不變性;

先驗概率和後驗概率;

歐式距離的特性;

如何使用二分類器來構造多分類器;

決策樹的兩種剪枝方法;

熵/聯合熵/條件熵/相對熵/互資訊的定義;

最大似然估計;

協調過濾推薦演算法的過程;

協調過濾分幾種;

什麼是推薦準確率和召回率;

文字分類過程;

分詞原理;

什麼是前向匹配演算法和後向匹配演算法;

hmm過程;

apriori;

奇異值分解原理;

fp tree;

貝葉斯個性化排序;

word2vec原理;

特徵選擇;

特徵選擇與降維的區別;

傅利葉變換;

交叉驗證如何用在時間序列資料;

整合學習方法總結;

多重共線性;

如何進行大資料訓練;

什麼是方差與偏差間的均衡;

機器學習和深度學習的區別;

使用機器學習方法,完成乙個有實際意義的專案(tbd)。

深度學習網路總結

機器學習演算法及其應用場景

演算法與資料結構(leetcode 題解)

cuda程式設計與並行優化

其他讀書分享如:《戰國策》,《智囊全集》

宇宙常識科普與星座辨別等等.

深度學習100問

3x3 是最小的能夠捕獲畫素八鄰域資訊的尺寸。兩個 3x3 的堆疊卷基層的有限感受野是 5x5 三個 3x3 的堆疊卷基層的感受野是7x7,故可以通過小尺寸卷積層的堆疊替代大尺寸卷積層,並且感受野大小不變。多個 3x3 的卷基層比乙個大尺寸 filter卷基層有更多的非線性 更多層的非線性函式 使得...

100天搞定機器學習

新增好友麻煩備註 github 100天搞定機器學習 day1資料預處理 100天搞定機器學習 day2簡單線性回歸分析 100天搞定機器學習 day3多元線性回歸 100天搞定機器學習 day4 6 邏輯回歸 100天搞定機器學習 day7 k nn 100天搞定機器學習 day8 邏輯回歸的數學...

機器學習100天(Day 2)

今天的學習內容是簡單線性回歸,簡單了說就是一次線性回歸。直接上 吧!step 1 import pandas as pd import numpy as np import matplotlib.pyplot as plt dataset pd.read csv studentscores.csv ...