機器學習 面試N00題 整理

2021-08-13 17:07:34 字數 2424 閱讀 2042

演算法工程師面試,每天看一遍,看看**不會?點**

87. 你有哪些deep learning(rnn,cnn)調參的經驗?

88. 簡單說說rnn的原理。

89. 什麼是rnn?

90. rnn是怎麼從單層網路一步一步構造的的?

101. 深度學習(cnn rnn attention)解決大規模文字分類問題。

102. 如何解決rnn梯度**和瀰散的問題的?

103. 如何提高深度學習的效能?

104. rnn、lstm、gru區別?

105. 當機器學習效能遭遇瓶頸時,你會如何優化的?

106. 做過什麼樣的機器學習專案?比如如何從零構建乙個推薦系統?

107. 什麼樣的資料集不適合用深度學習?

108. 廣義線性模型是怎被應用在深度學習中?

109. 準備機器學習面試應該了解哪些理論知識?

110. 標準化與歸一化的區別?

111. 隨機森林如何處理缺失值。

112. 隨機森林如何評估特徵重要性。

113. 優化kmeans。

114. kmeans初始類簇中心點的選取。

115. 解釋對偶的概念。

116. 如何進行特徵選擇?

117. 資料預處理。

118. 簡單說說特徵工程。

119. 你知道有哪些資料處理和特徵工程的處理?

120. 請對比下sigmoid、tanh、relu這三個啟用函式?

121. sigmoid、tanh、relu這三個啟用函式有什麼缺點或不足,有沒改進的啟用函式?

122. 怎麼理解決策樹、xgboost能處理缺失值?而有的模型(svm)對缺失值比較敏感?

123. 為什麼引入非線性激勵函式?

124. 請問人工神經網路中為什麼relu要好過於tanh和sigmoid function?

125. 為什麼lstm模型中既存在sigmoid又存在tanh兩種啟用函式?

126. 衡量分類器的好壞。

127. 機器學習和統計裡面的auc的物理意義是什麼?

128. 觀察增益gain, alpha和gamma越大,增益越小?

129. 什麼造成梯度消失問題? 推導一下。

130. 什麼是梯度消失和梯度**?

131. 推導下反向傳播backpropagation。

132. svd和pca。

133. 資料不平衡問題。

135. .簡述神經網路的發展。

136. 深度學習常用方法。

137.-171

172. 增加卷積核的大小對於改進卷積神經網路的效果是必要的嗎?

173. 請簡述神經網路的發展史。

174. 說說spark的效能調優。

175. 機器學習中,有哪些特徵選擇的工程方法?

176. 常見的分類演算法有哪些?

177. 常見的監督學習演算法有哪些?

178. -214

215. 試推導樣本空間中任意點x到超平面(w,b)的距離公式。

217. 神經網路中啟用函式的真正意義?乙個啟用函式需要具有哪些必要的屬性?還有哪些屬是好的屬性但不必要的?

218. 梯度下降法的神經網路容易收斂到區域性最優,為什麼應用廣泛?

219. em演算法、hmm、crf。

220. cnn常用的幾個模型。

221. 帶核的svm為什麼能分類非線性問題?

222. 常用核函式及核函式的條件。

223. boosting和bagging。

224. 邏輯回歸相關問題。

225. 用貝葉斯機率說明dropout的原理。

226. 為什麼很多做人臉的*****會最後加入乙個local connected conv?

227. 什麼事共線性, 跟過擬合有什麼關聯?

228. 為什麼網路夠深(neurons 足夠多)的時候,總是可以避開較差local optima?

229. 機器學習中的正負樣本。

230. 機器學習中,有哪些特徵選擇的工程方法?

231. -284   choose

285. 特徵向量的歸一化方法有哪些?

286. 優化演算法及其優缺點?

287. rf與gbdt之間的區別與聯絡?

288.-301   choose

302. 什麼是梯度**?

303. 梯度**會引發什麼問題?

305. 如何修復梯度**問題?

306. lstm神經網路輸入輸出究竟是怎樣的?

307. -315  choose

316. 什麼是偏差與方差?

317. 解決bias和variance問題的方法是什麼?

318. 採用 em 演算法求解的模型有哪些,為什麼不用牛頓法或梯度下降法?

319. xgboost怎麼給特徵評分?

320. 什麼是oob?隨機森林中oob是如何計算的,它有什麼優缺點?

BAT機器學習面試1000題系列(86 90題)

無障礙寫文章 28 人贊同了該文章 86.已知一組資料的協方差矩陣p,下面關於主分量說法錯誤的是 c a 主分量分析的最佳準則是對一組資料進行按一組正交基分解,在只取相同數量分量的條件下,以均方誤差計算截尾誤差最小 b 在經主分量分解後,協方差矩陣成為對角矩陣 c 主分量分析就是k l變換 d 主分...

BAT機器學習面試1000題系列(56 60題)

無障礙寫文章 29 人贊同了該文章 對影象 不同的資料視窗資料 和濾波矩陣 一組固定的權重 因為每個神經元的多個權重固定,所以又可以看做乙個恆定的濾波器filter 做內積 逐個元素相乘再求和 的操作就是所謂的 卷積 操作,也是卷積神經網路的名字 非嚴格意義上來講,下圖中紅框框起來的部分便可以理解為...

機器學習面試筆記整理6 隨機森林

隨機取樣 隨機特徵 多棵決策樹 多數投票 分類 取平均值 回歸 優點 並行 隨機性的引入,增加了多樣性,泛化能力非常強,抗雜訊能力強,對缺失值不敏感 可省略交叉驗證,因隨機取樣 並繼承決策樹有的優點,包括 1 可得到特徵重要性排序,因此可做 特徵選擇 2 可處理高維特徵,且不用特徵選擇 3 能處理離...