菜雞的百度兩輪NLP面試

2021-10-24 03:52:09 字數 417 閱讀 9194

一面

問專案及其細節;

二叉樹遍歷;旋轉陣列找最小值

bert的結構,transformer的encoder結構:其中前饋神經網路的結構是怎樣的?

layernorm和batchnorm的區別與聯絡及其適用場景,舉例說明二者的區別

attention計算過程中,為什麼要除以d

k\sqrt

dk​​

?ner中,crf的損失函式怎麼計算的?最佳路徑和所有路徑分數如何得到?

二面pooling(最大池化)層中的梯度是怎樣回傳的?

面對長文字的分類,資料怎樣處理?

都掌握那些nlp相關模型?

既要達到bert模型的效果,又要超低推理時間,如10ms以內,應該怎樣做

乙個樣本需要輸出多個分類標籤,應該怎樣設定模型?

終……

百度NLP面試記錄(實習offered)

1.自我介紹 2.專案 3.word2vec兩個模式,兩個優化,具體實現細節。4.bilstmcrf的具體實現步驟,crf的原理,優勢。5.attention的原理。6.c 虛函式 7.邏輯回歸用極大似然函式為啥不用最小二乘。8.c 寫快排 1.自我介紹 2.專案 3.transformer的原理,...

百度NLP實習生面試總結

題目1 描述以下兩行 的區別 int a 1000 int p int malloc 1000 回答這道題目的時候,我說前者是定義了1000個整數,大小為4000個位元組,而後者只是開闢了一塊1000個位元組的大小,如果想讓後者的大小與前者相同,應該寫為int p int malloc 1000 s...

百度面試的兩道題目

void reorder int array,int num void reorder int array,int num 看到這裡,你會發現兩道題目的 只有細微的差別,其餘都是一樣的。即兩道題目的實現演算法是一樣的。檢視結果的 兩道題目一樣 includevoid reorder int arra...