機器學習面試200題!(121-140)

數據分析那些事
7 min readMar 8, 2021

来源:CSDN

本篇是機器學習面試200題第七篇,由於篇幅太長,本篇介紹121–140題~

神經網路相關唷~內容感興趣的話請持續關注唷XD

系列篇1指路

系列篇2指路

系列篇3指路

系列篇4指路

系列篇5指路

系列篇6指路

121.如何解決梯度消失和梯度膨脹?

(1)梯度消失:

根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都小於1的話,那麼即使這個結果是0.99,在經過足夠多層傳播之後,誤差對輸入層的偏導會趨於0,可以採用ReLU啟用函式有效的解決梯度消失的情況。
(2)梯度膨脹

根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都大於1的話,在經過足夠多層傳播之後,誤差對輸入層的偏導會趨於無窮大,可以透過啟用函式來解決。

122.推導下反向傳播Backpropagation。

@我愛大泡泡,來源:

推導過程
http://blog.csdn.net/woaidapaopao/article/details/77806273

123.SVD和PCA

PCA的理念是使得資料投影后的方差最大,找到這樣一個投影向量,滿足方差最大的條件即可。而經過了去除均值的操作之後,就可以用SVD分解來求解這樣一個投影向量,選擇特徵值最大的方向。

124.資料不平衡問題。

這主要是由於資料分佈不平衡造成的。解決方法如下:

1)取樣,對小樣本加噪聲取樣,對大樣本進行下采樣

2)進行特殊的加權,如在Adaboost中或者SVM中

3)採用對不平衡資料集不敏感的演算法

4)改變評價標準:用AUC/ROC來進行評價

5)採用Bagging/Boosting/Ensemble等方法

6)考慮資料的先驗分佈

125.簡述神經網路的發展。

MP模型+sgn — ->單層感知機(只能線性)+sgn — Minsky 低谷 →多層感知機+BP+Sigmoid — (低谷) →深度學習+Pretraining+ReLU/Sigmoid

126.深度學習常用方法。

@SmallisBig,來源:

機器學習崗位面試問題彙總 之 深度學習
http://blog.csdn.net/u010496169/article/details/73550487

137.神經網路模型(Neural Network)因受人類大腦的啟發而得名。神經網路由許多神經元(Neuron)組成,每個神經元接受一個輸入,對輸入進行處理後給出一個輸出。請問下列關於神經元的描述中,哪一項是正確的?(E)

A.每個神經元只有一個輸入和一個輸出

B.每個神經元有多個輸入和一個輸出

C.每個神經元有一個輸入和多個輸出

D.每個神經元有多個輸入和多個輸出

E.上述都正確

答案:(E)

每個神經元可以有一個或多個輸入,和一個或多個輸出

128.下圖是一個神經元的數學表示,

129.在一個神經網路中,知道每一個神經元的權重和偏差是最重要的一步。如果知道了神經元準確的權重和偏差,便可以近似任何函式,但怎麼獲知每個神經的權重和偏移呢?(C)

A. 搜尋每個可能的權重和偏差組合,直到得到最佳值

B. 賦予一個初始值,然後檢查跟最佳值的差值,不斷迭代調整權重

C. 隨機賦值,聽天由命

D. 以上都不正確的

答案:(C)

選項C是對梯度下降的描述。

130.梯度下降演算法的正確步驟是什麼?( D)

  1. 計算預測值和真實值之間的誤差
  2. 重複迭代,直至得到網路權重的最佳值
  3. 把輸入傳入網路,得到輸出值
  4. 用隨機值初始化權重和偏差
  5. 對每一個產生誤差的神經元,調整相應的(權重)值以減小誤差

A. 1, 2, 3, 4, 5
B. 5, 4, 3, 2, 1
C. 3, 2, 1, 5, 4
D. 4, 3, 1, 5, 2

答案:(D)

131.已知:
- 大腦是有很多個叫做神經元的東西構成,神經網路是對大腦的簡單的數學表達。
- 每一個神經元都有輸入、處理函式和輸出。
- 神經元組合起來形成了網路,可以擬合任何函式。
- 為了得到最佳的神經網路,我們用梯度下降方法不斷更新模型
給定上述關於神經網路的描述,什麼情況下神經網路模型被稱為深度學習模型?

A. 加入更多層,使神經網路的深度增加

B. 有維度更高的資料

C. 當這是一個圖形識別的問題時

D. 以上都不正確

答案:(A)

更多層意味著網路更深。沒有嚴格的定義多少層的模型才叫深度模型,目前如果有超過2層的隱層,那麼也可以及叫做深度模型。

132.卷積神經網路可以對一個輸入進行多種變換(旋轉、平移、縮放),這個表述正確嗎?

答案:錯誤

把資料傳入神經網路之前需要做一系列資料預處理(也就是旋轉、平移、縮放)工作,神經網路本身不能完成這些變換。

133.下面哪項操作能實現跟神經網路中Dropout的類似效果?(B)

A. Boosting

B. Bagging

C. Stacking

D. Mapping

答案:B

Dropout可以認為是一種極端的Bagging,每一個模型都在單獨的資料上訓練,同時,透過和其他模型對應引數的共享,從而實現模型引數的高度正則化。

134.下列哪一項在神經網路中引入了非線性?(B)

A. 隨機梯度下降

B. 修正線性單元(ReLU)

C. 卷積函式

D .以上都不正確

答案:(B)

修正線性單元是非線性的啟用函式。

135.在訓練神經網路時,損失函式(loss)在最初的幾個epochs時沒有下降,可能的原因是?(A)

A. 學習率(learning rate)太低

B. 正則引數太高

C. 陷入區域性最小值

D. 以上都有可能

答案:(A)

136.下列哪項關於模型能力(model capacity)的描述是正確的?(指神經網路模型能擬合複雜函式的能力)(A)

A. 隱藏層層數增加,模型能力增加

B. Dropout的比例增加,模型能力增加

C. 學習率增加,模型能力增加

D. 都不正確

答案:(A)

137.如果增加多層感知機(Multilayer Perceptron)的隱藏層層數,分類誤差便會減小。這種陳述正確還是錯誤?

答案:錯誤

並不總是正確。過擬合可能會導致錯誤增加。

138.構建一個神經網路,將前一層的輸出和它自身作為輸入。下列哪一種架構有反饋連線?(A)

A. 迴圈神經網路

B. 卷積神經網路

C. 限制玻爾茲曼機

D. 都不是

答案:(A)

139.下列哪一項在神經網路中引入了非線性?在感知機中(Perceptron)的任務順序是什麼?

  1. 隨機初始化感知機的權重
  2. 去到資料集的下一批(batch)
  3. 如果預測值和輸出不一致,則調整權重
  4. 對一個輸入樣本,計算輸出值

答案:1–4–3–2

140.假設你需要調整引數來最小化代價函式(cost function),可以使用下列哪項技術?(D)

A. 窮舉搜尋

B. 隨機搜尋

C. Bayesian最佳化

D. 以上任意一種

答案:(D)

關注數據君的臉書:

我是「數據分析那些事」。常年分享數據分析乾貨,不定期分享好用的職場技能工具。按讚我的臉書並私訊「10」,送你十週入門數據分析電子書唷!

--

--

數據分析那些事

這是一個專注於數據分析職場的內容部落格,聚焦一批數據分析愛好者,在這裡,我會分享數據分析相關知識點推送、(工具/書籍)等推薦、職場心得、熱點資訊剖析以及資源大盤點,希望同樣熱愛數據的我們一同進步! 臉書會有更多互動喔:https://www.facebook.com/shujvfenxi/