機器學習面試200題!(141-160)

數據分析那些事
9 min readMar 22, 2021

来源:CSDN

本篇是機器學習面試200題第八篇,由於篇幅太長,本篇介紹141–160題~

以前寫過的面試題集錦,指路這邊

系列篇1指路

系列篇2指路

系列篇3指路

系列篇4指路

系列篇5指路

系列篇6指路

系列篇7指路

141.在下面哪種情況下,一階梯度下降不一定正確工作(可能會卡住)?(B)

答案:(B)

這是鞍點(Saddle Point)的梯度下降的經典例子。另,本題來源於:題目來源
https://www.analyticsvidhya.com/blog/2017/01/must-know-questions-deep-learning/

142.下圖顯示了訓練過的3層卷積神經網路準確度,與引數數量(特徵核的數量)的關係。

從圖中趨勢可見,如果增加神經網路的寬度,精確度會增加到一個特定閾值後,便開始降低。造成這一現象的可能原因是什麼?(C)

A. 即使增加摺積核的數量,只有少部分的核會被用作預測

B. 當卷積核數量增加時,神經網路的預測能力(Power)會降低

C. 當卷積核數量增加時,它們之間的相關性增加(correlate),導致過擬合

D. 以上都不正確

答案:(C)
如C選項指出的那樣,可能的原因是核之間的相關性。

143.假設我們有一個如下圖所示的隱藏層。隱藏層在這個網路中起到了一定的降維作用。假如現在我們用另一種維度下降的方法,比如說主成分分析法(PCA)來替代這個隱藏層。那麼,這兩者的輸出效果是一樣的嗎?

答案:不同,因為PCA用於相關特徵而隱層用於有預測能力的特徵。

144.神經網路能組成函式(y=1xy=1x)嗎?

答案:可以,因為啟用函式可以是互反函式。

145.下列哪個神經網路結構會發生權重共享?(D)

A. 卷積神經網路

B. 迴圈神經網路

C. 全連線神經網路

D. 選項A和B

答案:(D)

146.批規範化(Batch Normalization)的好處都有啥?(A)

A. 在將所有的輸入傳遞到下一層之前對其進行歸一化(更改)

B. 它將權重的歸一化平均值和標準差

C. 它是一種非常有效的反向傳播(BP)方法

D. 這些均不是

答案:(A)

147.在一個神經網路中,下面哪種方法可以用來處理過擬合?(D)

A. Dropout

B. 分批歸一化(Batch Normalization)

C. 正則化(regularization)

D. 都可以

答案:(D)

148.如果我們用了一個過大的學習速率會發生什麼?(D)

A. 神經網路會收斂

B. 不好說

C. 都不對

D. 神經網路不會收斂

答案:(D)

149.下圖所示的網路用於訓練識別字元H和T,如下所示:

網路的輸出是什麼?(D)

D.可能是A或B,取決於神經網路的權重設定

答案:(D)
不知道神經網路的權重和偏差是什麼,則無法判定它將會給出什麼樣的輸出。

150.假設我們已經在ImageNet資料集(物體識別)上訓練好了一個卷積神經網路。然後給這張卷積神經網路輸入一張全白的圖片。對於這個輸入的輸出結果為任何種類的物體的可能性都是一樣的,對嗎?(D)

A. 對的

B. 不知道

C. 看情況

D. 不對

答案:(D)各個神經元的反應是不一樣的

151.當在卷積神經網路中加入池化層(pooling layer)時,變換的不變性會被保留,是嗎?(C)

A. 不知道

B. 看情況

C. 是

D. 否

答案:(C)使用池化時會導致出現不變性。

152.當資料過大以至於無法在RAM中同時處理時,哪種梯度下降方法更加有效?(A)

A. 隨機梯度下降法(Stochastic Gradient Descent)

B. 不知道

C. 整批梯度下降法(Full Batch Gradient Descent)

D. 都不是

答案:(A)

153.下圖是一個利用sigmoid函式作為啟用函式的含四個隱藏層的神經網路訓練的梯度下降圖。這個神經網路遇到了梯度消失的問題。下面哪個敘述是正確的?(A)

A. 第一隱藏層對應D,第二隱藏層對應C,第三隱藏層對應B,第四隱藏層對應A

B. 第一隱藏層對應A,第二隱藏層對應C,第三隱藏層對應B,第四隱藏層對應D

C. 第一隱藏層對應A,第二隱藏層對應B,第三隱藏層對應C,第四隱藏層對應D

D. 第一隱藏層對應B,第二隱藏層對應D,第三隱藏層對應C,第四隱藏層對應A

答案:(A)由於反向傳播演演算法進入起始層,學習能力降低,這就是梯度消失。

154.對於一個分類任務,如果開始時神經網路的權重不是隨機賦值的,二是都設成0,下面哪個敘述是正確的?(C)

A. 其他選項都不對

B. 沒啥問題,神經網路會正常開始訓練

C. 神經網路可以訓練,但是所有的神經元最後都會變成識別同樣的東西

D. 神經網路不會開始訓練,因為沒有梯度改變

答案:(C)

155.下圖顯示,當開始訓練時,誤差一直很高,這是因為神經網路在往全域性最小值前進之前一直被卡在區域性最小值裡。為了避免這種情況,我們可以採取下面哪種策略?(A)

A. 改變學習速率,比如一開始的幾個訓練週期不斷更改學習速率

B. 一開始將學習速率減小10倍,然後用動量項(momentum)

C. 增加引數數目,這樣神經網路就不會卡在區域性最優處

D. 其他都不對

答案:(A)
選項A可以將陷於區域性最小值的神經網路提取出來。

156.對於一個影象識別問題(在一張照片裡找出一隻貓),下面哪種神經網路可以更好地解決這個問題?(D)

A. 迴圈神經網路

B. 感知機

C. 多層感知機

D. 卷積神經網路

卷積神經網路將更好地適用於影象相關問題,因為考慮到影象附近位置變化的固有性質。

答案:(D)

157.假設在訓練中我們突然遇到了一個問題,在幾次迴圈之後,誤差瞬間降低。你認為資料有問題,於是你畫出了資料並且發現也許是資料的偏度過大造成了這個問題。

你打算怎麼做來處理這個問題?(D)

A. 對資料作歸一化

B. 對資料取對數變化

C. 都不對

D. 對資料作主成分分析(PCA)和歸一化

答案:(D)
首先將相關的資料去掉,然後將其置零。

158.下面那個決策邊界是神經網路生成的?(E)

A. A
B. D
C. C
D. B
E. 以上都有

答案:(E)

159.在下圖中,我們可以觀察到誤差出現了許多小的”漲落”。這種情況我們應該擔心嗎?(B)

圖片

A. 需要,這也許意味著神經網路的學習速率存在問題
B. 不需要,只要在訓練集和交叉驗證集上有累積的下降就可以了
C. 不知道
D. 不好說

答案:(B)
選項B是正確的,為了減少這些“起伏”,可以嘗試增加批尺寸(batch size)。

160.在選擇神經網路的深度時,下面那些引數需要考慮?(C)

1 神經網路的型別(如MLP,CNN)
2 輸入資料
3 計算能力(硬體和軟體能力決定)
4 學習速率
5 對映的輸出函式

A. 1,2,4,5
B. 2,3,4,5
C. 都需要考慮
D. 1,3,4,5

答案:(C)
所有上述因素對於選擇神經網路模型的深度都是重要的。

關注數據君的臉書:

我是「數據分析那些事」。常年分享數據分析乾貨,不定期分享好用的職場技能工具。按讚我的臉書並私訊「10」,送你十週入門數據分析電子書唷!

數據分析那些事

這是一個專注於數據分析職場的內容部落格,聚焦一批數據分析愛好者,在這裡,我會分享數據分析相關知識點推送、(工具/書籍)等推薦、職場心得、熱點資訊剖析以及資源大盤點,希望同樣熱愛數據的我們一同進步! 臉書會有更多互動喔:https://www.facebook.com/shujvfenxi/

--

--

數據分析那些事

這是一個專注於數據分析職場的內容部落格,聚焦一批數據分析愛好者,在這裡,我會分享數據分析相關知識點推送、(工具/書籍)等推薦、職場心得、熱點資訊剖析以及資源大盤點,希望同樣熱愛數據的我們一同進步! 臉書會有更多互動喔:https://www.facebook.com/shujvfenxi/