来源:CSDN
本篇是機器學習面試200題第七篇,由於篇幅太長,本篇介紹121–140題~
有神經網路相關唷~內容感興趣的話請持續關注唷XD
系列篇1指路
系列篇2指路
系列篇3指路
系列篇4指路
系列篇5指路
系列篇6指路
121.如何解決梯度消失和梯度膨脹?
(1)梯度消失:
根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都小於1的話,那麼即使這個結果是0.99,在經過足夠多層傳播之後,誤差對輸入層的偏導會趨於0,可以採用ReLU啟用函式有效的解決梯度消失的情況。
(2)梯度膨脹
根據鏈式法則,如果每一層神經元對上一層的輸出的偏導乘上權重結果都大於1的話,在經過足夠多層傳播之後,誤差對輸入層的偏導會趨於無窮大,可以透過啟用函式來解決。
122.推導下反向傳播Backpropagation。
@我愛大泡泡,來源:
推導過程
http://blog.csdn.net/woaidapaopao/article/details/77806273
123.SVD和PCA。
PCA的理念是使得資料投影后的方差最大,找到這樣一個投影向量,滿足方差最大的條件即可。而經過了去除均值的操作之後,就可以用SVD分解來求解這樣一個投影向量,選擇特徵值最大的方向。
124.資料不平衡問題。
這主要是由於資料分佈不平衡造成的。解決方法如下:
1)取樣,對小樣本加噪聲取樣,對大樣本進行下采樣
2)進行特殊的加權,如在Adaboost中或者SVM中
3)採用對不平衡資料集不敏感的演算法
4)改變評價標準:用AUC/ROC來進行評價
5)採用Bagging/Boosting/Ensemble等方法
6)考慮資料的先驗分佈
125.簡述神經網路的發展。
MP模型+sgn — ->單層感知機(只能線性)+sgn — Minsky 低谷 →多層感知機+BP+Sigmoid — (低谷) →深度學習+Pretraining+ReLU/Sigmoid
126.深度學習常用方法。
@SmallisBig,來源:
機器學習崗位面試問題彙總 之 深度學習
http://blog.csdn.net/u010496169/article/details/73550487
137.神經網路模型(Neural Network)因受人類大腦的啟發而得名。神經網路由許多神經元(Neuron)組成,每個神經元接受一個輸入,對輸入進行處理後給出一個輸出。請問下列關於神經元的描述中,哪一項是正確的?(E)
A.每個神經元只有一個輸入和一個輸出
B.每個神經元有多個輸入和一個輸出
C.每個神經元有一個輸入和多個輸出
D.每個神經元有多個輸入和多個輸出
E.上述都正確
答案:(E)
每個神經元可以有一個或多個輸入,和一個或多個輸出
128.下圖是一個神經元的數學表示,
129.在一個神經網路中,知道每一個神經元的權重和偏差是最重要的一步。如果知道了神經元準確的權重和偏差,便可以近似任何函式,但怎麼獲知每個神經的權重和偏移呢?(C)
A. 搜尋每個可能的權重和偏差組合,直到得到最佳值
B. 賦予一個初始值,然後檢查跟最佳值的差值,不斷迭代調整權重
C. 隨機賦值,聽天由命
D. 以上都不正確的
答案:(C)
選項C是對梯度下降的描述。
130.梯度下降演算法的正確步驟是什麼?( D)
- 計算預測值和真實值之間的誤差
- 重複迭代,直至得到網路權重的最佳值
- 把輸入傳入網路,得到輸出值
- 用隨機值初始化權重和偏差
- 對每一個產生誤差的神經元,調整相應的(權重)值以減小誤差
A. 1, 2, 3, 4, 5
B. 5, 4, 3, 2, 1
C. 3, 2, 1, 5, 4
D. 4, 3, 1, 5, 2
答案:(D)
131.已知:
- 大腦是有很多個叫做神經元的東西構成,神經網路是對大腦的簡單的數學表達。
- 每一個神經元都有輸入、處理函式和輸出。
- 神經元組合起來形成了網路,可以擬合任何函式。
- 為了得到最佳的神經網路,我們用梯度下降方法不斷更新模型
給定上述關於神經網路的描述,什麼情況下神經網路模型被稱為深度學習模型?
A. 加入更多層,使神經網路的深度增加
B. 有維度更高的資料
C. 當這是一個圖形識別的問題時
D. 以上都不正確
答案:(A)
更多層意味著網路更深。沒有嚴格的定義多少層的模型才叫深度模型,目前如果有超過2層的隱層,那麼也可以及叫做深度模型。
132.卷積神經網路可以對一個輸入進行多種變換(旋轉、平移、縮放),這個表述正確嗎?
答案:錯誤
把資料傳入神經網路之前需要做一系列資料預處理(也就是旋轉、平移、縮放)工作,神經網路本身不能完成這些變換。
133.下面哪項操作能實現跟神經網路中Dropout的類似效果?(B)
A. Boosting
B. Bagging
C. Stacking
D. Mapping
答案:B
Dropout可以認為是一種極端的Bagging,每一個模型都在單獨的資料上訓練,同時,透過和其他模型對應引數的共享,從而實現模型引數的高度正則化。
134.下列哪一項在神經網路中引入了非線性?(B)
A. 隨機梯度下降
B. 修正線性單元(ReLU)
C. 卷積函式
D .以上都不正確
答案:(B)
修正線性單元是非線性的啟用函式。
135.在訓練神經網路時,損失函式(loss)在最初的幾個epochs時沒有下降,可能的原因是?(A)
A. 學習率(learning rate)太低
B. 正則引數太高
C. 陷入區域性最小值
D. 以上都有可能
答案:(A)
136.下列哪項關於模型能力(model capacity)的描述是正確的?(指神經網路模型能擬合複雜函式的能力)(A)
A. 隱藏層層數增加,模型能力增加
B. Dropout的比例增加,模型能力增加
C. 學習率增加,模型能力增加
D. 都不正確
答案:(A)
137.如果增加多層感知機(Multilayer Perceptron)的隱藏層層數,分類誤差便會減小。這種陳述正確還是錯誤?
答案:錯誤
並不總是正確。過擬合可能會導致錯誤增加。
138.構建一個神經網路,將前一層的輸出和它自身作為輸入。下列哪一種架構有反饋連線?(A)
A. 迴圈神經網路
B. 卷積神經網路
C. 限制玻爾茲曼機
D. 都不是
答案:(A)
139.下列哪一項在神經網路中引入了非線性?在感知機中(Perceptron)的任務順序是什麼?
- 隨機初始化感知機的權重
- 去到資料集的下一批(batch)
- 如果預測值和輸出不一致,則調整權重
- 對一個輸入樣本,計算輸出值
答案:1–4–3–2
140.假設你需要調整引數來最小化代價函式(cost function),可以使用下列哪項技術?(D)
A. 窮舉搜尋
B. 隨機搜尋
C. Bayesian最佳化
D. 以上任意一種
答案:(D)
關注數據君的臉書:
我是「數據分析那些事」。常年分享數據分析乾貨,不定期分享好用的職場技能工具。按讚我的臉書並私訊「10」,送你十週入門數據分析電子書唷!