来源:CSDN
本篇是機器學習面試200題第四篇,由於篇幅太長,本篇介紹81–100題~
本文前十題為選擇題,食用愉快唷XDD
感興趣的話請持續關注唷XD
系列篇1指路
系列篇2指路
系列篇3指路
系列篇4指路
81.影響聚類演算法結果的主要因素有(BCD )
A.已知類別的樣本質量;
B.分類準則;
C.特徵選取;
D.模式相似性測度
82.模式識別中,馬式距離較之於歐式距離的優點是(CD)
A. 平移不變性;
B. 旋轉不變性;
C. 尺度不變性;
D. 考慮了模式的分佈
83.影響基本K-均值演算法的主要因素有(ABD)
A. 樣本輸入順序;
B. 模式相似性測度;
C. 聚類準則;
D. 初始類中心的選取
84.在統計模式分類問題中,當先驗概率未知時,可以使用(BD)
A. 最小損失準則;
B. 最小最大損失準則;
C. 最小誤判概率準則;
D. N-P判決
85.如果以特徵向量的相關係數作為模式相似性測度,則影響聚類演算法結果的主要因素有(BC)
A. 已知類別樣本質量;
B. 分類準則;
C. 特徵選取;
D. 量綱
86.歐式距離具有(AB );馬式距離具有(ABCD )。
A. 平移不變性;
B. 旋轉不變性;
C. 尺度縮放不變性;
D. 不受量綱影響的特性
87.你有哪些Deep Learning(RNN,CNN)調參的經驗?
答案解析,來自知乎
https://www.zhihu.com/question/41631631
88.簡單說說RNN的原理。
我們升學到高三準備高考時,此時的知識是由高二及高二之前所學的知識加上高三所學的知識合成得來,即我們的知識是由前序鋪墊,是有記憶的,好比當電影字幕上出現:“我是”時,你會很自然的聯想到:“我是男生/女生”。
89.什麼是RNN?
@一隻鳥的天空,本題解析來源:
迴圈神經網路(RNN, Recurrent Neural Networks)介紹
http://blog.csdn.net/heyongluoyao8/article/details/48636251
90.RNN是怎麼從單層網路一步一步構造的的?
@何之源,本題解析來源:
完全圖解RNN、RNN變體、Seq2Seq、Attention機制
https://zhuanlan.zhihu.com/p/28054589
91.深度學習(CNN RNN Attention)解決大規模文字分類問題。
用深度學習(CNN RNN Attention)解決大規模文字分類問題 — 綜述和實踐
https://zhuanlan.zhihu.com/p/25928551
92.如何解決RNN梯度爆炸和彌散的問題的?
深度學習與自然語言處理(7)_斯坦福cs224d 語言模型,RNN,LSTM與GRU
http://blog.csdn.net/han_xiaoyang/article/details/51932536
93.如何提高深度學習的效能?
機器學習系列(10)_如何提高深度學習(和機器學習)的效能
http://blog.csdn.net/han_xiaoyang/article/details/52654879
94.RNN、LSTM、GRU區別?
@我愛大泡泡,本題解析來源:
面試筆試整理3:深度學習機器學習面試問題準備(必會)
http://blog.csdn.net/woaidapaopao/article/details/77806273
95.當機器學習效能遭遇瓶頸時,你會如何優化的?
可以從這4個方面進行嘗試:基於資料、藉助演算法、用演算法調參、藉助模型融合。當然能談多細多深入就看你的經驗心得了。
這裡有一份參考清單:機器學習系列(20)_機器學習效能改善備忘單
http://blog.csdn.net/han_xiaoyang/article/details/53453145
96.做過什麼樣的機器學習專案?比如如何從零構建一個推薦系統?
推薦系統的公開課 http://www.julyedu.com/video/play/18/148,另,再推薦一個課程:機器學習專案班 [10次純專案講解,100%純實戰](https://www.julyedu.com/course/getDetail/48)。
97.什麼樣的資料集不適合用深度學習?
@抽象猴,來源:
知乎解答
https://www.zhihu.com/question/41233373
98.廣義線性模型是怎被應用在深度學習中?
@許韓,來源:
99.準備機器學習面試應該瞭解哪些理論知識?
知乎解答
https://www.zhihu.com/question/62482926
100.標準化與歸一化的區別?
簡單來說,標準化是依照特徵矩陣的列處理資料,其通過求z-score的方法,將樣本的特徵值轉換到同一量綱下。歸一化是依照特徵矩陣的行處理資料,其目的在於樣本向量在點乘運算或其他核函式計算相似性時,擁有統一的標準,也就是說都轉化為“單位向量”。規則為L2的歸一化公式如下:
特徵向量的缺失值處理:
1.缺失值較多.直接將該特徵捨棄掉,否則可能反倒會帶入較大的noise,對結果造成不良影響。
2.缺失值較少,其餘的特徵缺失值都在10%以內,我們可以採取很多的方式來處理:
1) 把NaN直接作為一個特徵,假設用0表示;
2) 用均值填充;
3) 用隨機森林等演算法預測填充
關注數據君的臉書:
我是「數據分析那些事」。常年分享數據分析乾貨,不定期分享好用的職場技能工具。按讚我的臉書並私訊「10」,送你十週入門數據分析電子書唷!