ChatGPT 出現以後,很多學術機構都發出了禁令,因爲這種 AI 雖然生成能力強,但有時會胡說八道,濫用大模型寫文章也違背了做研究的初衷。
但隨着大模型的應用浪潮,我們很快忘記了剛開始的恐懼。有學術機構正在解禁,微軟也計劃在年內把 ChatGPT 整合到 Office 全家桶裏。或許過不了多久,人人都可以用大模型去寫文章。
這讓人不得不去想象以後的學術論文會被 AI 生成的內容衝擊成什麼樣。其實,這種事可能已經在發生了。
近期,有個斯坦福本科生在谷歌學術搜索(Google Scholar)上就發現了這類「渾水摸魚」的摻假論文。
當你輸入「“As an AI language model” -“ChatGPT”」搜索時,會搜到很多直接將 ChatGPT 答案貼上去的論文。
比如下面這篇經過同行評審、發表在《國際工程與技術創新期刊》的論文中,作者似乎遺漏了一個重要的合著者 — — AI 語言模型(ChatGPT)。
突出一個投者無心,審稿故意。
另外一篇經過同行評審、發表在《網絡銀行和商業雜誌》上的論文,題目爲《基於反向傳播神經網絡和梯度下降的股價預測》,同樣有不存在的作者 — — ChatGPT。
開篇就是 AI,看上去讓人忍俊不禁。
類似例子還有很多,比如下面兩篇分別發表在《國際現代農業和環境期刊》和《技術創新和能源雜誌》上的論文。
更離譜的是,下面這篇發表在《國際高級工程和土木研究期刊》的論文,ChatGPT 甚至引用了作者 X 和 Y 的一篇虛假(fake)文章。
除了參與論文撰寫之外,ChatGPT 還參與了一些書籍的寫作,比如下面的《性知識入門》和《利比亞概覽》。
我們也在谷歌學術中輸入「“As an AI language model” -“ChatGPT”」,結果出現了 10 個頁面,有 100 篇左右。
Andrew Kean Gao 的發現在推特(X)上吸引了上百萬人的圍觀,Google Scholar 似乎對此很快做出了反應。最新的情況是:很多能被搜到的 AI 文章只有名字,不給鏈接了。不過必須要說的是,這距離真正的「整頓」還差的挺遠。
在 AI 領域,大模型的發展速度以天爲計,學術期刊的審稿規則爲了應對也在急速變化。此前,很多期刊、會議禁止將 ChatGPT 列爲合著者。
其中《科學》雜誌明確表示不接受 ChatGPT 生成的論文,也不允許 ChatGPT 作爲論文作者。《自然》雜誌則表示可以使用 ChatGPT 等大語言模型工具撰寫論文,但也禁止列爲論文合著者。
對於這位斯坦福本科生的發現,有人揶揄道,你不會以爲人們在發表論文之前會再通讀一遍吧。也有人再補了一刀,在發表之前讓 ChatGPT 再讀一遍。
或許真正的問題在於,這些論文是如何通過編輯審覈或同行評審的。
最後有人一語道破天機,表示這些都是四級(four-tier)期刊,只要付錢啥都可以發表,都是一些毫無意義的垃圾。
至少目前來說,ChatGPT 生成的論文還沒造成太大影響。就是不知這種工具在 Office 上真正流行起來,學術界會變成什麼樣子。
文章來源:数据派THU
原文鏈接:https://mp.weixin.qq.com/s/Dn-MujLxdwgV_ewdke195A
※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※※
文章推薦
◆跟資料打交道的人都得會的這8種資料模型,滿足工作中95%的需求
關注數據君的臉書:
我是「數據分析那些事」。常年分享數據分析乾貨,不定期分享好用的職場技能工具。按贊我的臉書,會有豐富資料包贈送唷!