新火種AI|垃圾論文泛濫成災,專業領域的AI監管將何去何從?
作者:小巖
編輯:彩云
OpenAI研發的聊天機器人模型ChatGPT如今已經成為了全世界范圍內無人不知,無人不曉的AI利器了。自2022年11月推出以來,歷經多次的迭代和升級,如今的GPT4版本已經擁有了十分強大的文本生成能力。
它能夠根據用戶提示生成原創文章,故事,歌詞等內容,并在一些測試中顯示出驚人的表現,甚至可以通過高難度的專業考試,諸如法律考試,美國醫學執照考試等。不過,隨著ChatGPT的普及,它的濫用問題也不斷出現,甚至還給學術圈帶去了一系列問題和困擾。
ChatGPT攻陷學術圈,垃圾論文比比皆是。
“用AI寫論文” 成為了當今學術圈的通病,我們先來看看用ChatGPT寫出的論文是什么樣子的。
這一篇題目為Comprehensive Review of the Book Study of Language by George Yule的社科類論文被發表在迪拜大學的Saudi Journal of Humanities and Social Sciences(沙特人文與社會科學雜志)上。作者是來自印度北方邦的研究人員,包括Muneer Alam教授,Munawwar Mushtaque教授和Mohd Rizwanullah教授。
這篇文章的表達十分有問題,可以看到,文中Limitations這部分,一上來就是“作為一個語言模型,我無法對書籍的質量發表個人看法”,讓人一眼看出作者的真實身份其實是ChatGPT。
而這一篇名為Synergistic Effect of Phosphatic Fertilizer and Biofertilizers on Soil Enzyme Activity and Yield of Finger Millet (Eleusine coracana L.)的文章,發表在了Biological Forum – An International Journal(生物論壇 - 國際期刊)上。作者有四位,其中一位標明自己的職位是副院長,另一位的職位則是高級科學家。就是這樣一篇諸多大?!皩憽背鰜淼奈恼?,卻早早暴露除了ChatGPT代筆的痕跡。
就連十分小眾的神學領域也被ChatGPT染指了,來自山景學院神學院的Christian Joseph Pacoli,就借助ChatGPT探索了基督的本質。這篇名為Exploring the Nature of Christ: An Insightful Examination of Seventh-day Adventist的文章,充滿了ChatGPT的痕跡。據了解,位于谷歌總部附近的山景學院,是美國為低收入學生提供優質教育的頂尖學校之一。
ChatGPT能在學術圈大行其道,足以說明這個領域的浮躁和良莠不齊。很多合著的教授,甚至是指導老師,都對ChatGPT在學術圈的肆意蔓延置之不理。這些人作為指導老師,似乎也只關心自己能不能盡快完成論文的“配額”,卻不在意文章的質量和深度到底達不達標。
更離譜的是,直到文章最終見刊,整個流程里竟然沒有任何人發現問題和端倪,這說明大概率是沒有人認真閱讀過這些利用ChatGPT生成的內容。由此可見,搞科研的用AI寫論文,學生用AI寫作業,老師也用AI批作業,整個過程都沒有真人來參與了。
AI濫用導致學術誠信危機,ChatGPT會成為學術造假的幫兇嗎?
不可否認,ChatGPT具有強大的自然語言處理能力和大規模預訓練模型的知識庫,使其能夠自動生成文章和論文,回答學生的問題、幫助學生完成作業等。但與此同時,它也是一把雙刃劍,ChatGPT會讓學生過于依賴于技術,減少他們的獨立思考能力和創造性,從而可能對學生的學術能力和研究能力產生負面影響,甚至影響學術誠信和教育質量。
從某種程度上說,用ChatGPT直接寫論文的方式,和從維基百科上“復制粘貼”的行為并沒有什么不同。此外,ChatGPT的大規模預訓練模型的知識來源于互聯網上的大量文本數據?;ヂ摼W上的信息質量良莠不齊,經常存在不準確和不全面的信息,這些信息可能不符合學術標準和規范,從而可能導致學術研究存在誤導性和偏見。
也正因此,許多高校開始重新定義作弊和剽竊,一些院校明令禁止學生在論文和作業中使用ChatGPT。譬如Bryn Mawr學院學生榮譽委員會主席Carlee Warfield表示,使用人工智能平臺的行為一律被視為剽竊;香港大學向全體師生發出通告,稱禁止在所有課堂,作業和評估中使用ChatGPT或其他AI工具,否則將被視為抄襲;法國頂尖學府之一的巴黎政治學院也宣布,該校將禁止使用ChatGPT。
當ChatGPT遇上學術圈:機遇與挑戰并存的時刻到來了。
早在去年,一則醫生利用ChatGPT寫論文的新聞就刷屏了。
美國田納西大學健康科學中心的一名放射科醫生用ChatGPT狂寫論文,在4個月時間里直接肝出16篇。更奇葩的是,其中的5篇文章已經發表了。很顯然,這樣的行為已經很大程度的影響到學術的專業度和嚴謹性了。
當然,學術類的文章并非不能使用AI。但是AI的作用應該只限于提高作品的可讀性和語言性,而不應該取代關鍵的寫作任務。AI不能夠,也不應該在嚴肅的學術論文中給出科學結論,提供臨床建議等。即便AI會通過計算產生科學,教學,醫學見解,抑或得出某些科學結論或提供臨床建議,這些內容也應該在人類的監督和控制下完成,所有的工作都應該被仔細審查和編輯。因為即便AI產生聽起來權威的輸出,但這些輸出有可能是不正確的,不完整的或有偏見的。人類作者始終要對作品內容負有最終責任和義務。
我們不能否認以ChatGPT為代表的各類AI模型的功能和優勢,這的確是一個非常實用的工具,但也只是工具而已,我們不能將 ChatGPT 視為萬能的解決方案。
人會犯錯,由人類主導研發的AI自然也會犯錯。我們要明確“ChatGPT 的確會是存在一些限制和缺陷”這一事實,接受它可能會產生一些錯誤的回答或者無法理解某些復雜的問題的可能。更重要的是,所以它不應該作為知識的唯一來源,只能作為搜索引擎的輔助,對于要追求嚴謹和專業的學術圈而言,就更是如此了。
所以,如果你還是學生,或許有撰寫學術論文的任務,請務必謹慎使用AI模型,學會正確使用和評估它們輸出結果,不過度依賴其提供的結論和答案,從而確保學術研究的準確性和可靠性。
轉載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規范轉載侵權必究。
未經授權嚴禁轉載,授權事宜請聯系作者本人,侵權必究。
本文禁止轉載,侵權必究。
授權事宜請至數英微信公眾號(ID: digitaling) 后臺授權,侵權必究。
評論
評論
推薦評論
暫無評論哦,快來評論一下吧!
全部評論(0條)