尷尬了,寫物理論文時把ChatGPT按鈕上的字也複製了進去。
結果不僅通過了兩個月的同儕審查,甚至最終在雜誌上公開發表。
而發現這一現象的正是知名打假人法國土魯斯大學副教授吉揚‧卡巴納克(Guillaume Cabanac),曾入選Nature年度十大人物。
Nature最新報導稱,這並非個例,甚至只是「冰山一角」。
要說在論文裡出現「Regenerate response」還算比較隱晦,還有更離譜更明顯的。
比如,直接將「As an AI language model, I(作為人工智慧語言模型,我……)」整句話都複製/貼上。
嗯…這也太隨便了一點。
只是冰山一角
幾天前,Physica Scripta雜誌發表了一篇論文,旨在發現複雜數學方程式的新解。
結果沒想到的是,在論文第三頁出現了類似ChatGPT按鈕上句子「Regenerate Response」。
出版商的同儕審查和誠信負責人表示,作者後來向期刊證實,他們使用ChatGPT來幫助起草手稿。
而在此之前,論文5月提交、修改版又於7月提交以及後續的排版均未發現這樣的異常情況。
目前出版商已經決定撤回這一論文,理由是作者提交時沒有聲明他們使用該工具,這一行為違反了他們的道德政策。
事實上,這並非唯一案例。自pubpeer不完全統計,4個月以來就有十幾篇含有「Regenerate Response」或「As an AI language model, I …」的文章。
以「As an AI language model, I …」為例,搜索就有8個結果,最新一次是在三天前發現的。
對此這也給同儕審查人員帶來更嚴峻的考驗,一來他們通常沒有時間去徹底檢查;二來看門人的數量跟不上。
不過也有一些特定的方法,像如ChatGPT在內的大模型會擅長吐出假文獻。Retraction Watch就曾爆出一篇由AI撰寫的千足蟲預印本,因為含有虛假引用而被撤回,隨後又被重新上線。
可以用,聲明即可
事實上,這並非意味著研究者們不能用ChatGPT以及其他大模型工具協助撰寫稿件。
Elsevier和Springer Nature在內的許多出版商都表示:
可以用,聲明即可。
此前,就有來自田納西大學健康科學中心的放射科醫生索姆·比斯瓦斯(Som Biswas),在4個月內使用ChatGPT寫了16篇論文,並在4個不同的期刊上發表了5篇。
當他第一次提交論文時,就跟編輯坦言:你看到的所有內容都是AI寫的。
結果就在幾天後,這篇論文通過同儕審查,並在雜誌Radiology上發表。
於是在這之後一發不可收拾,寫的論文也並不局限於放射學專業,包括教育、農業、法律等。
對一部分人來說,以ChatGPT為代表的大模型著實提高了他們的生產效率。
資料來源:
- Scientific sleuths spot dishonest ChatGPT use in papers
- https://pubpeer.com/search
- https://pubpeer.com/publications/DF3D58918B5A0BD5943E6D280ED7E2