Skip to Content Facebook Feature Image

或危及人類安全? AI聊天機器人編造的醫學論文摘要 科學家難辨真假

博客文章

或危及人類安全?  AI聊天機器人編造的醫學論文摘要 科學家難辨真假
博客文章

博客文章

或危及人類安全? AI聊天機器人編造的醫學論文摘要 科學家難辨真假

2023年01月24日 11:02 最後更新:11:13

聊天機器人ChatGPT去年11月發佈後迅速爆紅,有科學家擔憂,其強大的功能不僅導致更難被發現的抄襲問題,更可能誤導基於科學研究的政策決定、影響社會和科學的進步,令人「細思極恐」。

聊天機器人ChatGPT去年11月發佈。AP圖片

聊天機器人ChatGPT去年11月發佈。AP圖片

ChatGPT是人工智能研究實驗室OpenAI在2022年11月30日發佈的全新聊天機器人模型——人工智能技術驅動的自然語言處理工具,埃隆·馬斯克有份創立這個實驗室。

ChatGPT掀起熱潮。

ChatGPT掀起熱潮。

據介紹,ChatGPT支援中文等多國語言,能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,真正像人類一樣來聊天交流,也能完成撰寫郵件、視頻腳本、文案、翻譯、代碼、論文等任務。

不過,ChatGPT在掀起熱潮的同時,也引發了科學家們的擔憂。

去年12月27日,美國西北大學的 Catherine Gao 等人在預印本 bioRxiv 上發表了題為:Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers 的研究論文。

研究團隊使用AI聊天機器人 ChatGPT 寫出了令人信服的研究論文摘要,甚至人類科學家都難以分辨真假。

事實上,自從ChatGPT發佈以來,研究人員就一直在努力解決圍繞其使用的倫理問題,因為它的大部分輸出很難與人類自己所書寫的文本區分開來。在這篇發表於預印本論文中,Catherine Gao 領導的研究團隊使用 ChatGPT 來生成研究論文摘要,以測試科學家是否能發現它們。

研究團隊要求ChatGPT根據發表在 JAMA、NEJM、BMJ、Lancet 和 Nature Medicine 這5個頂級醫學期刊上精選的論文來撰寫50篇醫學研究摘要。然後,研究團隊通過論文剽竊檢測器和人工智能輸出檢測器將這些摘要與原始摘要進行比較,並要求一組醫學研究人員找出那些是ChatGPT所編造的摘要。

結果令人驚訝,ChatGPT所編寫的摘要順利通過了論文剽竊檢查,原創性得分為100%,也就是沒有檢測到抄襲。人工智能輸出檢測器發現了33篇(識別率66%)由ChatGPT所編造的摘要,但人類審稿人並沒有能做得更好,人類審稿人只正確地識別了34篇(識別率68%)由ChatGPT所編造的摘要和86%的真正的論文摘要。也就說是,人類審稿人把32%的ChatGPT所編造的摘要識別為真實的論文摘要,而將14%的真實論文摘要識別為ChatGPT所編造的摘要。這意味著,ChatGPT在編造研究論文摘要方面,達到了人類專家都難辨真假的程度。

Catherine Gao 表示,ChatGPT寫出了令人信服的研究論文摘要,使用大型語言模型來幫助科學寫作的道德和可接受的界限仍有待確定。

這將為我們帶來一個顯而易見的難題:如果科學家都不能判斷這些由ChatGPT所編造的研究論文的真假,可能會帶來「可怕的後果」。這不僅會給科研人員帶來麻煩,因為他們閱讀的研究論文可能是由ChatGPT編造的。這也可能對整個社會帶來麻煩,因為科學研究在社會中發揮重要作用,基於科學研究的政策決定可能會受到ChatGPT編造的研究所誤導。

還有人工智能研究專家為這種依賴大型語言模型進行科學思考的方式感到擔憂,因為這些模型是根據過去的已有信息進行訓練的,而社會和科學的進步往往來自與過去不同的思維或開放思維。

因此,這篇預印本論文作者建議,那些評估研究論文和學術會議紀錄的人,應當制定政策,杜絕使用人工智能來生成文本。如果允許在某些情況下使用這些技術,應當建立明確的規則,並披露具體使用情況。

據悉,將於今年7月在夏威夷舉行的第40屆國際機器學習大會,將會宣佈禁止使用ChatGPT和其他AI語言工具撰寫論文。

在虛假信息可能危及人類安全的領域,例如醫學領域,醫學學術期刊應當採取更嚴格的方法來驗證信息的準確性。

普林斯頓大學的計算機科學家 Arvind Narayanan 表示,任何嚴肅的科學家都不太可能使用ChatGPT來生成論文摘要,使用ChatGPT的好處是微乎其微,而缺點是顯著的。解決使用ChatGPT來編造論文這一問題的方案不應該聚焦在ChatGPT工具本身,而應該聚焦在導致這種行為的動機上,比如有些大學在招聘和晉升審核時,只看論文數量,而不考慮論文的質量或影響力。




深喉

** 博客文章文責自負,不代表本公司立場 **

當地時間12月18日,美國眾議院監督委員會民主黨成員又拋出一個重磅炸彈,最新一批之前從未公開的愛潑斯坦檔案照片曝光,照片中出現了微軟創辦人比爾蓋茨(Bill Gates)、Google共同創辦人布林(Sergey Brin) 、電影導演活地亞倫(Woody Allen) 、哲學家諾姆·喬姆斯基(Noam Chomsky)和前特朗普顧問班農 (Steve Bannon)。其中蓋茲的照片顯示他與一位臉部被遮蓋的女子合照。

上周,美國眾議院議員公布近 90 張照片,但他們總共收到95,000張,當地時間周四公佈的相片,是監督委員會今年稍早透過傳票從愛潑斯坦遺產中獲得的檔案中最新公開的。

綜合外媒報道,除了以上的科技界超級富豪及名人,最新公佈的照片還展示多張愛潑斯坦私人島嶼的相片,以及地圖和建築平面圖。

有一些字寫在女性頸項上字句的照片。

有一些字寫在女性頸項上字句的照片。

還有一些照片上有女性臉部,但都被遮住,據稱是為保護潛在受害者的私隱。但最令人不安的是當中一組女性身體特寫照片,可看到一位塗黑指甲油的女性的腳上,用黑色筆寫了一句話,是1955年備受爭議的小說《Lolita》中的引言「她早上是Lo,平凡的Lo,只穿一隻襪子站著」,腳的旁邊還擺放著一本似乎是翻閱多次的《Lolita》,該小說講述一位知識分子對一名12歲女孩的性迷戀並多次強姦她的故事;還有一些字寫在頸項及胸口上。但相關檔案都未說明照片的拍攝時間、地點或照片中女性身份。

塗黑指甲油的女性腳上,寫了一句關於1955年小說《Lolita》中的引言。

塗黑指甲油的女性腳上,寫了一句關於1955年小說《Lolita》中的引言。

另有一張圖片顯示的是兩個身份不明人士之間的短訊對話截圖,似乎在討論一個價格為1000美元的女孩,當中描述女孩18歲,來自俄羅斯。其他照片顯示,是一些國家的簽證和護照,但已被塗黑,無法確定擁有者。 

不過,最叫人關注的,是照片進一步曝光了蓋茨與愛潑斯坦的關係,雖早已是公開的秘密。在最近一批照片中,蓋次至少出現了兩次,都是和神秘女性同框,其中一張照片似乎是扭着女子腰部,洋溢燦爛笑容,似乎在酒店房間中,另一張則像是在酒店走廊中。

蓋次出現了在新一批愛潑斯坦曝光的照片中,都和女性同框,其中一張似乎在酒店房間中。

蓋次出現了在新一批愛潑斯坦曝光的照片中,都和女性同框,其中一張似乎在酒店房間中。

在早期曝光的一些照片中,已曾出現了現任及前任美國總統特朗普和克林頓、亦有班農和蓋茨。

據知,蓋茨與愛潑斯坦曾多次會面,蓋茨稱這些會面都與慈善事業有關,而且他們與一班相同的人有聯繫;而愛潑斯坦曾試圖建立一個由蓋茨資助、設在摩根大通的慈善組織,但這計畫最終未能實現。愛潑斯坦還指定蓋茨的前顧問為他的遺產候補執行人。

另一張蓋茨與女性的照片,像是在酒店走廊中。

另一張蓋茨與女性的照片,像是在酒店走廊中。

過去,蓋茨曾在訪問中被問及與戀童癖者的關係時曾表示,他「判斷失誤」,並在今年接受《華爾街日報》採訪時形容為「愚蠢之舉」。而他的前妻梅琳達曾公開表示,前夫與愛潑斯坦的交往,是他們的婚姻關係破裂的導火線之一。梅琳達強調,她曾勸阻前夫與愛潑斯坦的往來。

Google共同創辦人布林,亦出現在幾張照片中。

Google共同創辦人布林,亦出現在幾張照片中。

至於Google共同創辦人布林,亦出現在幾張照片中。據知,愛潑斯坦與摩根大通保持著密切的關係, 2004年他將布林介紹給這家銀行,讓他成為該銀行的客戶。後來他也安排銀行成員為布林提供稅務方面的建議。

布林的一些照片似乎是在「The Edge」組織的活動上拍攝,該組織現已停止運作,過往曾舉辦過一些關於思想的會議。愛潑斯坦也曾參與其中。其中一張照片的前景中,布林與《紐約時報》專欄作家 David Brooks一同出現。另谷歌早期員工、後來的YouTube前CEO Salar Kamangar也出現在照片中,似乎參加了2011年同一場活動。

你 或 有 興 趣 的 文 章