美國科學家小組宣佈「末日之鐘」被撥快10秒,並聲稱俄羅斯的核武器威脅和中國核能力擴張是影響原因。對此,俄聯邦安全會議副主席梅德韋傑夫回應稱美德領導人是「鐘錶匠」,呼籲他們阻止「核時鐘」嘀嗒向前。而對於外媒渲染的所謂「中國核武庫擴張」,中國亦已作出多次回應。
當地時間24日,華盛頓國家新聞俱樂部新聞發布會上,美國《原子科學家公報》雜志的科學家小組成員揭開「末日之鐘」上的幕布。
當地時間24日,華盛頓國家新聞俱樂部新聞發布會上,美國《原子科學家公報》雜志的科學家小組成員揭開「末日之鐘」上的幕布。
據美國全國公共廣播電台(NPR)、英國《衛報》、俄羅斯塔斯社等媒體報道,美國《原子科學家公報》雜誌的科學家小組於當地時間週二(24日)在華盛頓國家新聞俱樂部新聞發佈會上宣佈,將「末日之鐘」撥快10秒,距離象徵「世界末日的午夜」僅剩90秒。
《衛報》稱,這是該時鐘自其1947年設立來最接近「午夜」的時刻,該時鐘的設立是為了說明上世紀核武器時代初期全球面臨的生存威脅程度。英國天空新聞網說,這也意味著「全球比以往任何時候都更加接近災難」。
《原子科學家公報》雜誌負責人雷切爾·布朗森稱,「我們生活在一個前所未有的危險時期,末日之鐘的時間反映了這個現實。(僅剩)90秒是時鐘距離午夜最近的時刻,我們的專家不會輕易做出這個決定。」
因此,此次關於「末日之鐘」時間調整的聲明將不僅以英文發佈,還會首次以俄語和烏克蘭語發佈。
布朗森還表示,時鐘再次調快,「主要但不完全是由於發生在烏克蘭的戰爭」。據英國天空新聞網報道,該雜誌在官網新聞稿中聲稱,俄羅斯的核武器威脅、美俄之間僅存的最後一項主要軍控條約岌岌可危、中國核能力擴張、朝鮮加強中程和遠程導彈試驗、伊朗提升鈾濃縮能力、印度擴張武器庫、氣候危機、新冠疫情等因素也是影響該時鐘撥快的原因。
實際上,對於一些人炒作所謂「中國核武庫擴張」,中方已多次作出回應。本月16日,中國外交部發言人汪文斌表示,中國始終堅定奉行自衛防禦的核戰略,恪守任何時候、任何情況下不首先使用核武器,明確承諾無條件不對無核武器國家和無核武器區使用或威脅使用核武器。中國是五個核武器國家中唯一作出上述承諾的國家。中國核力量始終維持在國家安全需要的最低水平。任何國家只要不對中國使用核武器,都不會受到中國核武器的威脅,這是最有實際意義的透明。中方敦促美方等國家摒棄冷戰思維,不搞陣營對抗,切實履行核裁軍和核不擴散義務,為維護國際和地區和平穩定發揮應有作用。
據塔斯社報道,克里姆林宮發言人佩斯科夫25日在評論「末日之鐘」被撥快10秒的相關報道時表示,局勢非常令人擔憂,鑒於北約以及美國政府的政策,局勢尚無緩和跡象。
此外,佩斯科夫總結道,「這使我們有責任特別地細心關注,保持警惕,快速反應,並採取適當的措施。」
另一方面,據俄羅斯連塔網報道,俄聯邦安全會議副主席梅德韋傑夫對俄新社說,美德領導人應阻止「核時鐘」嘀嗒向前。
梅德韋傑夫稱美國總統拜登和德國總理朔爾茨是「鐘錶匠」,並呼籲他們阻止「核時鐘」嘀嗒向前。他在回答需要做些什麼才能把時鐘往回撥的問題時說:「他們需要明白,這個鐘的烏克蘭指針早已生鏽。」
據新華社介紹,《原子科學家公報》由研製世界上第一枚原子彈的美國科學家於1945年創辦。這家雜誌於1947年設立「末日之鐘」,旨在警示人類,關注威脅人類文明的核武器擴散等諸多重大問題,從2007年開始關注氣候變化。「末日之鐘」由包括諾貝爾獎獲得者在內的科學家和政策專家負責調整,指針越靠近午夜,表明人類文明所面臨的威脅越大。1947年剛設立時指針設定在11時53分,此後多次調整,最接近午夜的是美國試爆第一顆氫彈後在1953年調至11時58分,離零點最遠的是1991年冷戰結束後的11時43分。NPR介紹,在2020年,「末日之鐘」被調整至距離象徵「世界末日的午夜」僅剩100秒,這是該時鐘首次以秒計時、而不是分鐘,在當時引發轟動。
深喉
** 博客文章文責自負,不代表本公司立場 **
聊天機器人ChatGPT去年11月發佈後迅速爆紅,有科學家擔憂,其強大的功能不僅導致更難被發現的抄襲問題,更可能誤導基於科學研究的政策決定、影響社會和科學的進步,令人「細思極恐」。
聊天機器人ChatGPT去年11月發佈。AP圖片
ChatGPT是人工智能研究實驗室OpenAI在2022年11月30日發佈的全新聊天機器人模型——人工智能技術驅動的自然語言處理工具,埃隆·馬斯克有份創立這個實驗室。
ChatGPT掀起熱潮。
據介紹,ChatGPT支援中文等多國語言,能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,真正像人類一樣來聊天交流,也能完成撰寫郵件、視頻腳本、文案、翻譯、代碼、論文等任務。
不過,ChatGPT在掀起熱潮的同時,也引發了科學家們的擔憂。
去年12月27日,美國西北大學的 Catherine Gao 等人在預印本 bioRxiv 上發表了題為:Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers 的研究論文。
研究團隊使用AI聊天機器人 ChatGPT 寫出了令人信服的研究論文摘要,甚至人類科學家都難以分辨真假。
事實上,自從ChatGPT發佈以來,研究人員就一直在努力解決圍繞其使用的倫理問題,因為它的大部分輸出很難與人類自己所書寫的文本區分開來。在這篇發表於預印本論文中,Catherine Gao 領導的研究團隊使用 ChatGPT 來生成研究論文摘要,以測試科學家是否能發現它們。
研究團隊要求ChatGPT根據發表在 JAMA、NEJM、BMJ、Lancet 和 Nature Medicine 這5個頂級醫學期刊上精選的論文來撰寫50篇醫學研究摘要。然後,研究團隊通過論文剽竊檢測器和人工智能輸出檢測器將這些摘要與原始摘要進行比較,並要求一組醫學研究人員找出那些是ChatGPT所編造的摘要。
結果令人驚訝,ChatGPT所編寫的摘要順利通過了論文剽竊檢查,原創性得分為100%,也就是沒有檢測到抄襲。人工智能輸出檢測器發現了33篇(識別率66%)由ChatGPT所編造的摘要,但人類審稿人並沒有能做得更好,人類審稿人只正確地識別了34篇(識別率68%)由ChatGPT所編造的摘要和86%的真正的論文摘要。也就說是,人類審稿人把32%的ChatGPT所編造的摘要識別為真實的論文摘要,而將14%的真實論文摘要識別為ChatGPT所編造的摘要。這意味著,ChatGPT在編造研究論文摘要方面,達到了人類專家都難辨真假的程度。
Catherine Gao 表示,ChatGPT寫出了令人信服的研究論文摘要,使用大型語言模型來幫助科學寫作的道德和可接受的界限仍有待確定。
這將為我們帶來一個顯而易見的難題:如果科學家都不能判斷這些由ChatGPT所編造的研究論文的真假,可能會帶來「可怕的後果」。這不僅會給科研人員帶來麻煩,因為他們閱讀的研究論文可能是由ChatGPT編造的。這也可能對整個社會帶來麻煩,因為科學研究在社會中發揮重要作用,基於科學研究的政策決定可能會受到ChatGPT編造的研究所誤導。
還有人工智能研究專家為這種依賴大型語言模型進行科學思考的方式感到擔憂,因為這些模型是根據過去的已有信息進行訓練的,而社會和科學的進步往往來自與過去不同的思維或開放思維。
因此,這篇預印本論文作者建議,那些評估研究論文和學術會議紀錄的人,應當制定政策,杜絕使用人工智能來生成文本。如果允許在某些情況下使用這些技術,應當建立明確的規則,並披露具體使用情況。
據悉,將於今年7月在夏威夷舉行的第40屆國際機器學習大會,將會宣佈禁止使用ChatGPT和其他AI語言工具撰寫論文。
在虛假信息可能危及人類安全的領域,例如醫學領域,醫學學術期刊應當採取更嚴格的方法來驗證信息的準確性。
普林斯頓大學的計算機科學家 Arvind Narayanan 表示,任何嚴肅的科學家都不太可能使用ChatGPT來生成論文摘要,使用ChatGPT的好處是微乎其微,而缺點是顯著的。解決使用ChatGPT來編造論文這一問題的方案不應該聚焦在ChatGPT工具本身,而應該聚焦在導致這種行為的動機上,比如有些大學在招聘和晉升審核時,只看論文數量,而不考慮論文的質量或影響力。