Skip to Content Facebook Feature Image

AI新功能變詐騙工具?ChatGPT秒造「超逼真收據」專家警告:驗證機制恐失效

大視野

AI新功能變詐騙工具?ChatGPT秒造「超逼真收據」專家警告:驗證機制恐失效
大視野

大視野

AI新功能變詐騙工具?ChatGPT秒造「超逼真收據」專家警告:驗證機制恐失效

2025年04月05日 15:20 最後更新:15:50

OpenAI3月25日推出了一項新的原生圖片生成功能,一推出就掀起全球熱潮。然而,一些科技專家發現這項新功能竟然還可以偽造發票和帳單,經測試後看起來就和真的發票一樣。

OpenAI推原生圖片生成功能

OpenAI3月25日上線了一項新的原生圖片生成功能,引起使用熱潮。執行長阿特曼(Sam Altman)甚至發文求饒說「我們的GPU都快融化啦!」

ChatGPT秒造「超逼真收據」

知名科技網紅暨創投家達斯(Deedy Das)在個人社交平台上貼出一張在舊金山牛扒館的假收據,他表示這是他使用ChatGPT生成功能所製作的,並寫下:「你可以用生成功能製作假收據。以往現實中的驗證流程仰賴『真實影像』作為證明,但那個時代已經結束了,造假變得更加逼真和難以辨識。」其他網友也紛紛貼出假收據或帳單的照片,發現皺巴巴的發票以及有污漬的收據,通通難不倒ChatGPT,製造出來的成品就像是真實的。

外媒測試現數據誤差

外媒《TechCrunch》網站也測試了一家餐廳的假收據,但發現與原始收據的標點符號以及數字排列出現誤差,暴露出假收據的痕跡。然而該網站也表示,這只是AI運算上的小錯誤,要修正並非難事,甚至只要使用修圖軟件就可以達到造假的效果。

AP圖片

AP圖片

OpenAI發言人克里斯汀森(Taya Christianson)回應表示所有由ChatGPT製作的影像都包含元數據,表明其出處。她補充說,若用戶違反使用政策,OpenAI會「採取行動」,且一直在從現實世界的使用和反饋中「學習」,不會讓新功能變成詐騙工具。

OpenAI發言人:目標是給予用戶「盡可能多的創作自由」

《TechCrunch》進一步詢問,為何允許用戶能夠生成假發票和帳單以及是否違反禁止詐欺的使用政策時,克里斯汀森表示OpenAI的目標是給予用戶「盡可能多的創作自由」,AI假收據除了用於詐欺,也可能出現在「教導民眾理財知識」等非詐欺情境,以及用來創作原創藝術和產品廣告。

示意圖

示意圖

隨著AI發展,人們開始向ChatGPT等聊天機器人傾訴各種疑難雜症,然而,專家指出,有5件事情明顯不應該告訴AI,因為這可能帶來潛在的風險,尤其在工作場景中,可能意外洩露企業機密。

專家警告:這5類資訊絕對不能告訴ChatGPT

史丹佛大學「人本人工智慧研究中心」(HAI)的研究員珍妮佛(Jennifer King)告訴《華爾街日報》,當你向聊天機器人輸入某些信息時,「你就失去了對它的控制權」。

1.企業資訊:

在工作中使用ChatGPT或其他AI聊天機器人時,例如撰寫電子郵件或編輯文件,可能會不小心洩露客戶資料或商業機密。一些公司可能會訂閱企業版AI聊天機器人或使用具有保護措施的定制AI程式,以防止此類問題。

2.醫療結果:

儘管醫療行業非常重視患者隱私並保護個人資料不受歧視,但AI聊天機器人通常不包括在這一範疇內。如果您覺得有必要向ChatGPT解釋醫療檢測結果,建議在上傳文件之前先進行剪裁或編輯,只保留檢測結果的部分。

示意圖

示意圖

3.登入資訊:

有些人可能認為AI在執行任務方面能力提高,可以放心提供各平台的帳號密碼給它們,但AI機器人並非保險箱,無法保證這些帳號的安全。請使用「密碼管理工具」來保存這些資訊。

4.身分資訊:

不要向ChatGPT透露任何身分證明資訊,例如生日、地址、電話號碼、身分證號碼或護照號碼。即使一些聊天機器人會對這些敏感資訊進行編輯,最安全的方法是完全避免分享這些資訊。

5.金融帳號:

絕對不要提供您的銀行或投資帳號,這些資訊可能會被駭客入侵,導致資金流向遭到監控或盜用。

OpenAI的一名發言人向《華爾街日報》表示,「我們希望我們的AI模型了解世界,而不是個人。我們積極減少蒐集個人資訊。」

建議使用高強度密碼並啟用多重要素驗證

如果您仍希望與AI分享私密資訊,建議使用高強度密碼,並啟用多重要素驗證。人工智能公司「Anthropic」的首席執行官克林頓(Jason Clinton)建議,可以在每次使用完畢後「刪除對話框」,通常企業會在30天後永久刪除這些數據。

你 或 有 興 趣 的 文 章