Skip to Content Facebook Feature Image

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT

大視野

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT
大視野

大視野

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT

2025年04月18日 16:20 最後更新:17:18

隨著AI發展,人們開始向ChatGPT等聊天機器人傾訴各種疑難雜症,然而,專家指出,有5件事情明顯不應該告訴AI,因為這可能帶來潛在的風險,尤其在工作場景中,可能意外洩露企業機密。

專家警告:這5類資訊絕對不能告訴ChatGPT

史丹佛大學「人本人工智慧研究中心」(HAI)的研究員珍妮佛(Jennifer King)告訴《華爾街日報》,當你向聊天機器人輸入某些信息時,「你就失去了對它的控制權」。

1.企業資訊:

在工作中使用ChatGPT或其他AI聊天機器人時,例如撰寫電子郵件或編輯文件,可能會不小心洩露客戶資料或商業機密。一些公司可能會訂閱企業版AI聊天機器人或使用具有保護措施的定制AI程式,以防止此類問題。

2.醫療結果:

儘管醫療行業非常重視患者隱私並保護個人資料不受歧視,但AI聊天機器人通常不包括在這一範疇內。如果您覺得有必要向ChatGPT解釋醫療檢測結果,建議在上傳文件之前先進行剪裁或編輯,只保留檢測結果的部分。

示意圖

示意圖

3.登入資訊:

有些人可能認為AI在執行任務方面能力提高,可以放心提供各平台的帳號密碼給它們,但AI機器人並非保險箱,無法保證這些帳號的安全。請使用「密碼管理工具」來保存這些資訊。

4.身分資訊:

不要向ChatGPT透露任何身分證明資訊,例如生日、地址、電話號碼、身分證號碼或護照號碼。即使一些聊天機器人會對這些敏感資訊進行編輯,最安全的方法是完全避免分享這些資訊。

5.金融帳號:

絕對不要提供您的銀行或投資帳號,這些資訊可能會被駭客入侵,導致資金流向遭到監控或盜用。

OpenAI的一名發言人向《華爾街日報》表示,「我們希望我們的AI模型了解世界,而不是個人。我們積極減少蒐集個人資訊。」

建議使用高強度密碼並啟用多重要素驗證

如果您仍希望與AI分享私密資訊,建議使用高強度密碼,並啟用多重要素驗證。人工智能公司「Anthropic」的首席執行官克林頓(Jason Clinton)建議,可以在每次使用完畢後「刪除對話框」,通常企業會在30天後永久刪除這些數據。

巴基斯坦英文報章《黎明報》11 月 12 日印刷版商業版刊出汽車銷量報道時,整段 ChatGPT 提示語忘記刪除,連同正文章節一併印出。

 
 
 
 
 
在 Instagram 查看這則貼文
 
 
 
 
 
 
 
 
 
 
 

AI | Technology(@theaifield)分享的貼文

提示語完整留在專題末段

事件涉及一篇分析 10 月汽車銷量的報道,署名為記者撰寫。印刷版讀者翻頁至末段時可見,文章結語突然出現一段屬於 ChatGPT 的編輯提示文字,內容建議製作「更俐落的頭版風格版本」,並提出加入「有力的一行式統計數字」及「適合資訊圖表的版面」。

提示語未有被刪除,排版與正文保持一致,字體大小相同,與一般新聞段落無異。

網上版本曾保留同一段落

同一段文字曾出現在《黎明報》網頁版本,內容與印刷版一致,包括建議以圖像化方式呈現統計數據。其後,該文章已從網站內被移除。

由讀者發現並上傳熱議

多張清晰截圖由讀者拍攝,包括報紙摺頁位置、文章排版及提示語完整內容,字句排列清楚可辨。當中可見提示語段落緊接數據分析部分,未有任何標註或分隔。

Reddit 截圖

Reddit 截圖

印刷版內容固定無法更改

《黎明報》於 1941 年由真納(Muhammad Ali Jinnah)創辦。印刷版內文在出版後無法修改,AI原始提示語段落隨實體報紙流通,成為證物,該期報紙可能會成爲詼諧的收藏品。此前,坦桑尼亞報紙在政治人物專題中亦曾誤將 ChatGPT 提示語原樣刊出。

你 或 有 興 趣 的 文 章