Skip to Content Facebook Feature Image

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT

大視野

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT
大視野

大視野

跟AI聊天要小心!專家警告:這5類資訊絕對不能告訴ChatGPT

2025年04月18日 16:20 最後更新:17:18

隨著AI發展,人們開始向ChatGPT等聊天機器人傾訴各種疑難雜症,然而,專家指出,有5件事情明顯不應該告訴AI,因為這可能帶來潛在的風險,尤其在工作場景中,可能意外洩露企業機密。

專家警告:這5類資訊絕對不能告訴ChatGPT

史丹佛大學「人本人工智慧研究中心」(HAI)的研究員珍妮佛(Jennifer King)告訴《華爾街日報》,當你向聊天機器人輸入某些信息時,「你就失去了對它的控制權」。

1.企業資訊:

在工作中使用ChatGPT或其他AI聊天機器人時,例如撰寫電子郵件或編輯文件,可能會不小心洩露客戶資料或商業機密。一些公司可能會訂閱企業版AI聊天機器人或使用具有保護措施的定制AI程式,以防止此類問題。

2.醫療結果:

儘管醫療行業非常重視患者隱私並保護個人資料不受歧視,但AI聊天機器人通常不包括在這一範疇內。如果您覺得有必要向ChatGPT解釋醫療檢測結果,建議在上傳文件之前先進行剪裁或編輯,只保留檢測結果的部分。

示意圖

示意圖

3.登入資訊:

有些人可能認為AI在執行任務方面能力提高,可以放心提供各平台的帳號密碼給它們,但AI機器人並非保險箱,無法保證這些帳號的安全。請使用「密碼管理工具」來保存這些資訊。

4.身分資訊:

不要向ChatGPT透露任何身分證明資訊,例如生日、地址、電話號碼、身分證號碼或護照號碼。即使一些聊天機器人會對這些敏感資訊進行編輯,最安全的方法是完全避免分享這些資訊。

5.金融帳號:

絕對不要提供您的銀行或投資帳號,這些資訊可能會被駭客入侵,導致資金流向遭到監控或盜用。

OpenAI的一名發言人向《華爾街日報》表示,「我們希望我們的AI模型了解世界,而不是個人。我們積極減少蒐集個人資訊。」

建議使用高強度密碼並啟用多重要素驗證

如果您仍希望與AI分享私密資訊,建議使用高強度密碼,並啟用多重要素驗證。人工智能公司「Anthropic」的首席執行官克林頓(Jason Clinton)建議,可以在每次使用完畢後「刪除對話框」,通常企業會在30天後永久刪除這些數據。

OpenAI宣布全球展開ChatGPT的「年齡預測」機制,透過演算法識別帳戶持有者是否為未成年人。一旦系統判定使用者可能未滿18歲,將自動啟動額外保護措施,限制接觸敏感內容的範圍。

OpenAI宣布全球展開ChatGPT的「年齡預測」機制

根據《路透社》等外部媒體報導,OpenAI發表聲明指出,當「年齡預測」模型估計某個帳戶可能屬於18歲以下使用者時,ChatGPT將自動採取額外保護措施,以降低接觸敏感內容的風險。

預計將在未來幾周內在歐盟推出

這個模型將綜合分析使用者的長期行為模式、帳戶建立時間、登入時間等資訊。如果成年用戶被錯誤判定為18歲以下,可以透過身份驗證服務Persona提交自拍照片重新驗證,以恢復完整的使用權限。這項功能預計將在未來幾周內在歐盟推出。

預計今年第一季推出ChatGPT的「成人模式」

去年12月,OpenAI的應用執行長西莫(Fidji Simo)透露,預計在今年第一季推出ChatGPT的「成人模式」,允許通過年齡驗證的用戶存取成人內容。

OpenAI宣布全球展開ChatGPT的「年齡預測」機制,透過演算法識別帳戶持有者是否為未成年人。AP圖

OpenAI宣布全球展開ChatGPT的「年齡預測」機制,透過演算法識別帳戶持有者是否為未成年人。AP圖

目前,ChatGPT的每週活躍用戶已達8億人。上周,該公司還宣布將向部分美國用戶投放廣告,積極擴大營收來源。在微軟的支持下,OpenAI去年的年收入已經突破了200億美元,較2024年的60億美元有大幅增長。

你 或 有 興 趣 的 文 章