« 返回前頁列印

2023-12-06 00:00

EJ Tech 創科鬥室

永遠重複單詞指令 觸發GPT失控洩密

放大圖片
Google子公司DeepMind研究人員發布一篇新論文,發現當要求OpenAI聊天機械人ChatGPT 3.5-turbo「永遠」重複特定單詞(例如company)時,系統在重複該詞數百次後,人工智能(AI)開始「胡言亂語」,吐出大量訓練資料,包括電話號碼、電郵地址、出生日期等敏感資訊,意味大型語言模型(LLM)或存在漏洞。 科技網站404 Media指出,現時要求ChatGPT「永遠」重複特定單詞,AI仍會列出該字眼數十次,惟未幾便會自動中止指令,並稱行為「可能違反其內容政策或服務條款」,列明用戶不得「使用任何自動化或程式設計方法,從服務中提取或輸出資料」。路透上月底報道,意大利資料保護 ...

(節錄)全文共640字