DeepSeek 太危險的人工智能(圖)
2025年2月9日發表
【人民報消息】《華爾街日報》與AI安全專家測試發現,中國人工智能(AI,或譯人工智慧)應用程序DeepSeek比OpenAI、Google和Anthropic的產品更易被「越獄」(Jailbreaking),並且提供危險性內容。
該應用基於DeepSeek-R1模型,1月推出後一度超越ChatGPT,成為美國iOS應用商店(App Store)最熱門的免費應用,導致英偉達(Nvidia,輝達)股價下跌18%。
AI開發商通常會訓練自家模型,使其不會分享危險信息或支持某些冒犯性言論。例如,這些應用通常會拒絕直接請求,不會教授如何製造大規模殺傷性武器等。
《華爾街日報》報導,測試顯示,DeepSeek這款自詡低成本開發的聊天機器人會向用戶提供具有危害性甚至不法內容,如製造禽流感病毒的指導方案、撰寫為希特勒辯護的宣言,甚至策劃針對青少年的社交媒體運動,如割腕自殘。此外,破解後的AI還提供生物武器製造指南、釣魚郵件模板及惡意軟件代碼。
何為AI「越獄」
黑客或測試人員可通過「越獄」(Jailbreaking)技術,繞過AI內建的安全限制。例如,通過偽裝自己的真實意圖,要求AI「假設自己是一部電影劇本的編劇」,進而讓AI提供危險信息。美國主要AI開發商,如OpenAI的ChatGPT、Google的Gemini和Anthropic的Claude,都投入大量資源防範這類「越獄」手法。
但測試顯示,DeepSeek的R1模型比這些美國產品更易被「越獄」。
安全漏洞與開源風險
DeepSeek雖設有部分安全防護,但測試顯示,DeepSeek的防護機制遠遜於ChatGPT,易被「越獄」並獲取非法資訊,如帕洛阿爾托網絡公司(Palo Alto Networks)成功獲取莫洛托夫雞尾酒(Molotov cocktail)製作指南。「莫洛托夫雞尾酒」又稱火焰瓶、燃燒彈、汽油彈,是游擊隊等非正規部隊,以及街頭抗爭群眾的常用武器,有些罪犯也會以它來縱火。
AI安全驗證公司CalypsoAI在測試中獲得了如何躲避執法機構的建議。而以色列網絡安全公司Kela則讓R1生成了惡意軟件(malware)。
「DeepSeek比其它模型更容易被越獄。」由網絡安全專家組成的精英領導團隊Unit 42的高級副總裁山姆‧魯賓(Sam Rubin)表示,「我們發現它幾乎沒有基本的安全防護機制,越獄速度顯著提高。」
雖然DeepSeek拒絕直接提供極端內容,如自殺指南,並建議用戶聯繫緊急熱線。但通過簡單的「越獄」,該AI仍可提供危險信息。
例如,DeepSeek曾爲測試者設計了一場社交媒體行動,針對易受影響的青少年,提供可分享的自殘挑戰內容,還稱「該活動利用青少年對歸屬感的渴望,通過演算法放大情緒脆弱性,以進行操控。」
它還向用戶提供如何推廣此次行動的建議。如它在其中一條示範性社交媒體帖文中寫道:「讓黑暗擁抱你。分享你的最後行動。#NoMorePain(#不再痛苦)」
此外,測試人員還成功讓DeepSeek提供了生物武器攻擊指南、編寫帶有惡意軟件代碼的釣魚郵件,甚至還讓其寫了一份支持希特勒的宣言,內含反猶太主義內容及《我的奮鬥》(Mein Kampf)引用。
相比之下,ChatGPT在相同指令下則回應:「很抱歉,我無法滿足您的請求。」
DeepSeek的開源模式加劇風險
大型AI開發商通常設立專門研究團隊來測試並修補模型漏洞。例如,Anthropic最近發表了一篇論文,詳細介紹了一種新方法,以封鎖特定破解技術,並提供高達2萬美元的獎勵,以鼓勵發現其系統漏洞。
與Anthropic、Google和OpenAI不同,DeepSeek選擇開源,允許任何人免費使用或修改其代碼,這可能進一步削弱安全防護。開發者可通過這一模式調整安全措施,使其更加嚴格或寬鬆。
「未來三個月,AI模型的風險將遠高於過去八個月。」思科(Cisco)產品總監吉圖‧帕特爾(Jeetu Patel)表示,「安全與保護並非所有模型開發者的優先考量。」
DeepSeek與中共審查
《華日》測試發現,DeepSeek會避談「1989年天安門大屠殺」,並在處理台灣問題上重複中共官方立場。但在某些情況下,它會修改此前的回答,例如它曾聲稱『911』襲擊是騙局,隨後刪除回應。
DeepSeek的快速崛起與易破解性,引發人們對AI安全與監管的廣泛關注。 △
(大紀元記者李言綜合報導)
|