“養龍蝦”風險漸現 專家建議構建“蝦籠”

中新社杭州314日電  (鮑夢妮)近期在中國走紅的開源人工智慧體OpenClaw,引發安全風險疑慮。有專家建議構建可靠的“蝦籠”,確保智能體的行動在預設、受監督的範圍內。
OpenClaw的用戶可用自然語言下達指令,讓其完成收發郵件等複雜工作。因其圖示酷似龍蝦,使用這款AI智能體被人們稱為“養龍蝦”。
高度的智能性令“龍蝦”進入中國後迎來高熱度。在杭州,一場“養蝦分享會”的報名人數超限定名額的三倍、多個OPC(一人公司)社區實現人均“養蝦”、市民排起長隊等待免費安裝“龍蝦”……
多地官方也圍繞“龍蝦”出臺支持舉措以增加創新生態吸引力。例如杭州市蕭山區提出從算力、數據到資本、人才全鏈條支持開源智能體產業發展。深圳龍崗區、無錫高新區、蘇州常熟市、合肥高新區等地也出臺相關政策。
但隨著“養龍蝦”者增多,相關風險和問題也逐漸顯現。
00後”陳壬瀚不久前借“龍蝦”開啟副業——讓它獲取並整理金融網站的交易數據,搭建可靠的金融量化回測策略。令其擔憂的是,調用大模型所消耗的token(詞元)量或大幅增加成本。
“目前我使用的只是生成文本的AI大模型,使用token的成本還可接受。後續要實現全媒體自動化運營,‘龍蝦’需同時接入生成文案、圖片、視頻的AI大模型,token消耗量不可控,成本更高。”他說。
風險更需要重視。中國國家互聯網應急中心近日發佈風險提示,指出由於OpenClaw智能體的不當安裝和使用,已出現“提示詞注入”、功能插件投毒等風險。
隨後,中國工信部網路安全威脅和漏洞資訊共用平臺發佈安全風險防範建議,中國國家工業資訊安全發展研究中心發佈風險預警通報。
浙江大學本科生院院長、人工智慧研究所原所長吳飛認為,工具的效果取決於使用者的認知框架與價值觀念,而非工具本身。“生成式人工智慧因內容概率合成而不可避免存在技術短板。因此我們既要人機協同共生,擁抱新技術,也需保持人工智慧向善倫理意識與必要的審慎和戒備。”
每日互動股份有限公司董事長方毅深耕數據智能領域多年。他認為,“龍蝦”具備自主行動能力,如果獲取高級系統許可權,其行為可能超出開發者的預設與約束,極易成為社交工程攻擊的目標。攻擊者可以通過編造“有人需要急救”等緊急情況來博取“龍蝦”的“同情心”,從而誘導其執行危險操作,導致用戶受騙。
“所以必須將‘龍蝦’關進籠子裏。”他建議在技術應用層面發展垂直領域的“專蝦”,這能將AI的能力聚焦於可控的專業領域,降低通用風險;在安全架構層面,必須構建可靠的“蝦籠”,即安全可控的運行環境,確保智能體的行動在預設、受監督的範圍內。(完)來源:中新社

留下一個答复

請輸入你的評論!
請在這裡輸入你的名字