中新經(jīng)緯2月26日電 (袁媛)2026年被業(yè)內(nèi)視為“智能體加速落地期”,人工智能正從單純的對話工具走向能夠自主執(zhí)行任務(wù)的智能體系統(tǒng)。用戶只需一句指令,智能體就可以跨應(yīng)用完成查詢信息、下單支付、發(fā)送消息等復(fù)雜操作,逐漸成為連接不同應(yīng)用場景的“數(shù)字代理”。
但在便利不斷提升的同時,新的風(fēng)險也在顯現(xiàn)。2月24日,在對外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心舉辦的“智能體的高質(zhì)量發(fā)展與治理路徑”研討會上,多位專家與業(yè)內(nèi)人士圍繞智能體安全、隱私保護(hù)與責(zé)任歸屬問題展開討論。
權(quán)利“梭哈”真的好嗎?
與傳統(tǒng)大模型相比,智能體最大的變化在于具備行動能力。智能體通常由感知、記憶、規(guī)劃和執(zhí)行等多個模塊構(gòu)成,能夠調(diào)用工具并自動完成任務(wù)。
北京郵電大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副教授李朝卓指出,智能體具備更強(qiáng)自主性,但也因此引入更復(fù)雜的安全隱患。例如在感知層面可能出現(xiàn)模型幻覺與錯誤理解,在規(guī)劃層面可能形成偏離初衷的惡意規(guī)劃,而在工具調(diào)用層面則存在API(應(yīng)用程序編程接口)濫用、工具劫持與權(quán)限失控等風(fēng)險。
智能體逐步介入應(yīng)用運(yùn)行邏輯,原有的軟件生態(tài)也在發(fā)生變化。智能體風(fēng)險往往集中體現(xiàn)在資金安全、個人信息保護(hù)以及內(nèi)容與倫理邊界等方面。
小紅書技術(shù)合規(guī)負(fù)責(zé)人田云飛表示,隨著智能體介入應(yīng)用運(yùn)行邏輯,用戶授權(quán)給智能體更高的自由度。傳統(tǒng)APP相對閉環(huán)服務(wù)的生態(tài)邊界受到挑戰(zhàn),過去承擔(dān)的是與用戶完整交互的角色,如今已變成內(nèi)容或服務(wù)的提供者。
智能體通常還依賴長期記憶機(jī)制與跨應(yīng)用調(diào)用能力,這意味著用戶需要一次性授權(quán)更多權(quán)限。業(yè)內(nèi)專家李海英指出,手機(jī)智能體往往通過調(diào)用無障礙組件及系統(tǒng)級權(quán)限實(shí)現(xiàn)跨應(yīng)用操作,這種底層權(quán)限整合在提升效率的同時,也對用戶知情權(quán)與同意權(quán)構(gòu)成挑戰(zhàn)。
隱私風(fēng)險同樣受到關(guān)注。李海英指出,視覺驅(qū)動型智能體在執(zhí)行任務(wù)過程中可能通過錄屏或界面解析方式獲取頁面信息,其數(shù)據(jù)處理路徑及是否上傳云端往往缺乏透明度,使“最小必要原則”的落實(shí)面臨現(xiàn)實(shí)困難。
面壁智能法律業(yè)務(wù)線解決方案總監(jiān)邵帥表示,智能體應(yīng)用正在重塑隱私與責(zé)任結(jié)構(gòu),風(fēng)險從“平臺內(nèi)靜態(tài)存儲”轉(zhuǎn)向“跨場景動態(tài)流轉(zhuǎn)”。在自動化執(zhí)行鏈條中,數(shù)據(jù)跨系統(tǒng)調(diào)用、拼接與畫像生成日益常態(tài)化,用戶卻難以實(shí)時感知其權(quán)限邊界與執(zhí)行路徑。一旦發(fā)生錯誤或泄露,責(zé)任在模型、平臺與用戶之間分布式擴(kuò)散,現(xiàn)行法律框架面臨新的治理挑戰(zhàn)。
出了事誰負(fù)責(zé)?
面對不斷顯現(xiàn)的風(fēng)險,與會專家普遍認(rèn)為,應(yīng)在技術(shù)推廣初期就建立基本治理規(guī)則。
自由討論環(huán)節(jié)中,有專家提出,智能體治理的底線可聚焦三個方面:一是權(quán)限分級與用戶授權(quán)機(jī)制,避免一次性獲取過多權(quán)限;二是關(guān)鍵操作流程可審計,使系統(tǒng)行為可以追溯;三是面向用戶的透明公示與風(fēng)險提示機(jī)制,讓用戶能夠理解授權(quán)可能帶來的后果。
在技術(shù)層面,應(yīng)通過工程化手段實(shí)現(xiàn)風(fēng)險控制。美團(tuán)數(shù)據(jù)與隱私保護(hù)法務(wù)負(fù)責(zé)人朱玲鳳指出,智能體治理應(yīng)圍繞“動作可控、輸入可控、生態(tài)可控、記憶可控”構(gòu)建控制體系,通過最小權(quán)限、預(yù)算限制、熔斷回滾等機(jī)制,使智能體能夠在可控條件下運(yùn)行。
北京大學(xué)光華管理學(xué)院應(yīng)用經(jīng)濟(jì)系長聘教授翁翕則從更宏觀角度提醒,在智能體高度介入的環(huán)境下,人類“慢自我”的反思與糾偏能力可能被削弱,公共政策目標(biāo)需要在人工智能的建構(gòu)理性與人類有限理性之間重新尋找平衡。
2025年9月上海徐匯區(qū)法院一審判決AI伴侶聊天應(yīng)用APP“AC(Alien Chat)”的兩名開發(fā)/運(yùn)營者構(gòu)成制作淫穢物品牟利罪,分別獲刑四年、一年半。這款A(yù)I伴侶聊天應(yīng)用,定位是為年輕群體提供親密陪伴和情感支持。用戶在AC注冊會員后,可與AI聊天。其中,高頻次、大比例的聊天記錄,在案發(fā)后被法院認(rèn)定為淫穢物品。
在案件審理過程中,各方對責(zé)任歸屬問題存在明顯分歧。一種觀點(diǎn)認(rèn)為,相關(guān)內(nèi)容由算法自動生成,開發(fā)者并非直接“生產(chǎn)者”,平臺提供的只是技術(shù)工具,責(zé)任不應(yīng)簡單歸于服務(wù)提供者;另一種觀點(diǎn)則認(rèn)為,開發(fā)者通過模型訓(xùn)練、提示詞設(shè)計及功能設(shè)置,對內(nèi)容生成具有實(shí)質(zhì)性控制能力,應(yīng)當(dāng)對系統(tǒng)運(yùn)行結(jié)果承擔(dān)主要責(zé)任。也有法律界人士指出,智能體在接受用戶模糊指令后,通過上下文推理形成輸出結(jié)果,其運(yùn)行機(jī)制具有一定不可預(yù)見性,傳統(tǒng)以“行為人—行為結(jié)果”為基礎(chǔ)的責(zé)任認(rèn)定方式正面臨挑戰(zhàn)。
人工智能責(zé)任問題已經(jīng)開始從理論討論走向現(xiàn)實(shí)司法實(shí)踐,“用戶、服務(wù)商與技術(shù)系統(tǒng)之間如何分配責(zé)任”成為智能體治理中亟待回答的核心問題之一。
北京交通大學(xué)法學(xué)院副教授付新華指出,智能體具備自主決策與自動執(zhí)行能力,使用戶與服務(wù)提供者都難以實(shí)現(xiàn)全過程控制,容易在現(xiàn)有制度框架下形成責(zé)任斷裂。她認(rèn)為,現(xiàn)行法律條件下難以賦予人工智能獨(dú)立主體資格,也不能簡單將智能體等同于用戶代理人,智能體更應(yīng)被理解為介于工具與主體之間的中間構(gòu)造,需要通過多主體協(xié)同治理形成責(zé)任重疊機(jī)制。
中國政法大學(xué)法與經(jīng)濟(jì)學(xué)研究院副教授謝堯雯指出,手機(jī)智能體在操作系統(tǒng)層與應(yīng)用層之間嵌入了“數(shù)字代理層”,能夠理解用戶意圖并自主調(diào)用服務(wù),這改變了數(shù)字交互的資源調(diào)度邏輯與控制權(quán)歸屬,也引發(fā)兩類核心關(guān)切。其一,智能體可能通過算法實(shí)施自我優(yōu)待或歧視性接入,在資源調(diào)度層面存在減損公平競爭秩序的風(fēng)險。其二,在控制權(quán)層面存在責(zé)任界定難題。為此,有必要依據(jù)風(fēng)險等級建立分級干預(yù)機(jī)制:在高風(fēng)險場景中保留人類最終審查與決策權(quán),在低風(fēng)險領(lǐng)域賦予智能體更大自主空間。(中新經(jīng)緯APP)
中新經(jīng)緯版權(quán)所有,未經(jīng)授權(quán),不得轉(zhuǎn)載或以其他方式使用。
責(zé)任編輯:宋亞芬 賈亦夫
本網(wǎng)站所刊載信息,不代表中新經(jīng)緯觀點(diǎn)。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
[京B2-20230170] [京ICP備17012796號-1]
[互聯(lián)網(wǎng)新聞信息服務(wù)許可證10120220005] [互聯(lián)網(wǎng)宗教信息服務(wù)許可證:京(2022)0000107]
違法和不良信息舉報電話:18513525309 報料郵箱(可文字、音視頻):zhongxinjingwei@chinanews.com.cn
Copyright ©2017-2026 jwview.com. All Rights Reserved
北京中新經(jīng)聞信息科技有限公司