AI智能體走熱,將改變?nèi)藗兩?span lang="EN-US"> 2024年10月17日09:01 | 來(lái)源:新華社 新華社北京電(記者舒靜宋晨 吳文詡)學(xué)會(huì)搭建使用AI智能體后,自媒體運(yùn)營(yíng)者小米感覺(jué)就像多招了一名24小時(shí)給自己打工的“文案設(shè)計(jì)師”,1分鐘就能生成10個(gè)爆款標(biāo)題,“省心多了”。 AI智能體(AI Agent),正成為新的人工智能熱詞。作為不少人看好的AI應(yīng)用發(fā)展方向,AI智能體備受關(guān)注。 不久前,OpenAI列出實(shí)現(xiàn)通用人工智能的五級(jí)路線圖:L1是聊天機(jī)器人;L2是推理者,即像人類一樣能夠解決問(wèn)題的AI;L3是智能體,即不僅能思考,還可采取行動(dòng)的AI系統(tǒng);L4是創(chuàng)新者;L5是組織者。 業(yè)內(nèi)人士表示,AI智能體在提供服務(wù)的過(guò)程中會(huì)收集大量數(shù)據(jù),需要確保數(shù)據(jù)安全,防止隱私泄露。AI智能體雖然能提供建議,但并非都具有權(quán)威性。此外,AI智能體的自主性越強(qiáng),越有可能在復(fù)雜或未預(yù)見(jiàn)的情境中作出不可預(yù)測(cè)或不當(dāng)?shù)臎Q策。 周明認(rèn)為,要從不同維度設(shè)立安全屏障:在研發(fā)環(huán)節(jié),應(yīng)將安全性作為核心設(shè)計(jì)原則,為研發(fā)人員提供相應(yīng)培訓(xùn),防止模型算法帶有偏見(jiàn);在使用環(huán)節(jié),提升公眾對(duì)技術(shù)應(yīng)用邊界、風(fēng)險(xiǎn)挑戰(zhàn)的認(rèn)知,增加反饋渠道。 智譜相關(guān)負(fù)責(zé)人表示,企業(yè)應(yīng)制定嚴(yán)格的內(nèi)部規(guī)范和操作流程,確保開發(fā)、測(cè)試、部署和使用都在可控范圍內(nèi)。推動(dòng)行業(yè)標(biāo)準(zhǔn)的制定,為AI智能體的健康發(fā)展提供指導(dǎo)。同時(shí),要建立責(zé)任追溯機(jī)制。 中國(guó)科學(xué)院自動(dòng)化研究所副研究員張海峰也認(rèn)為,政策制定應(yīng)納入多方利益相關(guān)者的意見(jiàn),建立適當(dāng)?shù)?span lang="EN-US">AI倫理審查機(jī)制,對(duì)高風(fēng)險(xiǎn)項(xiàng)目進(jìn)行獨(dú)立審查,確保其符合倫理標(biāo)準(zhǔn)并對(duì)社會(huì)有益。 (責(zé)編:王震、陳鍵) |