通過模擬人腦“共情”機制,為人工智能(AI)賦予了類似人類的“同情心”和利他動機,讓它在復(fù)雜情境中能自發(fā)地做出助人決策。11月28日,記者從人工智能安全與超級對齊北京市重點實驗室獲悉,相關(guān)研究成果已在《IEEE情感計算匯刊》上發(fā)表。
當AI不僅會答題、畫畫,還能“感同身受”地理解他人痛苦,甚至在關(guān)鍵時刻犧牲自己的利益去幫助他人,這樣的人機共生社會或許是更好的圖景。“當看到他人受傷時,我們的大腦會仿佛自己也感到疼痛一樣被激活,這種‘感同身受’就是共情,它是人類產(chǎn)生同情和助人行為的基礎(chǔ)?!比斯ぶ悄馨踩c超級對齊北京市重點實驗室主任、中國科學(xué)院自動化研究所研究員曾毅說,研究團隊據(jù)此構(gòu)建了類腦情感共情驅(qū)動的利他決策脈沖神經(jīng)網(wǎng)絡(luò)模型,使AI能夠通過自身的虛擬“情緒體驗”,去理解、共鳴他人的狀態(tài),從而從內(nèi)部驅(qū)動利他行為。
![]()
雙智能體利他救援、多智能體雪堆博弈、機器人自我—他人共鳴實驗
通過雙智能體利他救援、多智能體雪堆博弈及機器人自我—他人共鳴實驗,科研團隊發(fā)現(xiàn),在涉及多個智能體的復(fù)雜場景中,尤其在自身利益與他者福祉沖突的道德困境下,所提模型能主動共情并優(yōu)先選擇利他、利集體的行為,展現(xiàn)明顯的“舍己為人”傾向。
AI的“善良”程度還可以被進一步優(yōu)化,與共情水平直接正相關(guān)。該研究發(fā)現(xiàn),在自身任務(wù)與救助他人直接沖突時,具備高共情能力的AI會毅然選擇調(diào)頭救援,哪怕這意味著它要付出更多“成本”。高共情AI群體展現(xiàn)出更強的協(xié)作精神,有效避免了“三個和尚沒水喝”的困境。此外,智能體的行為會受到交互對象共情水平的影響,形成復(fù)雜的博弈動態(tài)。例如,中等共情AI面對高共情對象時傾向于“依賴”,面對低共情對象時轉(zhuǎn)為“主動補位”。
“這項研究的深遠意義,在于推動AI倫理設(shè)計范式的轉(zhuǎn)變。隨著人工智能與社會深度融合,我們必須將安全和倫理價值對齊置于核心位置。將倫理考量內(nèi)化為AI的內(nèi)在動機,助力人與人工智能的和諧共生?!痹惚硎荆@將讓AI從依賴外部規(guī)則的“他律”,轉(zhuǎn)向基于內(nèi)在動機的“自律”。該實驗室未來將持續(xù)探索AI向安全、有益方向發(fā)展,為構(gòu)建人與人工智能和諧共生的未來、促進人類社會可持續(xù)發(fā)展貢獻中國智慧。