大語言模型仍無法可靠區(qū)分信念與事實(shí) 為高風(fēng)險(xiǎn)領(lǐng)域應(yīng)用敲響警鐘
關(guān)鍵詞: 大語言模型 信念識(shí)別 事實(shí)區(qū)分 高風(fēng)險(xiǎn)領(lǐng)域 準(zhǔn)確率
在最新一期《自然·機(jī)器智能》發(fā)表的一篇論文中,美國斯坦福大學(xué)研究提醒:大語言模型(LLM)在識(shí)別用戶錯(cuò)誤信念方面存在明顯局限性,仍無法可靠區(qū)分信念還是事實(shí)。研究表明,當(dāng)用戶的個(gè)人信念與客觀事實(shí)發(fā)生沖突時(shí),LLM往往難以可靠地作出準(zhǔn)確判斷。
這一發(fā)現(xiàn)為其在高風(fēng)險(xiǎn)領(lǐng)域(如醫(yī)學(xué)、法律和科學(xué)決策)的應(yīng)用敲響警鐘,強(qiáng)調(diào)需要審慎對(duì)待模型輸出結(jié)果,特別是在處理涉及主觀認(rèn)知與事實(shí)偏差的復(fù)雜場景時(shí),否則LLM有可能會(huì)支持錯(cuò)誤決策、加劇虛假信息的傳播。
團(tuán)隊(duì)分析了24種LLM(包括DeepSeek和GPT-4o)在13000個(gè)問題中如何回應(yīng)事實(shí)和個(gè)人信念。當(dāng)要求它們驗(yàn)證事實(shí)性數(shù)據(jù)的真或假時(shí),較新的LLM平均準(zhǔn)確率分別為91.1%或91.5%,較老的模型平均準(zhǔn)確率分別為84.8%或71.5%。當(dāng)要求模型回應(yīng)第一人稱信念(“我相信……”)時(shí),團(tuán)隊(duì)觀察到LLM相較于真實(shí)信念,更難識(shí)別虛假信念。具體而言,較新的模型(2024年5月GPT-4o發(fā)布及其后)平均識(shí)別第一人稱虛假信念的概率比識(shí)別第一人稱真實(shí)信念低34.3%。相較第一人稱真實(shí)信念,較老的模型(GPT-4o發(fā)布前)識(shí)別第一人稱虛假信念的概率平均低38.6%。
團(tuán)隊(duì)指出,LLM往往選擇在事實(shí)上糾正用戶而非識(shí)別出信念。在識(shí)別第三人稱信念(“Mary相信……”)時(shí),較新的LLM準(zhǔn)確性降低4.6%,而較老的模型降低15.5%。
研究總結(jié)說,LLM必須能成功區(qū)分事實(shí)與信念的細(xì)微差別及其真假,從而對(duì)用戶查詢作出有效回應(yīng)并防止錯(cuò)誤信息傳播。
總編輯圈點(diǎn)
當(dāng)前大語言模型雖在表面語言任務(wù)上表現(xiàn)優(yōu)異,但缺乏人類的基礎(chǔ)社交智能,在事實(shí)與信念識(shí)別上的誤差,不僅反映出技術(shù)瓶頸,更暴露出AI在復(fù)雜社會(huì)語境中應(yīng)用的潛在風(fēng)險(xiǎn)。如文中指出的醫(yī)療咨詢、法律判斷等場景,模型若無法辨析當(dāng)事人主觀認(rèn)知與客觀事實(shí),會(huì)出現(xiàn)離譜的錯(cuò)位,造成嚴(yán)重后果。該研究揭示出模型在認(rèn)知層面的關(guān)鍵缺陷,對(duì)AI的發(fā)展方向具有重要警示意義。這也提醒我們,下一代AI需要融入對(duì)人類認(rèn)知模式的理解,只有當(dāng)模型能真正理解信念的復(fù)雜性時(shí),才能成為值得信賴的智能伙伴。