【現象】使用人工智能大模型時(shí),不少人或許都遇到過(guò)類(lèi)似問(wèn)題:它們有時(shí)會(huì )捏造細節,甚至“一本正經(jīng)地胡說(shuō)八道”。比如,讓它推薦書(shū),給出的卻是一堆壓根不存在的書(shū)名;人物身份張冠李戴,還能給出一些并不準確的鏈接……這些現象都可以歸為AI幻覺(jué)。
【點(diǎn)評】
所謂AI幻覺(jué),可以通俗地理解為AI也會(huì )像人產(chǎn)生心理幻覺(jué)一樣,遇到不熟悉或超出“知識儲備”的問(wèn)題時(shí),編造一些并不存在的細節,生成與事實(shí)相悖的答案。一項調研顯示,對于“公眾認為使用AI應用過(guò)程中有哪些突出問(wèn)題”,反饋最多的是“內容不準確,或含虛假信息”,占比高達42.2%。
AI幻覺(jué)從何而來(lái)?可能得從源頭尋找答案。
大模型的工作原理,是基于概率生成內容。給它上半句,它就根據自己“學(xué)”過(guò)的海量知識,“算出”下半句該說(shuō)什么。比如,當用戶(hù)輸入“今天天氣非?!?,它大概率會(huì )接“不錯”“熱”“潮濕”等答案,而不會(huì )出現“甜”。同時(shí),大模型又不是簡(jiǎn)單地儲存所有事實(shí),而會(huì )像人腦記東西那樣,進(jìn)行大量壓縮和泛化——也就是“抓概要、找規律”。因此,當“喂給”大模型的訓練數據包含虛假信息時(shí),它就會(huì )產(chǎn)生“幻覺(jué)”、給出錯誤答案。
有報告顯示,我國生成式人工智能產(chǎn)品用戶(hù)規模達2.49億人。用戶(hù)規??焖僭鲩L(cháng),AI幻覺(jué)潛藏的風(fēng)險也隨之增加。比如,如果一些看似合理卻與現實(shí)相去甚遠的內容被AI反復學(xué)習,會(huì )形成“數據污染—算法吸收—再污染”的惡性循環(huán)。有效防范由此帶來(lái)的虛假信息泛濫,已成為不容回避的課題。
不過(guò)也有觀(guān)點(diǎn)認為,AI幻覺(jué)可被視作一種“發(fā)散思維”和“想象力”。理論上,如果把訓練一個(gè)大模型看作信息“壓縮”的過(guò)程,那么大模型經(jīng)過(guò)推理、輸出答案就是一個(gè)信息“解壓”的過(guò)程。這種處理信息的方式,可能會(huì )出現謬誤,也可能觸發(fā)新的創(chuàng )造。對發(fā)展尚未定型的新事物,要保持開(kāi)放心態(tài),辯證看待其利與弊,在有效防范弊端的同時(shí),給予足夠空間使之朝好的方向成長(cháng)。
短時(shí)間內,AI幻覺(jué)問(wèn)題難以被解決。各方都在努力降低其負面影響,相關(guān)部門(mén)也加大了對違規AI產(chǎn)品的處置力度,推動(dòng)生成合成內容標識加速落地。一些大模型廠(chǎng)商在積極行動(dòng),比如文心大模型利用檢索到的信息來(lái)指導文本或答案的生成,提高了內容的質(zhì)量和準確性;通義大模型加強訓練語(yǔ)料管理,通過(guò)“紅藍對抗”機制提升對虛假信息的識別能力。對廣大用戶(hù)而言,則要加快提升AI素養,學(xué)會(huì )“智慧”地運用“智慧工具”,既借助大模型破除思維定式、啟發(fā)創(chuàng )新思路,又提高自身有效獲取、理解、評估和使用信息的能力。
人類(lèi)塑造工具,工具也影響人類(lèi)生活。應對AI幻覺(jué)等問(wèn)題挑戰的過(guò)程,既促使人們思考改進(jìn)工作方法,也為AI不斷進(jìn)化提供了源動(dòng)力。激發(fā)新技術(shù)的正向價(jià)值,讓AI更好融入生產(chǎn)生活、賦能千行百業(yè),我們邁向智慧時(shí)代之路才能走得更加穩當、更加順暢。
谷業(yè)凱
《人民日報》(2025年07月02日 第 05 版)