杜撰虛假文獻、引用不存在的名人觀點、編造錯誤數(shù)據(jù)、將舊事當作新聞傳播……基于不完整信息生成看似合理實則錯誤的答案,讓人難以分辨真?zhèn)?,這種現(xiàn)象被業(yè)界稱為“AI幻覺”。
“AI幻覺”是大模型天然存在的隱性缺陷。具體表現(xiàn)在互聯(lián)網(wǎng)上,大模型只會單純搜索內(nèi)容進行推理,無法像人一樣判斷真假,且不對信息本身的真實性負責。4月25日,李彥宏在百度AI開發(fā)者大會上坦言deepseek存在幻覺多、速度慢等痛點,將“AI幻覺”這一概念再次拉入大眾視野。這個詞匯早在2023年就顯跡在互聯(lián)網(wǎng)上,但時至今日仍在各大社交平臺有具象化呈現(xiàn)。
例如在小紅書平臺,“DeepSeek生成假的參考文獻怎么辦”相關(guān)帖子達到5萬條;微博上,#防止DeepSeek亂編文獻的方法#的話題也沖上熱搜。加之一些人不經(jīng)判斷就依賴AI走 “捷徑”,相關(guān)爭議持續(xù)不斷。


在AI的浪潮下,如何兼顧正確與效率的同時,守護自己的思辨能力?
破解AI幻覺,開“AI + 教育”落地新局
面對AI大模型“一本正經(jīng)式地胡說八道”,若想避免被誤導,一方面需要正確看待AI生成、輸出的內(nèi)容,另外一方面,與AI良性互動,而非對其輸出結(jié)果全盤接受。中國人民大學新聞學院教授盧家銀指出,這種現(xiàn)象在知識建構(gòu)與思維發(fā)展層面存在雙重隱患:在知識建構(gòu)上,AI生成的虛假學術(shù)成果,可能扭曲青年對科學方法論的理解,削弱其“假設(shè)-驗證”的科研邏輯訓練。在思維發(fā)展上,AI謠言通過算法推薦的“信息繭房”形成邏輯閉環(huán),不利于批判性思維的培養(yǎng)。
因此,AI輸出內(nèi)容應被視作認知起點而非終點。我們需要主動驗證信息可靠性,例如查閱權(quán)威信源、對比多元觀點,甚至與領(lǐng)域?qū)<抑苯咏涣鳌3诵⌒闹斏魇褂么竽P椭?,酷開探索出“AI + 教育”場景化落地的另一條路徑——讓大模型僅承擔宏觀調(diào)度與規(guī)劃功能,即先由大模型拆解分析題目,再依據(jù)具體需求調(diào)用適配工具解題。這一思路在搭載教育智能體的酷開AI學習機Y41 Air上得到實踐印證。
從“答題工具”到“思考輔助者”,AI如何才能講好一道題
真正有“人味兒”的AI教育,始于對技術(shù)邊界的清醒認知,酷開要做的是讓AI成為“思考輔助者”,而非答題“工具”。酷開AI學習機Y41 Air搭載的教育智能體,打破通用大模型的數(shù)據(jù)泛化問題,通過整合K12全學段10億級去重題庫,用大量的基礎(chǔ)數(shù)據(jù)規(guī)避AI“天馬行空”式的推理的干擾,從底層夯實了大模型解題的準確性與可解釋性。

當學生提問時,學習機會遵循“先匹配、再推演”的雙軌邏輯,首先在海量題庫中精準匹配相似題型,再通過大模型進行解題路徑的分層推演,從源頭上降低AI幻覺風險。以初中幾何題為例,酷開AI學習機Y41 Air 如同私人“家教”般,不僅呈現(xiàn)答案與完整推理過程,更通過一對一提問引導的方式,促使學生觀察圖形特征、自主推導輔助線添加邏輯。
這種在解題過程中融入個性化互動引導的設(shè)計,既提升了人機交互的擬真感,更著力培養(yǎng)學生主動思考與分析的思維能力,與傳統(tǒng)AI答題工具形成了本質(zhì)區(qū)隔。
當前AI教育正站在應用普及的十字路口??衢_學習機展現(xiàn)的技術(shù)路徑表明,化解AI幻覺風險不能單純依賴模型優(yōu)化,更需要從教育本質(zhì)出發(fā)重構(gòu)人機關(guān)系。在AI與教育深度融合的進程中,如何平衡技術(shù)能力與教育邏輯,酷開的實踐給出了一個值得關(guān)注的答案。
本文轉(zhuǎn)載自:,不代表科技訊之立場。原文鏈接:http://show.wolaioa.com.cn/preview/qBIso000oyvpOga2YRSfSOf42A.html