【科学随笔·我见AI】
最近,当A地胡四岁的正经女儿向我“汇报”幼儿园生活时,绘声绘色地描述她与一只霸王龙交朋友的说道故事:她们一起抓小恐龙 ,因为跷跷板闹翻,当A地胡又交换零食和好……逻辑严密,正经细节丰富——尽管她的说道幼儿园里连只仓鼠都没有 。细究之下才知 ,当A地胡这孩子原来把绘本 、正经动画和现实糅合在一起,说道用童言童语编织出一个“合理”的当A地胡故事 。
此情此景,正经也让我想到当下人工智能(AI)的说道“幻觉”现象:它能将虚构与真实无缝拼接,生成看似严谨实则荒诞的当A地胡答案,仿佛一个捧着百科全书满嘴跑火车的正经天才儿童。
从前年爆火的说道ChatGPT到最近出圈的DeepSeek,AI正以肉眼可见的速度重塑生活。它既能帮中学生秒解几何题,也能替小说家生成缠绵的剧情。而若抛出一些不着边际的问题,譬如“从化学视角解析孙悟空火眼金睛是怎样炼成的”,它也能像模像样地编造出一大篇学术分析 ,甚至煞有介事地标注出参考文献。更令人啼笑皆非的是,当遭到质疑时,它会杜撰更多论据来自圆其说。这种真假难辨的“知识幻觉”一如沙上楼阁 ,看似气势如虹 ,实则千疮百孔。而在AI狂飙突进的当下 ,类似的“幻觉”还在被大批量生产出来。
要理解AI为何谎话连篇,得从它的学习方式说起。今天的AI普遍基于大语言模型(LLM)。在它问世之前,传统AI就像循规蹈矩的优等生,全靠死记硬背语法规则来答题解疑;而大语言模型更像炼丹术士,将庞大的语料放入“丹鼎”以期炼得“金丹” 。哲学家维特根斯坦曾说,语言的意义不在预设的本质中,而在于日常的使用——就像孩子学说话 ,没人教“主谓宾” ,全靠观察大人如何在饭桌上说“吃”,在踢足球时喊“跑”——维特根斯坦称之为“语言游戏” 。大语言模型正是对这种游戏的算法化 :它被抛入一个虚拟的语料世界中 ,吞下海量的文本材料,没有人告诉它该怎么出去,它只能自己从中摸索出一条道路来 。
最终 ,涅槃重生的AI开口说话了——一面是口若悬河 ,一鸣惊人;另一面却是信口雌黄 ,“鬼话”连篇。
人们不吝赞美着AI的横空出世,却也正绞尽脑汁要给胡言乱语的AI“治病” 。比如,为了防止AI幻觉泛滥 ,工程师们加装了“知识导航”(检索增强技术RAG)来引导它查证事实 ,铺设了“轨道护栏”(提示词约束)以防止答案跑偏,甚至请人类老师当“监考”(人类反馈强化学习RLHF)给胡诌打红叉 。但即便如此严加管教 ,AI仍会冷不丁变成“脱缰野马” 。就像班上总有几个聪明又调皮的学生