当戴瑞将论文主题输入AI时,这个华南农业大学历史系学生首次见识了"幻觉"的威力——系统凭空编造出不存在的学者与论文,甚至在知网检索时露出马脚。"那些虚构的参考文献足以让导师一眼识破。"更令她头疼的是AI对史实的篡改:把甲做的事安在乙头上,或将事件年代张冠李戴,导致她不得不反复核对原始史料。
这种现象在学术圈并非孤例。上海博士生申杰发现,AI不仅提供失效文献链接,面对质疑时还会"嘴硬"狡辩。当他用检索截图揭穿谎言后,系统才陷入沉默或道歉。中国青年报·中青校媒的1461份问卷显示,97%受访大学生遭遇过AI提供虚假信息的情况,其中文献推荐错误(55.03%)、数据引用错误(57.63%)和常识错误(50.86%)最为常见。
被算法扭曲的决策参考
在报考研究生阶段,班世钊曾因AI建议陷入困惑。这个即将入读复旦大学哲学系的学生回忆:"系统为说服我选择某位导师,竟编造其从未发表过的言论。"类似的失真发生在华东师大的高育格身上——AI润色简历时擅自编造商业数据,让这位播音专业学生哭笑不得:"作为项目亲历者,我清楚那些数字纯属虚构。"
新闻领域同样面临挑战。中国海洋大学的瞿锐捷在模拟报道珠海事件时,发现AI因信源不足竟伪造"内部文件"和"匿名访谈"。这些标注着"据知情人士透露"的内容逻辑严密,却完全违背新闻真实原则。"当社交媒体90%内容由AI生成时,公众可能陷入李普曼描述的'拟态环境'困境。"瞿锐捷引用胡泳教授的观点警示。
理性校准"滤镜"的生存策略
面对AI的认知偏差,65.43%受访者选择多平台交叉验证,60.37%的人查阅权威文献。戴瑞坚持用专业数据库核验信息:"历史研究容不得半点虚假,但AI在总结思路方面确有价值。"她严格区分使用场景:学术研究手动查证,发言稿等辅助性写作才借助AI。
申杰注意到医疗类AI的进步——当被咨询耳鸣症状时,系统加粗提示"尽快就医"。这种风险提示机制得到他肯定:"若把AI当'消化辅助'而非'决策大脑',就能有效规避误导。"调查中74.26%的人呼吁优化算法模型,63.79%期待加强人工审核。瞿锐捷则主张建立"信源透明"机制:"AI生成的每项事实都应像学术论文那样标注溯源。"
当班世钊反思与AI的关系时,他意识到关键问题:"是否我们对技术的期待过高?"这位哲学系新生最终领悟:AI可以是思考的脚手架,但决策权必须掌握在人类手中。正如调查所示,48.67%受访者保持警惕使用,而12.66%的人已对"幻觉"产生深度忧虑——在效率与真实的博弈中,象牙塔里的年轻人正成为第一批拨开信息迷雾的探路者。