】 【打 印】 
【 第1页 第2页 第3页 】 
生成式AI“幻觉”困境如何破解
http://www.CRNTT.com   2025-01-29 18:29:34


 

  在新闻领域,大语言模型可能生成虚假新闻事件,扰乱信息传播秩序,误导公众认知。Vectara公司针对文档内容开展的研究表明,一些聊天机器人编造事实、虚构信息的几率高达30%。世界经济论坛发布的《2025年全球风险报告》显示,错误和虚假信息是2025年全球面临的五大风险之一。

  在法律领域,它可能引用虚构的法律条文和案例。比如,2023年美国律师史蒂文·施瓦茨就因“轻信”ChatGPT,在法庭文件中引用了并不存在的法律案例。而在医学领域,它可能提供错误的诊断和治疗建议,危及患者生命。

  《自然》在报导中指出,AI“幻觉”在科学参考文献方面出现错误的情况也极为普遍。2024年的一项研究发现,各类聊天机器人在提及参考文献时的出错率在30%至90%之间。它们至少会在论文标题、第一作者或发表年份上出现偏差。虽然聊天机器人都带有警告标签,提醒用户对重要信息进行二次核实。但如果用户对聊天机器人的回复深信不疑,可能会引发一系列问题。

  多举措减少“幻觉”

  为进一步提升AI的精确度,科学家正想方设法降低其“幻觉”。

  例如,增加模型训练参数和训练时长可有效减少“幻觉”。但这种方法需要付出高昂的计算成本,并可能削弱聊天机器人的其他能力,如机器学习算法对未知数据的预测和处理能力。

  此外,使用更大、更乾净的数据集进行训练,也是降低AI模型“幻觉”出现的有效途径。然而,当前可用数据的有限性限制了这一方法的应用。

  检索增强生成(RAG)技术也为减少AI“幻觉”提供了新思路。该方法通过让聊天机器人在回复问题前参考给定的可信文本,从而确保回复内容的真实性,以此减少“幻觉”的产生。在医疗和法律等需要严格遵循经过验证的知识的领域,RAG技术备受青睐。 


 【 第1页 第2页 第3页 】 


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻: