】 【打 印】 
【 第1页 第2页 第3页 】 
生成式AI“幻觉”困境如何破解
http://www.CRNTT.com   2025-01-29 18:29:34


 

  不过,美国斯坦福大学计算机科学家米拉柯·苏兹根表示,尽管RAG能提升内容真实性,但其能力有限。苏兹根团队的研究表明,一些为法律研究开发的、号称“无幻觉”的RAG增强模型虽有所改进,但仍存在不足。

  开发者也可以使用一个与AI训练方式不同的独立系统,通过网络搜索对聊天机器人的回复进行事实核查,谷歌的“双子星”系统便是一个典型例子。该系统提供了“双重核查响应”功能:内容如果突出显示为绿色,表示其已通过网络搜索验证;内容如果突出显示为棕色,则表示其为有争议或不确定的内容。但是,这种方法计算成本高昂且耗时,而且系统仍会产生“幻觉”,因为互联网上错误信息泛滥。

  在去年6月出版的《自然》杂志上,英国牛津大学科学家刊发论文称,他们利用“语义熵”,通过概率来判断大语言模型是否出现了“幻觉”。语义熵是信息熵的一种,被用于量化物理系统中所包含的信息量。通过评估AI模型在特定提示词下生成内容的不确定性,来计算模型的困惑程度,从而为用户或模型提供警示,提醒其采取必要的循证措施,确保更准确的答案输出。

  美国卡内基梅隆AI研究人员安迪·邹采用的方法是在大语言模型回答问题时,绘制其内部计算节点的激活模式。他形象地称之为“给AI做脑部扫描”。利用不同的计算节点活动模式,可以告诉我们AI模型是在“说真话”,还是在“胡说八道”。


 【 第1页 第2页 第3页 】


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻: