不过,美国斯坦福大学计算机科学家米拉柯·苏兹根表示,尽管RAG能提升内容真实性,但其能力有限。苏兹根团队的研究表明,一些为法律研究开发的、号称“无幻觉”的RAG增强模型虽有所改进,但仍存在不足。
开发者也可以使用一个与AI训练方式不同的独立系统,通过网络搜索对聊天机器人的回复进行事实核查,谷歌的“双子星”系统便是一个典型例子。该系统提供了“双重核查响应”功能:内容如果突出显示为绿色,表示其已通过网络搜索验证;内容如果突出显示为棕色,则表示其为有争议或不确定的内容。但是,这种方法计算成本高昂且耗时,而且系统仍会产生“幻觉”,因为互联网上错误信息泛滥。
在去年6月出版的《自然》杂志上,英国牛津大学科学家刊发论文称,他们利用“语义熵”,通过概率来判断大语言模型是否出现了“幻觉”。语义熵是信息熵的一种,被用于量化物理系统中所包含的信息量。通过评估AI模型在特定提示词下生成内容的不确定性,来计算模型的困惑程度,从而为用户或模型提供警示,提醒其采取必要的循证措施,确保更准确的答案输出。
美国卡内基梅隆AI研究人员安迪·邹采用的方法是在大语言模型回答问题时,绘制其内部计算节点的激活模式。他形象地称之为“给AI做脑部扫描”。利用不同的计算节点活动模式,可以告诉我们AI模型是在“说真话”,还是在“胡说八道”。 |