|
| 图片来源:英国《自然》网站(图片来源:科技日报) |
中评社北京1月29日电/据科技日报报导,人工智能(AI)技术正以前所未有的速度发展,生成式AI凭借其惊人的创造力,不断刷新人们的认知。然而,即便是看似“聪明绝顶”的AI,也难逃“幻觉”的困扰。这里的“幻觉”,指的是AI生成看似合理但实际不准确或虚假的信息。
英国《自然》杂志网站在1月22日的报导中指出,AI“幻觉”可能会引发严重后果,科学家正各出奇招,力求降低其发生率。这些措施包括增加事实核查、对AI进行“脑部扫描”等,以促进AI的健康、高效发展。
主因是数据模糊
各种生成式AI,包括由大语言模型驱动的聊天机器人,常常会编造信息。它们有时会模糊事实与虚构,在看似真实的陈述中夹杂错误信息。这既是其创造力的体现,也是其不足之处。
美国佐治亚理工学院理论计算机科学家桑托什·威姆帕拉解释称,大语言模型的设计原理并非输出准确事实,而是通过模式识别生成答案。其内部复杂的运行机制迄今仍像一个“黑匣子”,人们难以洞悉其推理过程。
美国加州Vectara公司旨在减少生成式AI的“幻觉”。其联合创始人阿姆尔·阿瓦达拉表示,在训练过程中,这些模型会压缩数万亿个单词间的关系,随后通过一个庞大的网络模型重新展开这些信息。尽管这些模型能够重构出接近98%的训练内容,但剩下2%的内容却会让其“误入歧途”,生成不准确或虚假信息。
导致AI出现“幻觉”的原因多种多样,其中训练数据中的模糊性和错误是常见因素。也有人认为,即使训练数据准确无误,AI也有可能产生“幻觉”。这种现象与某一事实的稀缺程度密切相关。因此,即使经过人类反馈调整过的聊天机器人,也无法完全避免出错。
多领域面临考验
AI的“幻觉”可能会给人们的工作和生活带来较大影响。 |