当前位置:首页 > 知识 >

[丽莎]人工智能聊天机器人可以“产生幻觉”并编造事情——为什么会发生以及如何发现它

当您听到“幻觉”这个词时,您可能会想到听到其他人似乎没有听到的声音,或者想象您的同事在您与他们交谈时突然长出了第二个头。

但对于人工智能来说,幻觉的含义有些不同。

当人工智能模型产生“幻觉”时,它会根据用户的提示生成捏造的信息,但将其呈现为真实且正确的信息。

假设您要求人工智能聊天机器人写一篇关于自由女神像的文章。

如果聊天机器人说纪念碑位于加利福尼亚州而不是纽约,那么它就会产生幻觉。

但错误并不总是那么明显。

为了响应自由女神像的提示,人工智能聊天机器人还可能会编造参与该项目的设计师的名字,或者声明该项目是在错误的年份建造的。

发生这种情况是因为大型语言模型(通常称为人工智能聊天机器人)接受了大量数据的训练,这就是它们学习识别单词和主题之间的模式和联系的方式。

他们利用这些知识来解释提示并生成新内容,例如文本或照片。

但由于人工智能聊天机器人本质上是在预测句子中最有可能出现的单词,因此它们有时会生成听起来正确但实际上并不正确的输出。

现实世界中的一个例子是,一名起诉航空公司的客户的代表律师向曼哈顿联邦法官提交了一份由 ChatGPT 撰写的法律摘要。

该聊天机器人在案情摘要中包含虚假引言并引用了不存在的法庭案件。

AI 聊天机器人变得越来越流行,OpenAI 甚至允许用户构建自己的定制聊天机器人以与其他用户共享。

随着我们开始在市场上看到更多的聊天机器人,了解它们的工作原理以及知道它们何时出错变得至关重要。

事实上,人工智能意义上的“幻觉”是 Dictionary.com 的年度词汇,之所以被选中是因为它最能代表人工智能可能对“语言和生活的未来”产生的潜在影响。

“‘幻觉’似乎很适合历史上的某个时期,在这个时期,新技术感觉就像是梦想或小说中的东西——尤其是当它们创造出自己的小说时,”一篇关于这个词的帖子写道。

猜你喜欢

微信二维码

微信