微信号:8149027
不接反杀,想去别人群里开挂,开不了不用加。
复制微信号
像Chatgpt这样的大型语言模型(LLM)以其能力使世界惊叹不已。但是,他们也是一个自信地散发出绝对胡说八道的头条新闻。
这种现象被称为幻觉,范围从相当无害的错误–就像在草莓错误中获取&lsquo'r’完全制造的法律案件使律师陷入严重麻烦。
当然,您可以说每个人都应该严格地检查AI建议的任何事实(并且我同意)。但是,随着这些工具在我们的工作,研究和决策中变得更加根深蒂固,我们需要了解为什么发生幻觉的原因–以及我们是否可以防止它们。
你可能喜欢
Chatgpt变得越来越聪明,但其幻觉却在螺旋螺旋
幻觉在chatgpt中下降,但这并不是我们AI问题的终结
我要求Chatgpt发明6种哲学思想实验–现在我的大脑疼
机器中的幽灵
要了解AI幻觉的原因,我们需要快速重新研究大型语言模型(LLM)的工作方式。
llms不检索诸如搜索引擎或人类查找数据库中的事实。相反,他们通过做出预测来生成文本。
软件工程师Maitreyi Chatterjee说:“ LLMS是其核心的下一字预测指标和白日梦。”“他们通过预测接下来发生的统计上最有可能的单词来生成文本。”
我们经常认为这些模型在思考或推理,但不是。他们“复杂的模式预测变量”–该过程不可避免地会导致错误。
获得每日洞察力,灵感和收件箱中的交易
报名报名,以获取新闻,评论,意见,顶尖的技术交易等等。与我联系我的新闻和其他品牌的新闻和要约,代表我们值得信赖的合作伙伴或赞助人,或赞助您同意您同意条款,条件和隐私政策的信息,并享年16岁。
这就解释了为什么LLM在看似简单的事情上挣扎,例如计算草莓或解决基本数学问题的lsquo&rsquo。他们“不坐在那里,就像我们会的那样。并不真地。
另一个关键原因是他们不检查自己的泵送。Chatterjee解释说:“ LLM缺乏内部事实检查机制,并且由于其目标是预测下一个令牌(文本单位),因此他们有时更喜欢听起来清醒的令牌序列而不是正确的序列。”
当他们不知道答案时吗?他们经常构成一些东西。Chatterjee告诉我:“如果模型的培训数据对于给定查询的信息不完整,相互冲突或不足,则可能会产生合理但不正确的信息,以填补“差距”,” Chatterjee告诉我。
许多AI工具默认没有承认不确定性,而是产生答案–是否正确。其他时候,它们具有正确的信息,但无法检索或正确应用。当问题很复杂或模型误解上下文时,这可能会发生。
这就是为什么提示很重要的原因。
提示的幻觉弹性力量
某些类型的提示可以使幻觉更有可能。我们已经涵盖了提高您的AI提示的最重要技巧。不仅是为了获得更多有用的结果,而且是为了减少AI脱离轨道的机会。
例如,模棱两可的提示会引起混乱,导致模型混合知识源。Chatterjee说,这是您需要谨慎的地方,请问“关于巴黎的情况”,而没有上下文,您可能会看到有关巴黎,法国,巴黎希尔顿和希腊神话中巴黎的奇怪融合。
但是,更多的细节并不总是更好。太长的提示会淹没模型,使其失去了关键细节的跟踪,并开始用捏造来填补空白。同样,当模型没有足够的时间来处理问题时,它的可能性更可能犯错。那就是为什么像经过思考的促进链的技术–鼓励模型通过问题逐步推理的地方;可以导致更准确的响应。
提供参考是使AI保持正轨的另一种有效方法。Chatterjee解释说:“有时您可以通过提供模型“预阅读”或“知识源”来解决此问题,以便可以交叉检查其答案。”在回答之前为模型提供了一系列示例的射击提示也可以提高准确性。
即使使用这些技术,幻觉仍然是LLM的固有挑战。随着AI的发展,研究人员正在研究使模型更可靠的方法。但是就目前而言,了解为什么AI幻觉,如何预防它,最重要的是,为什么您应该事实检查一切仍然是必不可少的。
您可能还喜欢
我要求Chatgpt通过有史以来最大的哲学辩论进行工作。在这里,发生的情况确认了4亿个每周的ChatGpt用户 - 这是使用世界最受欢迎的AI Chatboti'The Chatboti'The Chatgpt专家的5种好方法,通过升级我的AI提示&ndash&ndash–这是我成功的8个主要技巧
本文来自作者[yjmlxc]投稿,不代表颐居号立场,如若转载,请注明出处:https://yjmlxc.cn/yule/202506-611.html
评论列表(3条)
我是颐居号的签约作者“yjmlxc”
本文概览: 像Chatgpt这样的大型语言模型(LLM)以其能力使世界惊叹不已。但是,他们也是一个自信地散发出绝对胡说八道的头条新闻。 这种现象被称为幻觉,范围从相当无害的错...
文章不错《令人惊讶的原因Chatgpt和其他AI工具构成了–以及为什么它不仅是故障》内容很有帮助