首页 / 为了减少AI幻觉,你注入过哪些设定?
#

为了减少AI幻觉,你注入过哪些设定?

#
23953次浏览 307人互动
使用AI过程的中,你遇到了哪些AI胡乱回答的情况?你会如何应对?求分享你减少AI幻觉的“焚决”>>
此刻你想和大家分享什么
热门 最新
腾讯AI产品一面:如何缓解幻觉?
严重性定义 产品场景下幻觉的容忍度,接受多少成本来解决评估和检测●业务角度:进行人工评估,比如标100条Case,从体感上感知主要问题●自动化评估:在垂直领域,构造数据集,利用LLM进行知识检索判断幻觉幻觉分类大致分为与真实世界信息不一致的事实性幻觉(包括编造事件、信息过时等)、与输入的上下文不一致的忠实型幻觉。需要不同的缓解措施幻觉如何缓解?调API的话1.首先是Prompt调优。比如输入更详细的任务指令、调优的过程中不断根据输出的Bad Case加入限制。比如COT。2.然后是上下文优化,这里指的可以是RAG的召回信息优化,也可以是特定场景的上下文处理优化,突出其重点部分更容易被大模型理解。3.还可以基于Agent思想,将其问题拆分成更细粒度的任务,每个步骤都使用RAG融入外部知识来降低幻觉。4.最后是成本较高的,使用另一个模型来检测幻觉,如果有幻觉则重新生成。自研模型的话,通常是在垂直场景需要蒸馏一个小模型,或者微调一个模型。除去上述部分,还可以参考一下思路1.SFT训练数据层面:通过合成指令微调,有助于缓解幻觉。2.强化学习:在强规则的领域,可以通过强化学习来缓解忠实型幻觉。比如特定格式输出、特定内容提取等。3.推理:在不同领域考虑不同的解码方式,多样性解码在专业领域诱发更多幻觉,贪心搜索在开放领域加剧幻觉
查看9道真题和解析
点赞 评论 收藏
分享
Skills学习过程
初步学习编写Skills时,我只是去在网上大概学习了他的结构框架,照猫画虎的写了一些内容。但是只是简单的小demo而已,入门可以,真正实战就完全不够看了。自己也曾试过写一下复杂的Skills,或做一些实践,但始终没什么方向。后来导师看出了我的迷茫,开始给了我一个文档指导我练手,先把这个文档清洗了。一开始根本没法下手,只能让LLM帮我先大致生成一个Skills大纲,然后大致填写内容,差不多就行。然后开始让LLM自己读取这个Skills然后自己清理。刚开始出现的问题并不是预想的清理效果不佳,而是因为文档太差,超出上下文了。。。然后开始考虑分文件输出文档,将要输出的内容拆成多个文档输出,后续再进行合并或者暂时不合并直接下一步操作。这个问题暂时解决了,接着就是清洗效果不佳问题,就不断优化Skills,自己优化,LLM帮我优化,一人一智一起努力后,也算提升了效果,但是开始出现LLM普遍出现的问题——AI幻觉。要么是开始省略删减我原本文档的内容,要么就是开始胡说,编造一些不属于原文档的内容。可恶,我开始在Skills中各种加“不要自己随意对内容进行自由发挥改写或删除!不能自己精简和胡编乱造!!!“看似有用,但它时而有用时而还得我二次提醒。就是很煎熬。这个问题我一直修改了好几版还没解决,直到我看到网上类似的情况,才知道,虽然我加了这些强调,但是由于LLM上下文实在有限,有时输入内容多了(尤其是文档过长)很容易就忘了之前的Skills要求(要求被大量文本稀释了),开始我行我素。。。因此我开始考虑能否把读入的内容改成一段一段,每一段都加入Skills提醒,这样可否可行?甚至最后我也重新清理了我的Skills,把大量内容整理,压缩压缩再压缩,让每次提取Skills不会对上下文造成太大压力,并且对重要内容重新归纳到其他文件中作为reference,不重要的就重合压缩,甚至删除。最后效果确实好了不少,对于Skills的学习也将进入下一个阶段。。。
点赞 评论 收藏
分享
优化prompt可以有效消除事实性幻觉
点赞 评论 收藏
分享
ai幻觉踩坑和避坑
作为刚毕业的运营,日常用AI做内容、写脚本、处理数据时,被幻觉问题坑过好多次——凭空编数据、造来源、逻辑自相矛盾,返工超磨人。试了不少方法,终于摸出些能有效减少幻觉的实操技巧,分享给同频的小伙伴,亲测有用不鸡肋~✅ 注入精准指令+限定规则,从源头定框架不会只说“写一篇XX文案”,而是明确加“所有信息需有依据,禁止编造数据/来源”“仅基于已知信息作答,未知内容标注‘无相关信息’”,甚至限定格式和核心要点,让AI没有瞎发挥的空间。✅ 注入具体参考资料,让AI有据可依不管是做行业分析还是写产品文案,都会把官方数据、品牌资料、权威报告等粘贴给AI,标注“基于以下资料创作,严格贴合内容,不额外延伸”,尤其涉及数据、专业术语时,参考资料越具体,幻觉概率越低。✅ 注入清晰的约束条件,圈定作答范围比如写运营方案时,会明确“仅围绕XX平台、XX用户群体展开,不涉及其他平台/群体”;查行业信息时,限定“仅参考2025-2026年最新数据,不使用过期信息”,避免AI跨范围脑补。✅ 注入分步提问的逻辑,拆解复杂需求不会让AI一步完成复杂任务,而是拆分步骤:先让它梳理核心信息,再让它基于梳理结果做分析,最后再生成方案,每一步都基于上一步的结果约束,既减少幻觉,也能让输出更贴合需求。✅ 注入反向验证指令,让AI自查自纠完成生成后,会追加一句“核对以上内容是否有编造/矛盾/无依据的信息,逐一标注并修正”,相当于让AI先自查一遍,再人工复核,双重把关能筛掉大部分低级幻觉。其实AI的幻觉,大多是因为指令模糊、无参考依据、需求太复杂导致的。与其事后返工,不如事前把“规矩”立好,给AI注入清晰的指令、靠谱的参考、明确的约束,让它只能在设定的框架内作答。当然,最后一步永远是人工复核,尤其是涉及数据、专业内容、正式文案时,AI再靠谱,也抵不过自己逐字核对一遍,这才是杜绝幻觉的最后一道防线。
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客网在线编程
牛客网题解
牛客企业服务