破局AI幻觉:RAG技术如何重塑企业级大模型可信度?

图片

作为社交大数据领域领跑行业发展的人工智能技术公司,慧科讯业基于累积多年的AI技术实力与27年丰富客户服务经验,落地于AI驱动的知识图谱技术提升数据价值和效率,实现AI在营销中的实战应用,充分释放商业价值。

 

背靠拥有100+ AI及大数据专家的Wisers AI Lab,立足于自研四大模型和三大独有AI技术,慧科讯业自研的行业权威媒介大数据挖掘分析模型(Wisers Industry LLM)在数据处理和分析的全面性、准确性、时效性等方面都在业界遥遥领先。准确率引领行业最高标准,可对标DeepSeek R1 Level;性能优势显著,处理每个调用平均时长仅为通用LLM的1/20。在稳定性方面,实现更高并发和高性能的同时,慧科讯业已基于火山引擎和华为云上的DeepSeek,使用双活LLM及自由蒸馏行业化模型(2+1)的模式规模化服务客户,实现更准确、速度快、情感准的行业化应用,赋能客户最大化挖掘和商用社交媒体数据价值。

 

随着大语言模型的应用日渐广泛,大模型的幻觉问题也逐渐凸显。“幻觉”指大模型在生成内容时,有时输出的结果看似丰富有逻辑,但经过人工核实后,发现信息与问题不符或是完全虚构的。大语言模型的“幻觉”现象已成为当前人工智能领域备受关注的问题之一,企业在应用大语言模型的过程中,如何借助技术方案,解决AI幻觉问题?

 

慧科讯业基于累积多年的AI技术实力与服务经验,已将自研大模型及RAG等技术投入于营销应用。在商业实践中,慧科讯业进一步验证了RAG技术的应用价值:除了在技术层面从数据、训练、推理三方面缓解大模型幻觉外,还将RAG与商业场景充分结合,为企业提供数据扩展性极强的事件发现和脉络分析方案,实现AI在营销中的实战应用。

 

 

何为大模型“幻觉”?

 

大模型幻觉是指模型生成的输出内容不准确、具有误导性、与现实世界事实不符、与用户指令或提供的上下文不一致,或者无法通过已知事实来验证。这些输出可能完全是捏造的,也可能是对现有知识的错误引用或扭曲。模型在产生幻觉时,往往表现得非常“自信”,使得用户难以辨别真伪。

 

通常来说,大模型幻觉分为两大类——事实性幻觉与忠实性幻觉。事实性幻觉指生成的内容与可验证的现实世界事实不一致,如错误地回答历史事件的时间、人物关系等或生成的内容是完全虚构的。忠实性幻觉指生成的内容与用户的指令或提供的上下文不一致,输出偏离了用户的明确指令,输出与提供的上下文信息不符,或生成内容存在逻辑矛盾。如要求总结A文章,却生成了B文章的摘要,或要求总结某篇文章,但生成的摘要包含了原文未提及的观点或信息。在长篇幅或多轮对话中出现前后矛盾的陈述。

 

随着越来越多的企业在业务中应用大语言模型,大模型幻觉可能对企业带来多方面的危害和风险。错误信息和虚假信息被用户采信并传播,可能造成广泛的误导。在医疗、金融、法律等关键领域,基于幻觉内容做出的决策可能导致严重后果。生成带有偏见、歧视性或有害的内容,也可能引发伦理争议甚至触犯法律法规。

 

大模型运作基于统计模式而非事实核查,缺乏真正的理解和对真理的认知。因此,幻觉可能是大型语言模型的一种固有属性,难以完全避免。综合而言,大模型产生幻觉的原因主要涉及大模型在数据、训练和推理的三大环节。

 

  • 前期,模型预训练所需海量数据,其中可能包含错误、过时、偏见或矛盾内容。训练数据存在知识边界,无法覆盖所有知识领域且存在截止日期,导致模型缺乏对某些领域或最新事件的了解。此外,数据集中的重复样本带来的数据重复或不平衡、数据标注中存在错误或不一致,也可能导致模型生成内容时产生偏差。

  • 在模型架构与训练过程中,大模型概率驱动的生成机制决定了优化的是生成文本的流畅性、连贯性和统计上的可能性,而非事实的准确性。模型参数与复杂性,以及训练过程中过拟合(模型过度学习训练数据细节,泛化能力差)或欠拟合,也增加了出错和“过度思考”产生幻觉的可能性。

  • 在大模型推理生成阶段,内容生成时采用的解码策略(如束搜索、随机采样)以及温度等参数设置会影响输出的多样性和随机性,都可能导致偏离事实的生成。内容层面,模型可能无法完全理解长距离依赖关系或细微的语境差异,对上下文理解的限制带来了生成内容的不准确。对齐阶段,人类标注的期望超出模型的能力边界,或基于人类反馈的强化学习带来的能力错位或信念错位,都可能导致模型不得不牺牲事实准确性以生成内容。此外,不清晰、有歧义或引导性的用户输入也可能诱导模型产生幻觉。

 

 

如何借助技术,缓解大模型“幻觉”问题?

 

大模型幻觉虽不能完全得到消除,可以借助技术,针对根据大模型幻觉产生的原因,从数据、训练、推理三方面进行缓解。RAG(Retrieval-Augmented Generation,检索增强生成)是一种将信息检索与大型语言模型的生成能力相结合的技术框架。它不是直接修改大模型的内部参数,而是在大模型生成回答之前,先从一个外部的、可信的知识库中检索相关信息,并将这些信息作为上下文提供给大模型,指导其生成更准确、更可靠的回答。

 

针对大模型“幻觉”产生的三大原因,RAG技术能一定程度上缓解大模型幻觉问题。

 

1

 

数据层面

RAG通过动态更新知识和注入事实依据解决大模型因知识过时而产生的幻觉。RAG所依赖的外部知识库可以独立于LLM进行更新。这意味着可以通过更新知识库来轻松地让系统掌握最新的信息,而无需重新训练庞大的LLM。此外,RAG会根据用户的问题,从一个指定的、通常是更新更频繁、更可靠的外部知识源(如公司内部文档库、最新的新闻数据库、专业知识库等)中检索最相关的信息片段。然后,它将这些检索到的信息作为“事实依据”注入到给LLM的提示中。LLM被明确指示要基于这些提供的信息来生成回答。这相当于给模型提供了“开卷考试”的参考资料,大大降低了它凭空捏造事实的可能性。

2

 

训练层面

RAG通过增强答案的特异性和相关性与减少对模型内部记忆的依赖降低大模型因缺乏具体信息或过度依赖这种内部记忆而产生幻觉的可能性。RAG通过检索步骤,能够定位到与用户查询最相关的具体信息,并将这些条款提供给LLM。这样,LLM生成的答案就能紧密围绕这些具体条款,而不是基于其泛化的内部知识进行猜测。另外,RAG将一部分知识查找的任务外包给了外部检索系统。LLM的角色更多地转变为理解问题、整合检索到的信息,并以自然语言形式生成流畅回答。它不再需要仅仅依赖其可能不准确或过时的内部记忆来回答事实性问题。

3

 

推理层面

RAG提供提高透明度和可验证性,大大降低了凭空捏造“事实性幻觉”的可能性。RAG系统通常可以提供其答案所依据的原始信息来源(即检索到的文档或片段)。用户可以查看这些来源,自行验证信息的准确性。这种可追溯性不仅增强了用户对答案的信任,也使得发现和纠正潜在的幻觉(无论是检索错误还是生成错误)变得更加容易。

 

图片

 

总结来说,RAG通过以下核心机制缓解幻觉:

  • 数据层面,通过外部知识注入补充内部知识:RAG用实时、相关、通常更可信的外部信息来补充或替代模型可能不准确的内部知识。

  • 训练层面,增强上下文约束降低大模型对内部记忆的过度依赖:RAG通过检索步骤及外部检索系统,强制模型在生成答案时优先考虑提供的外部上下文信息。

  • 推理层面,借助来源追溯机制降低大模型捏造“事实性幻觉”可能性:RAG允许验证答案所依据的信息来源,增强用户对答案的信任同时纠正潜在的幻觉。

 

 

RAG应用于商业实践,高效助力非结构化数据价值挖掘

 

随着人工智能技术的发展,越来越多的AI技术正在与商业场景结合,在实际应用中激发出技术潜能。在当下,全球数据量正出现大幅增长,非结构化数据仍然是最主要的数据形式。IDC数据显示,2023年的数据中非结构化数据占92.9%。大量非结构化数据蕴含着巨大的商业价值,如何借助技术手段,从其中挖掘出商业金矿?

 

面对公域海量多模态非结构化社媒大数据,企业可从海量百亿文档和评论内容中进行热点话题/事件、新趋势话题/事件抽取与发现,并持续追踪话题/事件。从中提前洞察最新营销趋势及消费者动态,辅助商业决策。此外,非结构化数据处理费时费力,如何实现自动无人工、准确、全面、高效、成本可控,则是当下技术层面聚焦的一大难题。

 

作为社交大数据领域领跑行业发展的人工智能技术公司,慧科讯业基于累积多年的AI技术实力与27年丰富客户服务经验,落地于AI驱动的知识图谱技术提升数据价值和效率,为企业提供基于RAG技术的丰富商业应用场景。慧科讯业话题事件发现及脉络分析,能帮助企业实现对非结构化社媒大数据自动、高效、高精度、成本可控地发现重点事件话题、公众情感态度、事件关联脉络、自动预测发展趋势,实现AI在营销中的实战应用,充分释放商业价值。

 

1

 

在趋势事件与话题发现层面

慧科讯业话题事件发现算法能在百亿数据上实时进行话题事件发现抽取,并自动识别主体进行聚类,自动呈现完整的事件脉络,相比行业传统做法无需人工干预。慧科讯业自研大模型可自动识别新事件,结合积累的行业know-how,将行业、类型与目标主体高度相关,算法可实现话题归一率95%。后续,话题事件可自动按声量、参与者、相关度、类型等维度灵活排序,为企业实时生成完整的事件脉络。

2

 

在持续追踪话题或事件过程中

慧科讯业自研大模型在数据打标及构建知识图谱的全面性、准确性、时效性均在业界遥遥领先。可以自动持续对新增数据进行话题事件打标,帮助企业持续追踪话题事件,随时灵活调整,同时杜绝人工配置监控关键词,话题事件打标不准确等问题。

3

 

话题事件类型与关联主体发现时

慧科讯业自研大模型能够无延迟自动从大数据文本中抽取归纳行业知识,形成知识图谱,自动进行话题事件类型判断及事件关联主体抽取。可实现主体和维度实时构建并扩充,覆盖率保持98%以上,相比传统人工进行话题事件类型判断及关联主体抽取效率高、成本低。

4

 

细分到客观/主观态度识别过程中

慧科讯业大模型可自动识别话题事件参与者的客观态度。相较普遍采用的人工判断费时费力且不准确,借助四元关系组识别技术,可准确理解企业关注和内容真实表达情感。

 

慧科讯业基于自研大模型及RAG等技术,为企业提供数据扩展性极强的事件发现和脉络分析方案,可支持千万至亿万量级输入数据,准确高效、成本可控。未来,基于累积多年的AI技术实力和数据优势,结合高质量知识库、精准检索算法和生成模型的适配训练,慧科讯业将继续为企业提供更智能高效的事件发现和脉络分析解决方案,助力企业充分挖掘数据商业潜力。

全网舆情监测分析系统
全网舆情监测分析系统
7*24h实时监测分析网络舆情/竞品动态/行业资讯/营销公关效果
在线客服
在线客服
免费试用
免费试用
关注我们
关注我们
慧科讯业公众号
回到顶部
回到顶部