关于向量数据库的选择有什么建议?
wujiai
|A1:一是预处理,因为大模型的窗口有token上限,太长的内容可能无法完全输入。 因此,我们需要找到最相关的内容并将其放入大模型中。 这将涉及将相关内容组合到其中,然后将其提供给大型模型; 二是答题时如何找到相关内容。 从耗时上来说,还是比较可控的,基本可以控制在200毫秒左右。 另一种是通过一些澄清机制。 ,当某个问题的答案可以链接到大量文档时,大模型需要通过澄清机制找到精确的答案。 例如,当询问产品的回报率时,大模型知识库可以在多个月报和季报中找到相关内容。 这时候大模型就会提出不同维度的问题,比如询问用户想要哪个时间段的数据。 通过多轮问答的下钻机制,保证问题理解的准确性。 帮助用户定位实际问题。 通过这种澄清和提问的能力,我们可以帮助客户澄清他们的问题内容,??更有针对性地找到最相关的文档和相关片段。
Q2:您对矢量数据库的选择有什么建议?
A2:目前矢量数据库的差异不是很大。 已经是一个比较成熟的技术方案了。 应该更多地关注模型,例如矢量化文本内容或表格内容。 根据不同的内容或不同的语言,选择的模型会有所不同。 一些差异。
Q3:大型模型提示字数要求下,如何实现精细化、精准的知识文本切分?
A3:知识文本的切分需要按照一定的维度进行切分。 比如先按页码分词,然后可以按字数分词,最后可以按段落语义分词。 并且在分割过程中会有布局分析。 分析后可以知道内容是表格、图片还是文本,可以结合文档内容类型进行分类。 关于切片的处理,比如内容是跨行或者跨页的表格,需要将其解析成一个整体,然后再对表格进行单独处理。 在召回过程中也会做一些优化,根据不同场景的差异化策略来确定切片召回是基于段落召回还是句子召回。
Q4:大模型支持的知识库有没有更好的搜索实现方法?
A4:第一个是从整个加工流程来看。 首先,解析文档。 解析结果是否高质量,其实会对答案产生比较大的影响。 输入实际上是一个已解析的片段。 输入片段的解析质量越高,响应的准确性就越高。 对比不同型号会有这样的表现。 对于高质量的分析内容,它的响应准确度会比较高,但是对于低质量的分析内容,它的响应准确度会比较低,差别还是很大的。 二是矢量化。 例如,开源中有很多矢量化模型。 选择使用哪一种以及内容矢量化的时间长短都会影响最终检索和召回的准确性。 例如,在召回计划中,采用的是组合计划,是分步、多层次的。 不同的情况会有不同的处理,这样可以保证召回做得更准确。
Q5:不同场景下需要的模型、提示词工作内容、微调训练会有所不同吗?
A5:根据客户的业务需求,比如有的客户想要回复原文,不做任何总结或修改,就必须使用提示项目来控制。 有些客户希望尽可能多地总结和覆盖内容,或者希望内容精简等等,需要根据场景制定一些策略。 例如,在金融场景中,如果客户问的问题较多是业务性的问题或者财务管理性的问题,就可以做一些场景化的任务。 核心是场景会涉及到推理或者计算,而这种推理和计算并不是大模型。 的优势。 那么就可以做好前期信息的获取,然后进行包括逻辑推理或者计算在内的处理,从而达到更好的效果。
Q6:如果我想提供主动营销的智能客服,问答知识库可以支持吗? 我们是否需要人工智能代理功能将任务分解为回答问题和营销指导?
A6:营销指导有两种思路。 一是把整个营销流程配置在策略体系中,然后在不同场景下遵循不同的策略流程。 每个策略节点下,可以基于一个大模型,比如投资顾问助理,基于客户特征、产品特征、市场理念的融合,形成推荐词。 另一个是将言语技能融入到座席的流程中。 Agent执行过程中,会动态调用不同的需要关注的子场景和流程点。 确认场景后,将调用调用,然后代理将按照流程执行。 这种方法成本比较低,但是不太稳定。 所以还是建议直接在技术人员做工艺的过程中加入营销技巧,与预设的工艺方案结合起来,可能比使用代理更可控。
Q7:书面知识应用效率的提升主要体现在哪里?
A7:文档管理:一键批量上传多种格式的表单和文档,并按文件夹和标签进行管理,轻松快速准确地处理大量文档,效率倍增。 知识问答:化繁为简,告别关键词搜索。 方式寻找答案,问答格式精准定位问题和答案,可溯源查看原文摘要:智能分析复杂文档,1分钟提取100页文档关键信息,准确率90%以上,快速生成高质量的文档摘要,辅助更快速、高效地阅读和理解文档 QA生成:根据问题自动分析文档中的关键信息,生成QA知识文档形式,并利用问答来增强内容提炼
Q8:LLM出现幻觉如何应对? 在实际应用场景中,如果答案错误,如何处理才不会误导用户?
A8:避免幻觉的插件知识库技术()是中关村科技聚焦大模型领域形成的平衡大模型风险防范与价值创造的四大核心技术能力之一。 幻觉倾向意味着大型模型常常会产生看似合理但实际上与事实不符的陈述。 有时编造的信息一眼就能看出真假,有时却一时间难以辨别事实。 错觉是当前大型模型的固有属性。 中关村科技通过外挂知识库很大程度上杜绝了这种现象。 通过插件知识库的形式,将所有事实知识和流程知识放置在领域知识平台中。 利用大模型进行提取、调度和生成,然后下游业务系统通过API获取结果专家问答,保证业务知识的实时性。 性能、可靠性。 在知识问答过程中,中关村科金知识助手提供了追溯功能。 基于该功能,用户可以直接定位答案内容的原文,轻松验证答案内容。
Q9:中关村科进现有的大模型是否经过预训练? 还是通用型? 预训练期是多长? 增量训练?
A9:中关村科技领域大模型主要基于开源通用大模型。 将参数微调一段时间(增量训练、指令微调)以满足特定场景的需求,然后投入使用。
Q10:企业智能知识库的建设路径有哪些关键点?
A10:首先,对于知识有限、专业要求不高的企业,可以采用“通用大模型+提示项目”。 直接使用通用的大模型,让业务专家根据企业的具体场景需求探索提示词。 这时,企业需要的是一套灵活易用的提示词管理工具。
其次,对于拥有大量长尾碎片知识(如SKU)的企业,需要基于通用大模型来插件领域知识库。 对于具体场景、企业具体问题,大模型可以去知识库寻找答案。 最后在提示词的引导和约束下返回输出结果,形成“通用大模型+领域知识库+提示项目”的形式。
第三,对于拥有大量领域知识的企业,需要构建企业专属的大领域模型,将领域内的通用知识输入到大模型的“大脑”中,从而保持通用的共性。感觉和推理,并拥有该领域的知识。 专业知识和技能将大模型从本科生变成领域专家,这就是“大领域模型+领域知识库+提示项目”的方法。








