站长之家whois企业邮箱在哪里登陆

张小明 2026/1/8 19:27:44
站长之家whois,企业邮箱在哪里登陆,wordpress添加图片不显示,seo模拟点击软件但对大部分开发者来说#xff0c;搭一个RAG不难#xff0c;怎么把它优化成生产可用的状态最难。 在这个过程中#xff0c;检索效率、准确性、成本、响应速度#xff0c;都是重点关注问题。 那么#xff0c;如何对其进行优化#xff1f;我们可以逐步对查询、索引、检索器…但对大部分开发者来说搭一个RAG不难怎么把它优化成生产可用的状态最难。在这个过程中检索效率、准确性、成本、响应速度都是重点关注问题。那么如何对其进行优化我们可以逐步对查询、索引、检索器、生成器以及RAG pipeline这五大环节分别进行优化。接下来本文将对此进行逐一解读。以下是太长不看版01 查询策略优化1假设性问题生成做法先用 LLM 为文档块生成潜在用户问题RAG 阶段先做 query-to-query 检索搜索到相关的假设问题然后再找到对应的文档块最后生成回答。优势query-to-query检索属于对称域内训练比基于Q-A pair的“跨域(out-of-domain)”相似检索更直观检索效果提升。局限需要额外生成问题可能有幻觉建议对此环节离线预处理。class HypotheticalQuestionGenerator: def generate_questions(self, document_chunk): prompt f 基于以下文档内容生成3-5个用户可能询问的问题 文档内容{document_chunk} 问题 questions self.llm.generate(prompt) return self.parse_questions(questions) 2HyDE假设性文档嵌入做法针对用户提问LLM 先生成一个假答案fake answer可能是真可能是假但都不重要再与 query 一起嵌入向量库检索。优势同假设性问题生成answer-to-answer检索属于对称域内训练可以显著提高缺乏标注数据情况下的检索召回率。局限引入生成开销和不确定性。论文出处《Precise Zero-Shot Dense Retrieval without Relevance Labels》。3分解子查询做法复杂问题拆解为多个子查询分别检索再综合。优势简化查询复杂度提高检索相关性。适用功能对比、组合型问题。举例“Milvus和Zilliz Cloud功能差异是什么这样的复杂问题将其分解为子查询1“Milvus的功能特性有哪些”子查询2“Zilliz Cloud的功能特性有哪些”然后向量数据库为每个子查询找到Top-K最相关的文档块LLM使用这些信息生成更准确的综合答案。4创建回退式提示词做法将复杂问题转化为更高层、更直观的问题。优势提升准确性适合技术规格、容量边界类问题。举例把提问我有100亿条记录的数据集想存储在Milvus中进行查询这可能吗“这样的复杂查询改为Milvus能够处理的数据集规模上限是多少”02 索引策略优化1自动合并文档块做法索引的创建分为 chunk 级别以及 parent chunk级别如果召回的Top-K 中某parent chunk下的子块超过阈值就直接把parent chunk作为上下文信息提供给LLM。优势平衡检索精度与上下文完整性。关键点动态阈值调优上下文不宜过长。class HierarchicalChunkMerger: def merge_chunks(self, child_chunks, threshold3): parent_chunk_count {} for chunk in child_chunks: parent_id chunk.parent_id parent_chunk_count[parent_id] parent_chunk_count.get(parent_id, 0) 1 # 选择超过阈值的父块 selected_parents [pid for pid, count in parent_chunk_count.items() if count threshold] return self.get_parent_chunks(selected_parents)2分层索引构建做法为文档建立两级索引摘要级别索引和文档块级别索引。检索时先在摘要层级检索再深入到对应文档块检索。优势适合海量数据与分层数据尤其适合图书馆/知识库类场景。风险摘要质量直接影响效果需要采用专门的摘要生成技术和质量评估机制。3混合检索与重排序做法向量检索 全文检索最后 rerankRRF 或 Cross-Encoder。具体参考实战Milvus 2.5语义检索VS全文检索VS混合检索优势多路召回更全面重排提升排序精度。关键点合理配置向量与全文检索对应的权重和参数。03 检索器策略优化1句子窗口检索Sentence Window Retrieval背景传统的向量检索通常以段落级或文档级为单位这会导致切的太粗长段落里只有少量句子真正相关从而引入大量噪声切分太细相关内容之间的联系丢失。做法以句子为单位检索同时带前后若干句的上下文窗口。优势保证精细匹配保留上下文减少碎片化。挑战窗口大小需动态调整避免上下文过长引入噪声影响输出质量。class SentenceWindowRetriever: def retrieve_with_window(self, query, window_size3): # 检索核心句子 core_sentences self.vector_search(query, top_k5) # 扩展窗口上下文 expanded_results [] for sentence in core_sentences: window_context self.get_surrounding_sentences( sentence, window_size ) expanded_results.append(window_context) return expanded_results(2)元数据过滤做法做向量检索前先基于元数据时间、类别等过滤。优势精准定位适合金融/医药等领域。比如金融中检索某企业某一年财报中关于资产负债的描述。难点先做元数据过滤再使用图索引算法会导致图结构基本失联可采用Alpha 策略、ACORN 、动态选择邻居解决。详情参考Milvus Week | 向量搜索遇上过滤筛选如何选择最优索引组合04 生成器策略优化(1)LLM提示压缩背景大模型提示词越长对核心内容的权重分配越混乱压缩上下文可以帮助大模型更好捕捉重点。做法检索结果传给大模型前对上下文进行摘要/关键信息提取。适用长上下文/多文档、agent场景。小tips训练小模型来进行上下文压缩压缩的核心技术包括关键信息提取、摘要生成和噪声过滤算法。class PromptCompressor: def compress_context(self, retrieved_docs, max_length2000): # 提取关键信息 key_info self.extract_key_information(retrieved_docs) # 生成压缩摘要 compressed self.summarize_content(key_info, max_length) return compressed(2)块顺序优化**背景**基于“Lost in the middle”现象LLM会给上下文的开头和结尾更高的权重忽略中间部分内容。做法将高置信度内容放在上下文的首尾位置。05 RAG pipeline整体优化(1)自反馈机制做法第一轮检索不佳时触发二次检索或推理反思。常见的反思办法有自然语言推理NLI模型或互联网搜索等。应用Self-RAG、Corrective RAG、LangGraph 等已有探索。(2)智能查询路由做法在 RAG 之前设置 agent分析、拆解用户意图判断是否启用 RAG/子查询/网络搜索。优势避免在简单问题上滥用 RAG提升整体效率和准确性。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

遵义住房城乡建设厅网站个人如何制作网站

RK3588语音AI部署终极指南:Sherpa-ONNX跨平台实战方案 【免费下载链接】sherpa-onnx k2-fsa/sherpa-onnx: Sherpa-ONNX 项目与 ONNX 格式模型的处理有关,可能涉及将语音识别或者其他领域的模型转换为 ONNX 格式,并进行优化和部署。 项目地址…

张小明 2026/1/8 19:25:42 网站建设

手机网站改app前程无忧招聘网站标记怎么做

还在为云顶之弈的等级提升而苦恼吗?每天花费大量时间手动操作,只为获得那点可怜的经验值?现在,一款革命性的云顶之弈自动挂机工具横空出世,让你彻底告别枯燥的重复操作。 【免费下载链接】LOL-Yun-Ding-Zhi-Yi 英雄联盟…

张小明 2026/1/8 19:23:39 网站建设

网站建设分配人员方案刷赞网站空间免费

思源黑体TTF构建指南:打造专业级多语言字体库 【免费下载链接】source-han-sans-ttf A (hinted!) version of Source Han Sans 项目地址: https://gitcode.com/gh_mirrors/so/source-han-sans-ttf 在当今数字化设计时代,一款能够无缝支持中日韩多…

张小明 2026/1/8 19:21:33 网站建设

门户网站建设 报告设计公司怎么接业务

还记得第一次接触3D建模时的挫败感吗?复杂的界面、繁琐的操作、永远对不齐的顶点...这一切都将成为过去。今天,我要分享的是如何通过nerfstudio这个开源神器,让毫无3D建模经验的普通人也能在30分钟内创建出专业级的3D场景。 【免费下载链接】…

张小明 2026/1/8 19:19:32 网站建设

网站建设郑州现在最火的推广平台有哪些

LangFlow技术峰会预告:年度最大规模开发者聚会 在AI应用开发日益复杂的今天,如何让一个创意从灵感到落地的时间压缩到以小时计?这曾是许多团队梦寐以求的目标。而随着大语言模型(LLM)生态的成熟,尤其是Lang…

张小明 2026/1/8 19:17:29 网站建设

酒店网站 方案湖北系统app定制开发系统

Polyformer塑料回收设备终极指南:从零开始制作3D打印耗材 【免费下载链接】Polyformer Polyformer: 这是一个开源项目,旨在将塑料回收再造成FDM(熔融沉积建模)丝材。 项目地址: https://gitcode.com/gh_mirrors/po/Polyformer …

张小明 2026/1/8 19:15:28 网站建设