

人工智能技术人才缺口越来越大
更高起点,等你挑战!
过去3年以来,人工智能(AI)领域的多个岗位持续面临人才短缺的问题
AI相关岗位在互联网、电商、智能硬件、游戏等多个行业的头部公司中显著紧缺,以阿里巴巴为例,人才紧缺度前10岗位中,6个均为AI相关岗位。小红书紧缺度前10的岗位中,9个与AI相关。而SHEN的8个高紧缺度岗位中,4个均与AI相关。
项目实战贯穿全程
讲透电商,举一反三覆盖多行业
硅谷大咖讲师+企业技术专家组团授课,深入讲透大模型关键技术应用
01 智能发布
(标题分类)02 商户运营管家03 掌柜智库04 好医智库05 伴学智库06 倾听智库07 金融智库08 美途智库09 智能评论10 电商小二11 尚医助手12 知学助手13 倾听助手14 金融助手15 美途助手16 掌柜问数17 归因分析18 商城风控19 市场罗盘20 万应助手21 舆情分析22 运维管家23 智能检索24 智能发布
(标题生成)
(标题分类)02 商户运营管家03 掌柜智库04 好医智库05 伴学智库06 倾听智库07 金融智库08 美途智库09 智能评论10 电商小二11 尚医助手12 知学助手13 倾听助手14 金融助手15 美途助手16 掌柜问数17 归因分析18 商城风控19 市场罗盘20 万应助手21 舆情分析22 运维管家23 智能检索24 智能发布
(标题生成)
项目一
智能发布(标题分类)
1.层级化分类设计:通过预测三级分类并反推上级类别,简化多级分类任务,确保层级关系严格一致。
2.数据均衡化处理:针对原始数据类别分布不均问题,采用热门类别下采样与冷门类别大模型数据增强策略。
3.预训练模型微调:选用bert-base-chinese模型,基于Huggingface Transformers库进行高效训练与部署。
4.高效训练与评估:在单张V100显卡上约一小时完成训练,最终在多类别场景下取得近70%的F1分数。
5.模块化功能集成:作为智能发布流程的核心环节,与图片生成标题、视频简介复刻模块协同工作。
【技术背景】
【从“单点分类”到“智能发布”:构建层级化内容理解与生成系统】在企业内容管理场景中,传统分类模型往往面临多级分类逻辑复杂、数据分布不均、难以与下游生成任务协同等挑战。本项目旨在构建一个服务于智能发布流程的、具备深度理解能力的分类引擎。系统采用创新的层级化分类设计,通过预测最细粒度的三级分类并智能反推其上级类别,不仅简化了复杂的多级分类任务,更从根本上保证了层级逻辑的严格一致性与准确性。针对现实世界中常见的长尾数据分布问题,系统创造性融合了热门类别的下采样与冷门类别的大模型数据增强策略,有效提升了模型对全量类别的识别鲁棒性。基于预训练的bert-base-chinese模型进行高效微调,在单卡V100上仅需约一小时即可完成训练,并在多类别场景下实现了近70%的F1分数,达成了精度与效率的平衡。该模块作为智能发布流水线的核心理解环节,与图片标题生成、视频简介复刻等模块无缝协同,共同构成了一个从内容理解到内容生成的完整、自动化智能发布解决方案。
【技术】
Python, Transformers, PyTorch, BERT, 下采样, 数据增强
【架构图】
项目二
商户运营管家
1.一个项目两个平台:分别采用市面上比较流行的 Coze 与 Dify 两种方式实现,通过 Agent 与 Workflow 编排,实现从数据洞察到AIGC的全链路自动化。
2.闭环营销:首创“热点-卖点-买点-文案-海报”自动化营销流,基于情感价值公式(痛点/爽点/痒点)自动生成高转化内容。
3.智能风控:集成钉钉机器人的投诉分类助手,利用 LLM 进行两级问题归类与情感分级,实时预警售后风险。
4.数据洞察:基于 Python 代码节点与批处理技术,将非结构化客服对话与商品评论转化为结构化数据,精准提取用户画像与产品缺陷。
5.视觉生产:工作流内嵌绘图与叠图插件,支持智能布局、Logo/二维码自动合成,一键生成专业级营销海报。
6.竞品雷达:融合 Google Search 与 Firecrawl 深度爬虫技术,自动化生成竞品分析与行业调研报告,辅助战略决策。
【技术背景】
【从“被动应答”到“主动营销”:重塑电商运营的智能大脑】在流量红利见顶的今天,电商商家面临着“内容生产难、售后响应慢、数据挖掘浅”的三大痛点。本项目致力于打破这一僵局,构建一套“能思考、会执行”的电商智能运营中台。我们摒弃了单一的工具拼接,而是采用 Coze 和 Dify 编排复杂的业务流。在营销端,系统不仅能通过知识库实时捕捉抖音/微博热点,更能结合通用性、独特性、保障性三大维度智能提炼卖点,并自动转化为小红书文案与短视频脚本,甚至直接生成带货海报。在服务端,系统化身为“金牌店长”,利用 LLM 强大的语义理解能力,对客服对话进行毫秒级的情感分析与意图识别,将投诉扼杀在萌芽状态。这不仅是一套提效工具,更是一个 24 小时在线的智能运营团队,帮助商家实现从粗放式管理到精细化智能运营的跨越。
【技术】
Coze、Dify、Python 、AIGC、LLM(DeepSeek/GPT)、Google_Search_API、DingTalk、RAG
【架构图】
项目三
掌柜智库
1.前沿架构:基于 LangGraph 构建企业级可插拔 RAG 工作流。
2.多模态处理:集成 MinerU 与 OCR,精准解析图文混排 PDF。
3.多路召回:向量检索 + 稀疏检索 + Neo4j 知识图谱多路混合召回。
4.智能切片:支持滑动窗口、Small-to-Big 及语义切分策略。
5.深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术。
6.全链路评估:集成 RAGAS 框架,自动化评估检索与生成质量。
【技术背景】
【从“搜文档”到“问专家”:打造电商设备领域的智能技术顾问】随着电商行业的数字化升级,商家面临着海量的智能硬件设备管理挑战(如打印机、扫码枪、智能 POS 机等)。这些设备往往配有冗长晦涩的操作手册和安装说明,传统的关键词搜索无法精准匹配用户在实际安装、报错排查时遇到的语义化问题,导致售后成本高企,用户体验受损。本项目致力于解决这一痛点,构建一套基于大模型的高级 RAG(检索增强生成)系统。我们采用最前沿的 LangGraph 框架编排复杂的业务逻辑。在数据处理端,利用 MinerU 和多模态模型攻克复杂 PDF 文档解析难题,结合 Small-to-Big 和滑动窗口等高级切片技术,最大限度保留文档语义。在检索端,系统创新性地融合了 Milvus 向量检索与 Neo4j 知识图谱,并引入 HyDE(假设性文档嵌入) 与 BGE-Rerank 技术,确保“红灯闪烁怎么办”这类模糊提问也能精准定位答案。这不仅是一个问答系统,更是一套可落地的垂直领域知识库解决方案,帮助企业实现售后服务的智能化转型。
【技术】
Python、LangChain、LangGraph、OCR、MinerU、Milvus、HyDE、BGE-Rerank、RAGAS、Neo4j
【架构图】
项目四
好医智库
1.前沿架构:基于 LangGraph 构建可审计、可溯源的企业级可插拔 RAG 工作流。
2.多模态处理:集成 MinerU 与OCR,精准解析医学影像报告、电子病历(EMR)及图文混排医学文献。
3.多路召回:向量检索 + 稀疏检索 + 临床知识图谱多路融合召回,确保医疗问答的准确性与覆盖率。
4.智能切片:支持基于病例结构的切片、滑动窗口、Small-to-Big及医学语义切分策略,适配长文档 EMR 与指南。
5.深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,优化对症状、诊断、治疗路径等查询的匹配质量。
6.全链路评估:集成 RAGAS 与临床知识正确性校验流程,实现检索与生成的自动化医疗级评估。
【技术背景】
【从"查指南"到"问专家":打造医疗知识领域的智能临床技术顾问】在医疗行业的数字化进程中,医院、医生与科研人员每天需要处理大量复杂的医学文献、电子病历(EMR)、医学影像报告及临床指南。传统检索方式难以理解临床语义差异,如"肺部阴影如何进一步鉴别"或"如何选择抗凝方案"这类专业提问往往无法被准确匹配到对应的文献与指南内容,导致信息获取效率低、临床决策支持不足。为应对这一痛点,本项目打造了一套面向医疗行业的企业级高级 RAG(检索增强生成)解决方案,实现精准、可控、可审计的医学知识问答与辅助信息检索功能。本系统基于前沿的LangGraph框架构建可溯源、模块化的RAG工作流。在数据解析端,融合 MinerU 与 OCR 多模态模型,专门攻克 EMR、影像报告与医学图文混排资料的结构化还原挑战,并以医学语义为核心引入 Small-to-Big、滑动窗口与基于病例结构的智能切片方法,最大化保持临床知识的原貌与逻辑关系。在检索端,创新整合向量检索、稀疏检索与临床知识图谱,实现多路召回机制;搭配HyDE(假设性文档嵌入)与BGE-Rerank技术,显著提升对症状、诊断与治疗路径等复杂查询的匹配精准度。同时,项目引入RAGAS评估体系与临床知识正确性校验,实现医疗领域的全链路自动化质量评估,为医疗机构构建安全、可信赖、可审计的智能知识体系。这不仅是一个面向医生与研究者的问答系统,更是一套可落地的医疗知识服务基础设施,为医院知识管理、临床决策支持与科研工作提供可靠的智能化能力支撑。
【技术】
Python、LangChain、LangGraph、OCR、MinerU、Milvus、HyDE、BGE-Rerank、RAGAS、Neo4j
【架构图】
项目五
伴学智库
1.前沿架构:基于LangGraph构建在线教育可插拔RAG工作流,支持课程构建、教辅生成与学习路径推荐的模块化扩展。
2.多模态处理:集成MinerU与OCR,精准解析教材扫描件、课堂板书截图、图文混排课件PDF。
3.多路召回:向量检索+稀疏检索+知识图谱(课程体系/题库知识点网)多路混合召回,支撑题目解析与知识点推送。
4.智能切片:支持滑动窗口、Small-to-Big及教育语义切分策略,适配不同学科的课件、笔记与大体量教材。
5.深度优化:引入HyDE假设性嵌入与BGE-Rerank重排序技术,增强对知识点、题干语义与解题逻辑的精准匹配。
6.全链路评估:集成RAGAS框架,结合题目正确率与知识点覆盖度,完成检索与生成质量的自动化性能评估。
【技术背景】
【从"搜题库"到"问名师":打造在线教育领域的智能学习技术顾问】随着在线教育产业的全面数字化,平台需要处理海量教材扫描件、课件 PDF、课堂板书截图与多版本题库内容。传统搜索方式难以理解教育领域的语义特征,例如"这个函数题为什么要换元?"或"这道化学实验题考什么知识点?"等自然语言提问常常无法被精准映射到相应的知识点、教材段落或题目解析上,导致学习资源利用率低,影响教学效果。本项目针对这一核心痛点打造了一套面向在线教育场景的企业级高级 RAG(检索增强生成)系统,帮助平台实现课程建设智能化、学习路径个性化、内容分发精准化。本系统基于 LangGraph 构建可插拔、可审计的 RAG 工作流,覆盖课程构建、教辅生成与学习路径推荐等多种教育任务。在内容解析阶段,集成 MinerU 与 OCR 多模态能力,精准处理教材扫描件、图文混排课件、黑板书写截图等复杂教学材料;并结合滑动窗口、Small-to-Big 与教育语义切分策略,适配各学科和不同格式的长文教材及课件。在检索端,创新性融合向量检索、稀疏检索与教育知识图谱(课程体系 / 题库知识点网),构建多路召回机制,有效支撑题目解析、知识点链接与学习路径推断。为提升问答质量,系统引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,大幅增强对题干语义、知识点关联与解题逻辑的精准理解。最终,结合 RAGAS 自动化评估框架与在线教育场景特有指标(如题目正确率、知识点覆盖度),实现多维度的检索与生成质量评估。本项目不仅是一个智能问答工具,更是一套可落地的教育智能知识基础设施,助力在线教育平台构建高质量的内容服务与智能学习体验。
【技术】
Python、LangChain、LangGraph、OCR、MinerU、Milvus、HyDE、BGE-Rerank、RAGAS、Neo4j
【架构图】
项目六
倾听智库
1、前沿架构:基于 LangGraph 构建企业级可插拔 RAG 工作流,支持对话意图理解、多轮问答与知识溯源,模块可灵活扩展与替换。
2、多模态处理:集成 MinerU 与 OCR,精准解析对话纪要、访谈文稿、图文混排报告及音视频转写文档。
3、多路召回:向量检索 + 稀疏检索 + 业务场景知识图谱多路混合召回,提升问答连贯性与场景匹配度。
4、智能切片:支持滑动窗口、Small-to-Big 及对话语义切分策略,适配长文本访谈记录与多轮对话日志。
5、深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,强化对观点、诉求、关键信息的精准提取与匹配。
6、全链路评估:集成 RAGAS 框架,结合信息完整度、回答合理性与事实一致性,实现自动化质量评估。
【技术背景】
【从 “搜音频” 到 “懂内容”:打造听书场景专属智能知识服务智库】随着听书行业发展,平台沉淀了海量音频转写文稿、主播讲稿、配套讲义与用户互动日志,蕴含着书籍核心观点、解读视角与用户诉求。传统检索无法适配 “主播解读核心观点”“情节对应音频片段” 这类场景化提问,难以精准定位关联内容、提取关键信息,导致平台知识资产沉淀不足、用户检索体验不佳,制约内容价值的深度挖掘。本项目打造面向听书场景的专属高级 RAG 系统 ——“倾听智库”,实现音频内容智能解析、用户问答精准响应与知识资产体系化沉淀。系统基于 LangGraph 构建企业级可插拔、可审计的 RAG 工作流,覆盖意图理解、多轮问答与知识溯源,模块可灵活扩展,适配不同品类书籍的听书场景。内容解析端集成 MinerU 与 OCR,精准解析转写文稿、讲稿等多类非结构化内容;结合滑动窗口、Small-to-Big 与对话语义切分策略,适配长文本转写与用户日志,保障内容解析的完整性。检索端融合向量检索、稀疏检索与听书场景知识图谱,构建多路混合召回机制,提升问答连贯性与知识溯源准确性。系统引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,强化音频内容、主播观点与用户诉求的精准匹配,避免语义偏差;结合 RAGAS 框架与场景评估指标,实现全链路质量自动化评估。这不仅是听书场景的智能问答工具,更是一套可落地的知识基础设施,助力平台挖掘音频内容价值,提升用户体验,构建高质量知识服务体系,增强核心竞争力。
【技术】
Python、LangChain、LangGraph、OCR、MinerU、Milvus、HyDE、BGE-Rerank、RAGAS、Neo4j
【架构图】
项目七
金融智库
1、前沿架构:基于 LangGraph 构建金融场景可插拔 RAG 工作流,支持研报解读、数据查询、风险提示与合规校验一体化流程。
2、多模态处理:集成 MinerU 与 OCR,精准解析财报 PDF、研报图表、招股书、合同文本及金融图文混排资料。
3、多路召回:向量检索 + 稀疏检索 + 金融知识图谱(行业 / 标的 / 指标 / 法规)多路融合召回,保障金融问答严谨性与准确性。
4、智能切片:支持按财报章节、指标维度、条款段落切分,结合滑动窗口、Small-to-Big 与金融语义切片,适配长文档研报与法规。
5、深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,提升对金融指标、业务逻辑、风险条款的检索与生成精度。
6、全链路评估:集成 RAGAS 框架并叠加金融合规性校验,自动化评估检索准确性、生成可靠性与合规风险。
【技术背景】
【从 “翻研报” 到 “问智库”:打造金融行业的智能合规技术顾问】在金融行业数字化转型加速的背景下,投研、合规与业务人员每天要处理海量财报、研报、招股书及监管文件。传统关键词检索难以理解金融专业术语、数据关联与合规逻辑,面对行业趋势解读、合同风险条款排查这类专业提问,常无法精准匹配资料,导致信息获取低效、决策成本高昂,甚至存在合规隐患。本项目构建面向金融行业的企业级高级 RAG 解决方案,实现研报解读、数据查询、风险提示与合规校验一体化智能问答服务。系统基于 LangGraph 框架,构建模块化、可插拔的金融场景 RAG 工作流,支持业务流程编排与扩展,实现从知识检索到合规校验的端到端闭环。数据处理端集成 MinerU 与 OCR 技术,攻克财报 PDF、研报图表等图文混排资料的解析难题;结合财报章节、指标维度、条款段落专项切分策略,搭配滑动窗口、Small-to-Big 与金融语义切片技术,在长文档中最大限度保留数据关联与条款逻辑完整性。检索端融合向量检索、稀疏检索与金融知识图谱的多路召回机制,引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,显著提升金融指标、业务逻辑与风险条款的匹配精度,保障问答的严谨性与准确性。项目集成 RAGAS 评估框架并叠加金融合规校验流程,从检索准确性、生成可靠性到合规风险实现全链路自动化评估,为金融机构构建安全、可信、可审计的智能知识体系。这不仅是一个问答工具,更是一套可落地的金融垂直领域知识库基础设施,帮助机构提升投研效率、前置管控合规风险、沉淀业务知识,推动金融行业从传统人工分析向智能化、自动化知识服务模式跨越。
【技术】
Python、LangChain、LangGraph、OCR、MinerU、Milvus、HyDE、BGE-Rerank、RAGAS、Neo4j
【架构图】
项目八
美途智库
1、前沿架构:基于 LangGraph 构建文旅出行场景可插拔 RAG 工作流,支持行程规划、攻略生成、景点问答与服务推荐模块化扩展。
2、多模态处理:集成 MinerU 与 OCR,精准解析旅游攻略、景点介绍、线路手册、票务文件及图文混排文旅宣传资料。
3、多路召回:向量检索 + 稀疏检索 + 文旅知识图谱(景点 / 线路 / 交通 / 住宿 / 政策)多路混合召回,提升推荐合理性与信息全面性。
4、智能切片:支持按地域、行程天数、景点主题切片,结合滑动窗口、Small-to-Big 与出行语义切分,适配长攻略与线路手册。
5、深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,优化对出行需求、偏好、游玩路线的语义理解与匹配。
6、全链路评估:集成 RAGAS 框架,结合信息真实度、路线合理性与用户问答满意度,完成自动化检索与生成质量评估。
【技术背景】
【从 “零散查攻略” 到 “智能定行程”:搭建文旅出行专属智能知识服务体系】文旅出行行业信息繁杂分散,海量攻略、景点介绍、线路、住宿及政策资料散落各处。用户传统出行筹备需手动拼凑路线,存在信息筛选耗时久、路线不合理、推荐贴合度低等痛点;常规检索仅能关键词匹配,无法理解用户出行偏好、行程天数等深层需求,难以提供专业化、个性化服务。为此,面向文旅出行场景搭建专属知识库,打造一体化智能 RAG 知识问答与行程服务平台。系统基于 LangGraph 搭建可插拔 RAG 工作流,覆盖行程规划、景点问答等核心能力,模块可灵活拓展。多模态集成 MinerU 与 OCR 技术,精准解析各类文旅资料;检索环节采用多路混合召回架构,依托多维度知识关联提升推荐合理性与资讯全面性。文本处理适配文旅专属切分逻辑,搭配多种切片策略适配长文档;引入 HyDE 与 BGE-Rerank 技术优化语义理解与匹配,接入 RAGAS 框架实现全链路自动化评测。本项目构建企业级文旅知识库解决方案,整合全域知识资产,简化用户出行决策,实现智能答疑、个性化行程定制,为文旅行业数字化升级与智慧旅游建设提供知识支撑。
【技术】
Python、LangChain、LangGraph、OCR、MinerU、Milvus、HyDE、BGE-Rerank、RAGAS、Neo4j
【架构图】
项目九
智能评论
1.严格遵循标准RLHF流程:严格遵循监督微调、奖励模型训练与PPO强化学习三阶段,实现从基础能力到人类偏好的精准对齐。
2.监督微调奠基:基于电商评论数据集对Qwen2.5-3B进行SFT,赋予模型生成流畅商品评论的核心能力。
3.奖励模型提供偏好信号:在Qwen2.5-0.5B基础上构建奖励头,通过正负向评论标注训练,量化文本情感偏好。
4.PPO强化学习对齐:以SFT模型为行动者,集成价值头作为评判者,结合奖励模型打分驱动策略优化。
5.稳定训练技术集成:引入KL散度惩罚防止策略漂移,采用广义优势估计优化优势计算,并应用PPO-Clip确保更新稳定。
6.业务目标精准达成:通过端到端流程,成功引导模型从生成中性评论转向稳定输出积极正向的商品评价。
【技术背景】
【从“通用生成”到“偏好对齐”:构建面向垂直业务场景的精准可控文本生成系统】在电商内容生成等垂直应用场景中,通用大模型往往难以稳定输出符合特定业务要求(如情感倾向、风格、合规性)的文本。传统的微调方法虽能提升领域知识,但缺乏对“生成质量”和“人类偏好”的精细化引导与对齐。本项目旨在攻克这一难题,通过完整复刻并实施RLHF(基于人类反馈的强化学习)全流程,将基础大模型塑造成一个能够精准理解并执行“生成积极正向商品评价”这一复杂指令的专用智能体。我们严格遵循RLHF的三阶段范式。首先,通过监督微调(SFT)在电商评论数据集上为模型奠定流畅生成的基础能力。随后,构建专门的奖励模型(RM),通过人类对评论的正负向标注,将抽象的情感偏好转化为可量化的奖励信号。最后,在强化学习阶段,我们以SFT模型为策略网络,集成价值网络作为评判者,采用PPO算法在奖励模型的引导下进行策略优化。为确保训练过程的稳定与高效,我们集成了KL散度惩罚防止模型“遗忘”基础能力,采用广义优势估计(GAE)优化策略梯度,并应用PPO-Clip技术约束策略更新幅度。这一端到端的流程,成功实现了模型行为从“中性生成”到“稳定输出积极评价”的精准可控转变,为业务目标的达成提供了可靠的技术保障。
【技术】
Python、PyTorch、Transformers、TRL(Transformer Reinforcement Learning)、DeepSpeed、Qwen2.5-3B/0.5B、PPO、KL 散度惩罚、广义优势估计(GAE)
【架构图】
项目十
电商小二
1.行标级开源项目深度二开与定制:深入 Rasa 源码层进行企业级二次定制开发。
2.深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与预训练语言模型(BERT/ChineseBERT),实现对电商复杂术语的精准理解。
3.DIET 多任务学习:采用 DIET (Dual Intent and Entity Transformer) 架构,在一个模型中同时完成意图分类与实体提取,大幅提升训练效率与识别准确率。
4.混合对话策略: Rule + ML (TED) 双引擎驱动。利用 RulePolicy 处理退换货等硬性业务流程,利用 TED 策略处理上下文跳跃等复杂多轮对话,拒绝“人工智障”。
5.全链路特征工程:内置 Jieba 中文分词与 CountVectors 词袋模型,针对中文电商语境进行专项优化,解决“口语化”、“缩略语”识别难题。
6.动态动作执行:基于 Action Selection 模块,不仅能“答疑”,更能“办事”。支持自定义 Action 调用外部 API,实时查询订单状态、修改物流信息。
7.可视化故事建模:基于 Stories 故事策略进行多轮对话流程建模,将非线性的用户交互转化为可控的机器学习训练样本。
【技术背景】
【从“机械回复”到“主动服务”:重构电商服务的交互体验】在电商大促常态化的今天,客服系统面临着巨大的挑战。传统的客服机器人一旦遇到用户表达含糊(如“我上周买的那个红色的衣服怎么还没到”)或需要多轮交互的场景,往往会陷入死循环,导致用户体验崩塌。本项目致力于打破这一瓶颈,构建一套具备深度感知能力的任务型客服系统。本项目基于业界最成熟的开源对话框架 Rasa 进行深度二次开发。本项目严格遵循工业级 NLP 流水线:在 NLU(自然语言理解)端,利用 分词器与 特征提取器进行精细化的特征工程,将稀疏的关键词特征与 BERT 提取的稠密语义向量进行Feature Fusion(特征融合),确保模型既懂“专业术语”也懂“口语表达”。在核心的对话管理端。同时引入 TED Policy(Transformer Embedding Dialogue),利用注意力机制捕捉长距离的对话上下文,让机器人数具备记忆能力。这不仅是一个自动回复工具,更是一个能理解用户情绪、记忆对话历史、并主动调用业务接口解决问题的“金牌数字员工”,帮助电商企业将售后成本降低 60% 以上。
【技术】
Python、Rasa、PyTorch、Jieba、BERT/ChineseBERT、DIET Classifier、TED Policy、Docker
【架构图】
项目十一
尚医助手
1.开源项目深度二开与定制:深入 Rasa 源码层进行企业级二次定制开发。
2.深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与预训练语言模型(BERT/ChineseBERT),实现对医疗专业术语的精准理解。
3.DIET 多任务学习:采用 DIET (Dual Intent and Entity Transformer) 架构,在一个模型中同时完成意图分类与实体提取,大幅提升训练效率与识别准确率。
4.混合对话策略: Rule + ML (TED) 双引擎驱动。利用 RulePolicy 处理挂号缴费、病历查询等硬性业务流程,利用 TED 策略处理病情描述、用药咨询等复杂多轮对话。
5.全链路特征工程:内置 Jieba 中文分词与 CountVectors 词袋模型,针对中文医疗语境进行专项优化,解决“口语化症状描述”、“医学缩略语”识别难题。
6.动态动作执行:基于 Action Selection 模块,不仅能“答疑”,更能“办事”。支持自定义 Action 调用外部 API,实时查询检验报告、预约检查项目、更新患者诊疗信息。
7.可视化故事建模:基于 Stories 故事策略进行多轮对话流程建模,将非线性的用户交互(如症状主诉、病史追问、用药指导)转化为可控的机器学习训练样本。
【技术背景】
【从“被动问诊”到“主动医疗助手”:重构医疗服务的交互体验】在医疗数字化加速的今天,智能问诊系统面临巨大的挑战。传统医疗问答机器人一旦遇到用户表达含糊(如“我最近头晕还有点发热怎么办”)或需要多轮问诊的场景,往往会陷入死循环,导致患者体验崩塌。本项目致力于打破这一瓶颈,构建一套具备深度语义感知能力的任务型医疗助手。本项目基于业界最成熟的开源对话框架 Rasa 进行深度二次开发。本项目严格遵循工业级 NLP 流水线:在 NLU(自然语言理解)端,利用分词器与特征提取器进行精细化特征工程,将稀疏的关键词特征与 BERT/ChineseBERT 提取的稠密语义向量进行 Feature Fusion(特征融合),确保模型既懂“医学术语”也懂“口语化症状描述”。在核心的对话管理端,同时引入 DIET 多任务学习架构与混合对话策略。利用 RulePolicy 处理挂号缴费、病历查询等硬性业务流程,利用 TED Policy(Transformer Embedding Dialogue)捕捉长距离对话上下文,处理病情描述、用药咨询等复杂多轮问诊,让系统具备记忆能力。这不仅是一个问诊工具,更是一个能理解患者意图、记忆问诊历史、并主动调用业务接口处理医疗事务的“金牌数字医生”,帮助医疗机构将运营成本降低 50% 以上。
【技术】
Python、Rasa、PyTorch、Jieba、BERT/ChineseBERT、DIET Classifier、TED Policy、Docker
【架构图】
项目十二
知学助手
1.开源项目深度二开与定制:深入Rasa源码,针对在线教育平台进行二次定制开发,支持课程咨询、学习路径推荐、作业提醒等教育业务场景需求。
2.深度语义融合:构建Sparse+Dense双路特征提取网络,结合正则表达式(Regex)与教育领域语言模型(EduBERT/ChineseBERT),精准理解课程名、教学术语、学生口语化提问。
3.DIET多任务学习:应用DIET模型,实现意图分类(课程查询/报名咨询/学习疑问)与实体识别(课程名称、章节、知识点、年级)一体化,提升模型性能。
4.混合对话策略:Rule+ML(TED)双引擎驱动。RulePolicy处理选课流程、考试流程等固定路径;TED策略处理学生自由问答、课程跳跃式咨询等复杂多轮学习互动场景。
5.全链路特征工程:内置对教育语境优化的分词器与CountVectors特征模型,解决课程简称、学习术语、学生非正式表达等解析困难问题。
6.动态动作执行:基于ActionSelection,可调用LMS/教务系统API,实现课程进度查询、作业提醒、学习数据汇总等实时教学辅助功能。
7.可视化故事建模:使用Stories建模多轮学习场景,将课程咨询、知识点问答、学习规划等过程转换为可控训练样本,提高学习交互的可解释性与可扩展性。
【技术背景】
【从“被动答疑”到“主动教学助手”:重构在线教育平台的智能学习交互体验】在在线教育高速发展、学习场景高度碎片化的今天,智能客服/学习助手系统正面临前所未有的挑战。传统教育机器人在面对学生表达不清(如“上次数学那个函数视频讲到哪儿了?”)或跳跃式学习提问时,经常出现识别错误、无法承接上下文、或卡在流程节点,导致学习体验严重受挫。本项目致力于突破这一技术瓶颈,构建一套具备深度理解能力与教学协同能力的任务型教育智能助手。本项目基于业界行标级开源对话框架 Rasa 进行深度二次开发,并针对在线教育平台业务进行了全链路的定制与优化。本项目严格遵循工业级 NLP 流水线:在 NLU(自然语言理解)端,利用分词器与特征提取器进行精细化的特征工程,将稀疏的关键词特征与 EduBERT/ChineseBERT 提取的稠密语义向量进行 Feature Fusion(特征融合),确保模型既懂“教学术语”也懂“学生口语表达”。在核心的对话管理端,同时引入 DIET 多任务学习模型,实现意图分类(课程查询/报名咨询/学习疑问)与实体识别(课程名、章节、知识点、年级)一体化解析。同时引入 Rule+TED Policy(Transformer Embedding Dialogue),利用注意力机制捕捉长距离的对话上下文,让教育助手具备记忆能力。这不仅是一个答疑工具,更是一个能理解学生情绪、记忆学习历史、并主动调用 LMS/教务系统接口解决问题的 “金牌数字教师助手”,帮助在线教育平台将教辅成本降低 60% 以上。
【技术】
Python、Rasa、PyTorch、Jieba、BERT/ChineseBERT、DIET Classifier、TED Policy、Docker
【架构图】
项目十三
倾听助手
1、开源项目深度二开与定制:深入 Rasa 源码层进行企业级二次开发,适配政务咨询、民意倾听、投诉建议、回访调研等对话场景。
2、深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与中文预训练模型(BERT/ChineseBERT),精准识别诉求、意见、问题描述等口语化表达。
3、DIET 多任务学习:采用 DIET 架构,在统一模型中完成意图分类(投诉 / 建议 / 咨询 / 求助)与实体提取(时间、地点、事件、对象),提升意图理解准确率。
4、混合对话策略:Rule + ML (TED) 双引擎驱动。使用 RulePolicy 处理流程化业务(登记信息、工单流转、进度查询);使用 TED 策略处理自由陈述、多轮追问、复杂诉求表达。
5、全链路特征工程:基于 Jieba 分词与 CountVectors 词袋模型,针对民生口语、方言化表达、缩略称谓做专项优化,解决模糊诉求、长句描述的理解难题。
6、动态动作执行:通过 Action Selection 模块调用外部系统 API,实现诉求登记、工单派发、进度查询、结果反馈、回访提醒等自动化办事能力。
7、可视化故事建模:基于 Stories 完成多轮交互建模,将诉求表达、信息核实、问题追问、结果告知等流程标准化,提升对话可控性与业务落地能力。
【技术背景】
【从“被动应答”到“主动倾听”:打造听书APP专属智能客服解决方案】随着听书APP用户规模扩大,用户咨询、投诉建议等需求繁杂,且多为口语化、模糊化表达,传统人工客服效率低、成本高,常规客服系统无法适配场景需求,影响用户体验。为此,打造听书APP专属智能客服“倾听助手”,实现诉求精准识别与闭环处理。系统基于Rasa框架进行企业级二次开发,适配听书客服核心场景。语义理解上,构建双路特征提取网络,结合正则与中文预训练模型,破解口语化识别难题;采用DIET架构,同步完成意图分类与实体提取,提升识别精准度。对话策略采用Rule+TED双引擎,分别处理标准化流程与复杂诉求;基于Jieba分词与词袋模型,针对口语、方言表达专项优化。系统可通过API实现诉求登记、工单派发等自动化操作,结合Stories完成多轮交互建模,保障服务规范高效。倾听助手精准适配听书用户交互习惯,解决传统客服痛点,实现客服智能化、标准化,助力平台降本增效、提升用户粘性。
【技术】
Python、Rasa、PyTorch、Jieba、BERT/ChineseBERT、DIET Classifier、TED Policy、Docker
【架构图】
项目十四
金融助手
1、开源项目深度二开与定制:深入 Rasa 源码进行金融场景企业级二次开发,支持理财咨询、业务办理、风险提示、客服回访等智能对话需求。
2、深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与金融领域预训练模型,精准识别产品名称、金额、期限、风险等级、业务条款等专业信息。
3、DIET 多任务学习:采用 DIET 架构,同步实现意图分类(开户 / 转账 / 理财 / 贷款 / 查询)与实体抽取(账号、金额、产品、日期、费率),提升金融对话识别精度。
4、混合对话策略:Rule + ML (TED) 双引擎驱动。RulePolicy 负责密码验证、业务鉴权、流程办理等强规则场景;TED 策略负责理财咨询、风险解读、收益对比等复杂多轮问答。
5、全链路特征工程:优化 Jieba 分词与 CountVectors 特征模型,适配金融口语、产品简称、行业黑话与数字表达式,解决模糊查询与歧义理解问题。
6、动态动作执行:通过 Action Selection 调用核心业务 API,支持余额查询、交易明细、风险测评、产品推荐、业务预约等实时操作。
7、可视化故事建模:使用 Stories 构建多轮金融对话流程,实现咨询 — 校验 — 办理 — 告知全链路标准化,提升合规性与交互稳定性。
【技术背景】
【从“繁琐咨询”到“智能响应”:打造金融APP专属合规智能客服解决方案】随着金融APP用户需求升级,理财咨询、业务办理等诉求日益多样,且涉及大量专业术语、数字信息,传统人工客服效率低、合规风险高,常规客服系统无法适配金融场景专业性需求。为此,打造金融APP专属智能客服“金融助手”,实现专业诉求精准识别、合规高效闭环处理。系统基于Rasa框架进行金融场景企业级二次开发,适配理财咨询、业务办理等核心需求。语义理解上,构建双路特征提取网络,结合正则与金融领域预训练模型,精准识别产品、金额等专业信息;采用DIET架构,同步完成意图分类与实体抽取,提升金融对话识别精度。对话策略采用Rule+TED双引擎,分别处理密码验证等强规则场景与理财咨询等复杂问答;优化Jieba分词与特征模型,适配金融口语、产品简称等表达。系统可通过API实现余额查询、产品推荐等实时操作,结合Stories完成多轮对话建模,保障服务合规规范。金融助手精准适配金融场景需求,解决传统客服痛点,实现客服智能化、合规化,助力金融平台降本增效、提升服务专业性与用户信任度。
【技术】
Python、Rasa、PyTorch、Jieba、BERT/ChineseBERT、DIET Classifier、TED Policy、Docker
【架构图】
项目十五
美途助手
1、开源项目深度二开与定制:基于 Rasa 源码深度二次开发,面向文旅出行场景打造智能助手,支持景点问答、行程规划、票务查询、酒店咨询、投诉建议等功能。
2、深度语义融合:构建 Sparse + Dense 双路特征网络,结合 Regex 与中文预训练模型,精准识别目的地、景点、日期、人数、预算、出行方式等关键信息。
3、DIET 多任务学习:采用 DIET 架构,统一完成意图识别(订票 / 订房 / 攻略 / 投诉 / 问路)与实体抽取(城市、景点、时间、价格区间、交通方式),提高交互效率。
4、混合对话策略:Rule + ML (TED) 双引擎驱动。RulePolicy 处理票务查询、酒店预订、入园预约等标准化流程;TED 策略处理自由行程规划、偏好调整、多目的地对比等复杂对话。
5、全链路特征工程:基于 Jieba 分词与 CountVectors 做文旅场景优化,支持景点别称、口语化需求、模糊地点描述的理解,提升用户体验。
6、动态动作执行:通过 Action Selection 调用文旅、交通、票务 API,实现实时查询车次、景点开放时间、天气、路线规划、订单状态更新等能力。
7、可视化故事建模:使用 Stories 建模多轮出行对话,将需求收集、方案推荐、修改调整、确认下单流程结构化,支持灵活扩展线路与服务类型。
【技术背景】
【从“盲目咨询”到“精准适配”:打造旅游出行APP专属智能客服解决方案】随着旅游出行APP用户需求多元化,景点问答、行程规划、票务酒店咨询等诉求频发,且用户表达多含景点别称、口语化描述、模糊地点等情况,传统人工客服响应滞后,常规客服系统无法适配文旅场景特性。为此,打造旅游出行APP专属智能客服“美途助手”,实现出行诉求精准识别、高效响应与个性化服务。系统基于Rasa源码深度二次开发,适配文旅出行全场景,支持景点问答、行程规划等核心功能。语义理解上,构建双路特征网络,结合Regex与中文预训练模型,精准识别目的地、日期等关键信息;采用DIET架构,同步完成意图识别与实体抽取,提升交互效率。对话策略采用Rule+TED双引擎,分别处理票务查询等标准化流程与自由行程规划等复杂对话;基于Jieba分词与特征模型做文旅场景优化,适配景点别称、口语化需求。系统可通过API实现车次、景点开放时间等实时查询,结合Stories完成多轮对话建模,实现服务流程结构化。美途助手精准适配旅游出行场景,解决传统客服痛点,实现客服智能化、个性化,助力出行APP提升服务效率、优化用户体验,增强用户粘性。
【技术】
Python、Rasa、PyTorch、Jieba、BERT/ChineseBERT、DIET Classifier、TED Policy、Docker
【架构图】
项目十六
掌柜问数
1.大厂开源内核: 大厂开源内核:基于京东最新开源 DataAgent 架构深度定制,承袭经亿级业务场景验证的企业级稳定性与工业化标准。
2.思维链驱动 NL2SQL:引入 Deep-Thinking 推理层,采用“重写-思考-生成”三阶段 Agent 架构,确保复杂 SQL 生成的逻辑准确性。
3.混合多路召回:创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引,实现 Schema 语义与单元格精准值的双重混合召回。
4.动态 Schema 剪枝: ColumnFilterModule 智能列过滤技术,基于查询语义自动剔除无关字段,大幅降低 LLM 上下文噪声。
5.高并发异步架构:全链路基于 AsyncIO 构建,并行执行 Query Rewrite 与 Schema Ranking,显著降低端到端响应延迟。
6.精准语义对齐:集成 Jieba 分词与 HyDE 策略进行查询意图扩展,有效解决业务术语与数据库字段名的语义鸿沟。
【技术背景】
【从“看报表”到“问数据”:重构企业级数据分析范式】在企业数字化转型的深水区,面对数以千计的数据表和复杂的业务逻辑,传统的 BI 仪表盘已难以满足即时性的分析需求。业务人员往往面临“找不到表”、“看不懂字段”、“不会写 SQL”的三大痛点,导致数据价值无法快速释放。本项目致力于打破这一壁垒,构建一套基于大模型的企业级 Text-to-SQL 智能问答系统。面对海量数据表和复杂的业务逻辑,我们采用“多阶段推理(Multi-stage Reasoning)”架构。在数据处理端,利用 Qdrant 与 Elasticsearch 的混合检索技术,结合 Jieba 分词精准定位关键数据表;在生成端,系统强制模型执行 CoT(Chain of Thought)思维链——先拆解业务问题,再推导查询逻辑,最后生成标准 SQL。这种“三思而后行”的机制,每一步都经过大模型的过滤和剪枝,确保了在面对“计算上季度华东区毛利率”这类复杂指令时,依然能够理解查询者的需求,生成高可用的执行代码。这不仅是一个 SQL 生成工具,更是一个懂业务、会思考的虚拟数据分析师,帮助企业实现从“人找数据”到“数据找人”的智能化飞跃。
【技术】
Python、FastAPI、Qdrant、Elasticsearch、LiteLLM、Jieba、AsyncIO、React、SSE、Agentic-Workflow
【架构图】
项目十七
归因分析
1、大厂开源内核:基于最新 AttributionAgent 架构深度定制,适配电商多渠道、长链路的归因分析需求。
2、思维链驱动多模型归因:引入 Deep-Attribution 推理层,采用“路径解析-因子拆解-权重分配”三阶段 Agent 架构,兼容末次互动、线性归因、时间衰减等多类模型,确保复杂用户路径归因的逻辑准确性与合理性。
3、混合多路召回:创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引,实现用户行为触点与归因因子的双重混合召回,精准匹配每笔交易对应的全链路营销渠道与运营动作。
4、动态因子剪枝:AttrFilterModule 智能因子过滤技术,基于电商业务场景(广告投放、促销活动、自然流量等)自动剔除无关归因因子,大幅降低 LLM 上下文噪声,提升归因效率。
5、高并发异步架构:全链路基于 AsyncIO 构建,并行执行路径追溯与权重计算,适配电商大促峰值时段的海量交易数据归因需求,显著降低端到端响应延迟。
6、精准语义对齐:集成 Jieba 分词与 HyDE 策略进行归因意图扩展,有效解决电商业务术语(如直通车、直播带货、复购归因)与归因模型字段名的语义鸿沟,提升归因精准度。
【技术背景】
【从 “凭经验归因” 到 “用数据说话”:重构电商全链路归因分析范式】在电商流量碎片化与多渠道营销的背景下,面对用户行为触点繁杂、转化链路冗长、营销动作交叉叠加的业务场景,传统的人工归因与单一模型分析方式,往往面临 “触点难追溯、权重难分配、归因难解释” 的三大痛点,导致营销效果无法精准衡量、投放预算难以优化、运营决策缺乏数据支撑。本项目致力于打破这一壁垒,构建一套基于大模型的企业级智能归因分析系统。面对海量用户行为数据与复杂的转化链路,我们采用多阶段推理架构。在数据处理端,创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引的混合召回技术,精准匹配每笔交易对应的全链路营销渠道与运营动作;在归因端,系统强制模型执行 “路径解析 - 因子拆解 - 权重分配” 的三阶段思维链,兼容末次互动、线性归因、时间衰减等多类模型,确保复杂用户路径归因的逻辑准确性。同时,AttrFilterModule 智能因子过滤技术,基于电商业务场景自动剔除无关归因因子,大幅降低模型上下文噪声;集成 Jieba 分词与 HyDE 策略解决业务术语与模型字段的语义鸿沟,进一步提升归因精准度。全链路基于 AsyncIO 构建高并发异步架构,并行执行路径追溯与权重计算,完美适配电商大促峰值时段的海量交易数据归因需求,显著降低响应延迟。这不仅是一套归因计算工具,更是一个懂业务、可解释的智能归因分析师,帮助企业实现从 “凭经验估算” 到 “用数据归因” 的智能化飞跃。
【技术】
Python、FastAPI、MySQL、Redis、SQLAlchemy、deepagents、LangChain、LangGraph、OpenAI、Qwen、MCP、WebSocket、React、TypeScript、Vite、pandas、ECharts
【架构图】
项目十八
商城风控
1、大厂开源内核:基于最新 RiskAgent 架构深度定制,适配电商全场景风控排查需求。
2、思维链驱动风险识别:引入 Deep-Risk 推理层,采用“特征提取-风险研判-决策生成”三阶段 Agent 架构,确保复杂交易风险、欺诈行为识别的逻辑准确性。
3、混合多路召回:创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引,实现风险特征语义与交易行为数据的双重混合召回,精准捕捉潜在风控隐患。
4、动态风险因子剪枝:RiskFilterModule 智能风险因子过滤技术,基于查询语义自动剔除无关风险字段,大幅降低 LLM 上下文噪声,提升风控识别效率。
5、高并发异步架构:全链路基于 AsyncIO 构建,并行执行风险检测与特征排序,适配电商大促峰值时段的海量交易风控需求,显著降低端到端响应延迟。
6、精准语义对齐:集成 Jieba 分词与 HyDE 策略进行风控意图扩展,有效解决电商风控术语(如刷单、盗刷、恶意退款)与风控模型字段名的语义鸿沟。
【技术背景】
【从 “事后拦截” 到 “事前预判”:重构电商交易全链路风控范式】在电商业务规模持续扩张、交易场景日趋复杂的背景下,面对海量订单、多样交易模式与新型欺诈手段的持续涌现,传统风控规则往往面临 “规则滞后、误判率高、风险识别不全面” 的三大痛点,难以应对复杂交易风险、羊毛党、虚假交易等新型风险场景,导致平台损失与用户体验受损。本项目致力于打破这一壁垒,构建一套基于大模型的企业级智能风控排查系统。面对海量交易数据与多变的风险场景,我们采用多阶段推理架构。在数据处理端,创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引的混合召回技术,实现风险特征语义与交易行为数据的双重匹配,精准捕捉潜在风控隐患;在识别端,系统引入 Deep-Risk 推理层,执行 “特征提取 - 风险研判 - 决策生成” 的三阶段思维链,确保复杂交易风险与欺诈行为识别的逻辑准确性。同时,RiskFilterModule 智能风险因子过滤技术,基于查询语义自动剔除无关风险字段,大幅降低模型上下文噪声;集成 Jieba 分词与 HyDE 策略解决业务术语与模型字段的语义鸿沟,进一步提升风控识别精准度。全链路基于 AsyncIO 构建高并发异步架构,并行执行风险检测与特征排序,完美适配电商大促峰值时段的海量交易风控需求,显著降低响应延迟。这不仅是一套风险拦截工具,更是一个懂业务、会预判的智能风控大脑,帮助企业实现从 “被动拦截” 到 “主动防控” 的风控智能化飞跃。
【技术】
FastAPI、Pydantic、pydantic-settings、Jinja2、Uvicorn、SQLAlchemy、PyMySQL、Pandas、NumPy、LangChain、LangGraph、langchain-openai、deepagents、Bootstrap 5、pytest、pytest-asyncio、httpx、MySQL、ulid-py、Faker
【架构图】
项目十九
市场罗盘
1.SOP 动态编排:内置标准化作业程序(SOP), 实现复杂任务的自动拆解、路径规划与动态调整。
2.双模态引擎:自适应切换 ReAct 单任务极速处理与 PlanSolve 多任务深度研判模式,兼顾响应速度与思考深度。
3.全域工具集成:深度整合 DeepSearch 网络搜索、Python 代码解释器、专业报表生成及 NL2SQL 数据查询能力。
4.多智能体协同:基于 PlanningAgent 全局统筹与 ExecutorAgents 并行执行,模拟人类专家的“规划-执行-检查”工作流。
5.开放生态互联:通过 Genie-Client 连接云端 MCP(Model Context Protocol)服务,无限拓展插件与能力边界。
6.过程可视化:通过 SSE 技术全链路展示“思考-检索-分析-写作”的完整心流,让研究过程透明可控。
【技术背景】
【从“简单问答”到“深度研判”:重塑数据驱动的研究辅助系统】在企业级应用中,用户已不再满足于简单的聊天机器人,而是需要能够处理复杂逻辑、生成专业报告的“数字员工”。面对“某行业未来五年发展趋势”这类模糊且庞大的需求,传统的单轮问答系统往往显得力不从心,缺乏深度思考与执行能力。本项目致力于突破这一瓶颈,构建一套具备自主规划能力的全智深度研究系统。我们采用先进的多智能体协作架构(Multi-Agent Collaboration)。对于复杂课题,则基于 SOP(标准作业程序)动态生成执行计划。系统能够像人类分析师一样,自主调用Python 数据分析工具、DeepSearch 联网搜索、MCP工具箱以及NL2SQL 数据库查询,对海量信息进行清洗、交叉验证与深度挖掘。系统具备极强的长程推理与自我修正能力,能够对搜集到的数据进行清洗、比对与逻辑验证。这不仅是一个问答工具,更是一个能够独立完成“调研-分析-报告”全流程的智能业务助理。
【技术】
Python、FastAPI、Qdrant、Elasticsearch、LiteLLM、Jieba、AsyncIO、React、SSE、Agentic-Workflow
【架构图】
项目二十
万应助手
1.中控调度架构:采用基于 Orchestrator 的分诊模式,精准识别用户意图,在知识库、SQL 查询、地图服务与购物助手间动态路由。
2.Text-to-SQL:内置 sql_info_agent,支持将自然语言转化为结构化 SQL,精准查询维修站分布、城市覆盖及特定服务信息。
3.时空智能集成:引入 MCP (Model Context Protocol) 协议对接百度地图,实现基于地理位置(LBS)的维修点查询与导航规划。
4.领域知识 RAG:集成 knowledge_agent 垂直知识库,专门处理“电脑无法开机”等硬件故障诊断,提供专家级维修指导。
5.全生命周期记忆:基于 JSON 的持久化 Session 管理,支持多轮对话上下文保持,确保服务过程的连续性与个性化。
6.全栈交互体验:Python 异步后端配合 Vue3 + Element Plus 前端,打造响应式、可视化的现代智能客服终端。
【技术背景】
【从“人工客服”到“全能管家”:重塑售后服务智能化新范式】在传统的 3C 电子与硬件售后场景中,用户需求往往高度复杂且异构:既有“电脑蓝屏怎么办”的非结构化咨询,又有“最近的维修站在哪”的结构化数据查询,甚至涉及“查订单、找路线”的实时服务。单一的 RAG 系统难以同时应对这些跨模态挑战,导致用户体验割裂,人工介入成本居高不下。本项目旨在打破这一僵局,构建一套具备自主决策能力的百应智能售后系统。我们采用了先进的 Multi-Agent Orchestration(多智能体编排) 架构。在核心中枢,调度智能体如同“分诊台”,将复杂需求拆解并分发给专业子智能体。数据端,利用 Text-to-SQL 技术让大模型直接对话关系型数据库,毫秒级锁定维修资源;服务端,创新性通过 MCP 协议 接入百度地图,打通线上咨询与线下服务的“最后一公里”。配合持久化的会话记忆系统,系统能像老朋友一样记住用户的设备型号与历史问题。实现了一个集成了诊断、查询、导航、导购于一体的售后服务智能总台,助力企业实现服务闭环的自动化升级。
【技术】
Python、Vue3、OpenAI-SDK、Orchestrator-Pattern、Text-to-SQL、MCP(Model Context Protocol)、BaiduMap-API、PyMySQL、AsyncIO
【架构图】
项目二十一
舆情分析
1、多源舆情采集架构:采用分布式爬虫与API对接结合模式,全面抓取电商平台、社交媒体、新闻资讯、论坛评论等多渠道舆情数据,实现全场景舆情覆盖。
2、智能舆情分类研判:内置 sentiment_agent 情感分析模块,结合 BERT 预训练模型,精准识别舆情正面、负面、中性倾向,自动标注舆情核心诉求与关键词。
3、舆情热度动态追踪:引入热度计算模型与时间序列分析,实时监测舆情传播速度、覆盖范围、互动量,生成可视化热度趋势图,精准捕捉舆情爆发点。
4、风险舆情预警机制:基于关键词匹配与语义相似度检索,设置多级预警阈值,针对恶意诋毁、投诉集中、虚假宣传等风险舆情,实现实时弹窗与短信预警。
5、全周期舆情记忆:采用 JSON 持久化存储与上下文关联技术,留存舆情历史数据与研判记录,支持多轮舆情追溯、趋势对比与复盘分析。
6、全栈可视化展示:Python 异步后端搭配 Vue3 + ECharts 前端,打造舆情仪表盘,直观呈现舆情分布、情感占比、风险等级,支持自定义查询与数据导出。
【技术背景】
【从 “零散收集” 到 “智能研判”:重构电商全场景舆情监测分析范式】在电商业务线上化与用户表达多元化的背景下,品牌口碑、用户评价与网络讨论散落在电商平台、社交媒体、新闻资讯等多个渠道,传统人工监测方式往往面临 “数据覆盖不全、情感识别不准、风险响应滞后” 的三大痛点,难以实时捕捉用户真实反馈与潜在舆情风险,导致品牌声誉受损、用户体验下滑。本项目致力于打破这一壁垒,构建一套全链路、智能化的舆情监测与分析系统。面对海量多源数据与复杂舆情场景,我们采用分布式采集与 API 对接的多源舆情架构,实现全渠道数据覆盖。系统内置 sentiment_agent 情感分析模块,结合 BERT 预训练模型,精准识别舆情倾向并自动标注核心诉求;通过热度计算模型与时间序列分析,实时追踪舆情传播动态,精准捕捉舆情爆发点。同时,基于关键词匹配与语义相似度检索构建多级预警机制,对风险舆情实现实时预警;采用持久化存储与上下文关联技术留存全周期舆情数据,支持多轮追溯与复盘分析。系统采用 Python 异步后端搭配 Vue3+ECharts 前端,打造可视化舆情仪表盘,直观呈现舆情分布、情感占比与风险等级,支持自定义查询与数据导出。这不仅是一套舆情采集工具,更是一个懂用户、会预警的智能舆情研判助手,帮助企业实现从 “被动应对” 到 “主动管控” 的舆情管理智能化飞跃。
【技术】
Python、LangGraph、Flask+SocketIO、Streamlit、Pydantic Settings、PostgreSQL、MySQL、Tavily、Bocha、Anspire、Kimi、Gemini、DeepSeek、Qwen、NetworkX、自定义GraphRAG、Loguru
【架构图】
项目二十二
运维管家
1、智能运维调度架构:采用基于 Orchestrator 的分诊模式,精准识别运维告警意图,在设备监控、故障排查、日志分析与工单处理间动态路由,实现运维全流程自动化。
2、日志智能解析:内置 log_analysis_agent,结合 NLP 与正则匹配技术,支持将自然语言运维需求转化为日志查询指令,精准提取设备异常、性能瓶颈等关键信息。
3、多维度监控集成:引入 Prometheus + Grafana 监控协议,对接服务器、数据库、应用程序等多类运维对象,实现硬件负载、软件性能的实时监测与可视化展示。
4、运维知识 RAG:集成 ops_knowledge_agent 垂直知识库,专门处理服务器宕机、端口异常、内存溢出等常见运维故障,提供标准化排查流程与解决方案。
5、全周期运维记忆:基于 JSON 的持久化 Session 管理,留存设备运行日志、故障处理记录与运维操作历史,支持多轮故障追溯、问题复盘与经验沉淀。
6、全栈运维交互:Python 异步后端配合 Vue3 + Element Plus 前端,打造智能化运维控制台,直观呈现设备状态、告警信息、处理进度,支持一键提交运维工单。
【技术背景】
【从 “被动救火” 到 “主动运维”:重构企业级自动化运维管理范式】在企业 IT 架构日益复杂、设备规模不断扩张的背景下,服务器、数据库与应用程序的运维场景中,传统人工运维模式往往面临 “告警响应慢、故障定位难、知识沉淀散、排错效率低” 的痛点,难以支撑 7×24 小时的稳定运行保障,也无法快速响应业务峰值下的突发问题。本项目致力于打破这一壁垒,构建一套集调度、监控、分析、处置于一体的智能化运维管理系统。面对多设备、多类型的运维场景,我们采用基于 Orchestrator 的智能分诊调度架构,精准识别告警意图并动态路由至对应处理模块,实现运维全流程自动化。系统内置 log_analysis_agent 日志解析模块,结合 NLP 与正则匹配技术,将自然语言运维需求转化为查询指令,精准提取设备异常与性能瓶颈;同时集成 Prometheus + Grafana 监控协议,对接多类运维对象,实现硬件负载与软件性能的实时可视化监测。针对常见故障场景,系统接入 ops_knowledge_agent 垂直运维知识库,提供标准化排查流程与解决方案;并通过持久化 Session 管理留存全周期运维数据,支持故障追溯与经验沉淀。系统采用 Python 异步后端搭配 Vue3 + Element Plus 前端,打造智能化运维控制台,直观呈现设备状态、告警信息与处理进度,支持一键提交运维工单。这不仅是一套运维监控工具,更是一个会识别、能分析、懂处置的自动化运维助手,帮助企业实现从 “被动救火” 到 “主动预判” 的运维智能化升级。
【技术】
FastAPI、Uvicorn、SQLAlchemy、aiomysql、langchain-openai、LangGraph、deepagents、python-jose、tiktoken、python-dotenv、Pydantic
【架构图】
项目二十三
智能检索
1.模型微调优化:基于 CLIP Chinese 模型进行续训,采用部分参数冻结策略,重点解冻文本端后3层与视觉端后2层,以提升图文匹配能力。
2.训练策略定制:使用 AdamW 分组学习率与权重衰减,结合线性预热、余弦衰减、梯度裁剪和早停机制,确保训练稳定高效。
3.高效向量检索:利用优化后的模型将图像编码为归一化特征向量,存入基于 HNSW 索引的 Chroma 向量数据库,实现快速近似最近邻搜索。
4.端到端检索流程:用户文本经模型编码后,通过点积相似度在向量库中检索最相关图像,完成“文搜图”的完整闭环。
5.资源与性能平衡:在单张 V100 GPU 上完成训练,显存占用约 15GB,训练时长约 5 小时,在有限资源下实现了检索效果的显著提升。
【技术背景】
【从“通用匹配”到“精准检索”:构建高效的中文图文跨模态搜索系统】在中文互联网内容爆炸式增长的背景下,用户对图文信息的精准检索需求日益迫切。传统的通用图文匹配模型(如原始CLIP)在处理中文特有语义、文化语境及细粒度视觉概念时,往往存在“语义鸿沟”,导致检索结果不够精准。本项目旨在攻克这一难题,通过针对性的模型微调与优化,打造一个专为中文场景设计的高效图文检索系统。我们摒弃了“全量重训”的资源密集型方案,采用创新的部分参数冻结策略,仅解冻文本编码器的后三层与视觉编码器的后两层进行续训。这种策略在保留模型通用知识的同时,高效注入对中文语义和特定视觉特征的深度理解。训练过程通过AdamW分组学习率、权重衰减、线性预热与余弦衰减等精细化策略进行严格控制,并辅以梯度裁剪和早停机制,确保了模型在有限计算资源(单卡V100)下的稳定收敛与性能最优。最终,我们将优化后的模型与高效的向量数据库技术结合,将图像编码为归一化特征向量,并存入基于HNSW索引的Chroma数据库,构建起从用户文本输入到最相关图像返回的端到端、低延迟检索闭环。这不仅仅是一个检索工具,更是一个在资源与性能间取得最佳平衡的、可落地的中文跨模态搜索解决方案。
【技术】
Python、CLIP-Chinese、PyTorch、Transformers、AdamW、Chroma、HNSW
【架构图】
项目二十四
智能发布(标题生成)
1.图像表征预计算:训练时完全冻结图像编码器,将图像预处理为统一格式后,通过CLIP视觉模型提取特征并提前存储,显著提升训练效率并降低总体计算开销。
2.数据集构建与提示工程:通过图像ID关联预计算的图像特征与文本描述,构建训练数据集,并将文本描述嵌入到特定的提示词模板中以指导模型学习。
3.多模态特征融合:将图像特征通过投影层映射为提示词序列,替换文本嵌入中对应的占位符向量,实现图像与文本信息的深度融合。
4.高效训练策略:采用带预热与衰减的AdamW优化器,结合梯度裁剪,在固定图文对数据集上进行多轮训练,并通过早停机制防止过拟合。
5.推理流程自动化:接收用户图像,实时编码并投影为特征序列,与固定的提示词前缀融合后输入语言模型,通过自回归采样生成推荐标题。
6.资源优化配置:整个训练过程在单张高性能GPU上完成,通过预计算和高效的训练设置,在可控的显存占用和时间内完成模型优化。
【技术背景】
【从"图文分离"到"深度融合":构建高效可控的多模态内容生成系统】在传统多模态应用中,图像与文本的联合训练往往面临计算成本高昂、训练效率低下的挑战。用户需要一种能够快速理解图像内容并生成高质量文本描述的智能系统,但现有方案通常需要端到端训练庞大的视觉-语言模型,导致资源消耗巨大且部署困难。本项目致力于突破这一瓶颈,构建一套以预计算和高效融合为核心的多模态内容生成系统。我们采用创新的图像表征预计算架构。在训练前,系统通过冻结的CLIP视觉模型将图像统一预处理并提取特征向量,实现特征存储与模型训练的完全解耦。这种设计不仅大幅降低了训练时的计算开销,还使得系统能够专注于文本生成能力的优化。通过精心设计的提示词模板与图像特征投影层,系统实现了图像信息与文本提示的深度融合——图像特征被映射为连续的提示词序列,无缝嵌入到语言模型的输入流中。整个训练过程采用高效的优化策略与早停机制,在单张GPU上即可完成模型调优,确保了资源利用的最大化。在推理阶段,系统能够实时处理用户上传的图像,自动完成特征提取、投影融合与标题生成的全流程,真正实现了高效、可控的多模态内容创作。这不仅是一个图像描述工具,更是一个具备工业化部署潜力的智能内容生成引擎。
【技术】
Python、PyTorch、CLIP、Transformers、AdamW、梯度裁剪、早停机制、自回归采样
【架构图】
培养大模型人才
需要这样的课程
10大阶段,系统掌握
人工智能实用新技术
人工智能实用新技术
大型企业级实战项目
贯穿全程,学员亲自上手实操
贯穿全程,学员亲自上手实操
硅谷名师+企业大牛
组团全程面授
组团全程面授
课程大纲:大厂大牛带路,直击大厂标准,实战贯穿全程
第一阶段 Python 核心基础 ——人工智能语言基础 点击展开
核心技能
- 掌握 Python 语言基础,包括语法、数据类型、运算符、输入输出函数等核心内容。
- 熟练运用 PyCharm 开发工具,掌握其安装、设置及调试相关操作。
- 精通 Python 中分支、循环结构以及各类数据结构(字符串、列表、字典、元组等)的操作与运用。
- 深入理解面向对象编程,涵盖类和对象、封装、继承、多态及设计模式等方面知识。
- 具备 Python 文件操作、异常处理以及模块制作、安装与使用的能力。
- 了解 Python 的高级特性,像深拷贝、浅拷贝、生成器、迭代器、闭包、装饰器等内容。
- 掌握 Python 进程与线程相关概念及操作,包括并发、通信、互斥锁等要点。
- 熟悉 Python 网络编程以及正则表达式相关知识,用于对应场景的实践应用。
课程设计特色
本阶段 Python 课程特色鲜明,一方面全面培养学生的编程基础,深入讲解数据结构与控制结构,强调面向对象编程思想,重视文件操作、异常处理和模块使用等实用技能,同时通过综合案例提升实际问题解决能力,帮助学生熟练掌握 PyCharm 开发工具,还会介绍高级特性拓宽编程视野,深入讲解进程与线程、网络编程及正则表达式,注重理论与实践结合,以丰富案例和实践项目巩固知识;
关键技术清单
Python核心
- Python入门:Python发展史、Python应用场景、Python开发环境搭建
- PyCharm:PyCharm的安装、设置字体、设置快捷键、PyCharm常用设置、调试
- Python基础知识:注释、变量以及数据类型、标识符和关键字、输入函数、输出函数、运算符、程序类型转换
- 分支和循环:if判断语句、运算符、if-else语句、while循环、for循环、break、continue
- 字符串和列表:字符串输入、字符串输出、下标和切片、字符串常见函数、列表(list)、列表的循环遍历、列表的增删改查、列表的嵌套、列表的切片
- 字典和元组:字典的增删改查、字典遍历、访问元组、修改元组、集合(set)
- 函数:函数定义、函数的类型、函数参数、函数返回值、函数嵌套、局部变量、全局变量、递归函数、匿名函数
- 文件操作:文件的打开与关闭、文件的读写、文件读写应用
- 面向对象(类和对象):定义类、类的构成、类的__init__()方法、创建对象、理解self
- 面向对象(封装、继承、多态):封装、私有方法、私有属性、__del__()方法、继承、多继承、多态、类属性、实例属性、静态方法和类方法
- 面向对象(设计模式):单例模式、工厂模式、__new__方法
- 综合案例:愤怒的小鸟
- 异常:捕获异常、异常的传递
- 模块:模块中的__all__、模块制作、打包模块、模块安装与使用
- 深拷贝、浅拷贝、私有化:深拷贝案例、浅拷贝案例、进制、位运算、作用域、私有化、属性property
- 生成器、迭代器、闭包、装饰器、元类、垃圾回收、内建函数
- 网络编程:进程池、进程间通信、多线程、进程和线程区别、协程、网络通信、端口、IP地址、socket、UDP、TCP、http
- 网络编程综合案例:企业级web框架starlette介绍及使用
- 正则表达:表示字符、表示数量、原始字符串、表示边界、匹配分组
- 综合案例:客户信息管理系统综合案例
考试一
第二阶段 数据分析 ——这是数据驱动的时代 点击展开
核心技能
- 熟练安装配置 Linux 环境并掌握常用命令。
- 精通 MySQL 安装使用及 SQL 操作。
- 熟悉 Numpy 的属性、函数及运算。
- 掌握 Pandas 的数据处理方法。
- 会用多种工具进行数据可视化。
- 具备在 Linux 环境下进行数据分析和可视化的综合能力。
课程设计特色
本阶段课程从 Linux 环境搭建入手,为后续学习奠定基础。深入讲解 MySQL 数据库及数据处理工具 Numpy、Pandas,提升数据处理能力。通过多种可视化工具进行数据展示,注重理论与实践结合,培养学生在 Linux 环境下的数据分析和可视化综合能力。
关键技术清单
Linux基础&Shell
- Linux环境准备:WSL 安装、Linux 安装、VI 编辑器、软件包安装
- Linux 常用命令:vim、cd、mkdir、chmod、chown、grep、echo、tail、more、touch、sudo、history、yum、systemctl、ln、ifconfig、hostname、ping、netstat、ps等
- Shell:变量、运算符、条件判断、流程控制、系统函数&自定义函数、常用工具命令、常用正则表达式
MySQL
- MySQL安装和使用、SQL语句、数据库操作、表操作、SQL约束、多表操作、开窗函数、案例、远程连接MySQL
Docker
- Docker安装、镜像、启动容器、常用命令
前后端基础
- FastAPI+Uvicorn 核心基础、SQLAlchemy 数据库操作基础、FastAPI+SQLAlchemy 整合开发、小型实战与部署
Numpy
- Anaconda下载、安装、Ubuntu安装Anaconda、conda常用命令
- Jupyter本地安装、PyCharm中集成Jupyter、使用远程JupyterServer、Jupyter快捷键
- Numpy的属性、创建方式、数据类型、切片和索引、基本函数、统计函数、比较函数、排序函数、基本运算、去重函数、矩阵乘法
Pandas
- Pandas数据结构-Series:创建、常用属性、常用方法、布尔索引、运算
- Pandas数据结构-DataFrame:创建、常用属性、常用方法、布尔索引、运算、更改操作、数据的导入导出
- Pandas日期数据处理:to_datetime()、Series.dt、to_period()
- DataFrame:加载数据集、查看部分数据、分组聚合计算、基本绘图、常用统计值、常用排序算法;案例实操:员工薪资统计分析
- Padas数据组合函数:concat连接、merge合并
- Padas的缺失值处理函数:查看缺失值、剔除缺失值、填充缺失值
- Padas的apply函数:Series使用apply()、DataFrame使用apply()、向量化函数
- Padas的数据聚合、转换、过滤函数;Pandas透视表、案例实操:睡眠质量分析透视表;
- Pandas时间序列:Pandas中的日期与时间、使用时间作为索引、生成时间序列
- Matplotlib可视化、Pandas可视化、Seaborn可视化
- 综合案例:房地产市场洞察与价值评估
考试二
第三阶段 机器学习 ——智能时代的核心引擎 点击展开
核心技能
- 熟悉线性代数、概率、高数等数学基础。
- 理解线性回归的概念、分类、损失函数等,掌握梯度下降算法等方法及模型评估。
- 掌握逻辑回归的数学基础、原理及分类评估指标,能进行案例实践。
课程设计特色
本课程设计特色在于紧密结合数学基础,涵盖线性代数、概率、高数等知识,为后续算法学习筑牢根基。课程深入讲解多种经典算法,如 线性回归与逻辑回归的原理和实现。通过丰富的案例实践,让学生切实掌握各种算法的应用场景和实现流程,培养学生解决实际问题的能力,使学生能够在数据分析和机器学习领域中灵活运用所学知识,提升综合竞争力。
关键技术清单
数学基础
- 高等数学:基本函数的导数、导数的求导法则、利用导数求极值、二阶导数、偏导数、梯度
- 线性代数:标量与向量、向量运算、向量范数、矩阵与张量、矩阵乘法、矩阵转置、矩阵的逆
- 概率论:均匀分布、伯努利分布、二项分布、正态分布、贝叶斯定理、极大似然估计
机器学习概述
- 机器学习概述:发展历程、应用领域、基本术语、算法分类、建模流程、特征工程
监督学习
- 线性回归:概念和分类、损失函数和求解方法(正规方程法、梯度下降算法)、模型评估(MAE/MSE/RMSE)、API
- 线性回归案例和正则化
- 逻辑回归:数学基础、原理、损失函数、混淆矩阵、精确率/召回率/F1-score分类评估、AUC指标、ROC曲线、API
- 逻辑回归案例
- 感知机:基本概念、激活函数、具体实现;逻辑电路和感知机的局限
考试三
第四阶段 深度学习 ——让AI像人类一样思考 点击展开
核心技能
- 理解深度学习的概念、应用场景及优缺点。
- 掌握 Pytorch 的安装及张量的各种操作,包括创建、类型转换、数值计算等。
- 熟悉神经网络的结构组成,如输入层、输出层、隐藏层等,掌握激活函数、损失函数等相关知识。
- 了解卷积神经网络 CNN,掌握图像基础、卷积层和池化层等知识及案例应用。
- 掌握循环网络 RNN 的原理及词嵌入层、循环网络层的 API 和文本生成案例。
- 具备深度学习项目实战能力,如电商推荐和图片搜索等项目。
课程设计特色
本课程从深度学习的基础概念入手,让学生全面了解深度学习的应用场景与优缺点,为后续学习奠定认知基础。深入讲解 Pytorch 工具,涵盖张量的多种操作,为学生提供强大的数据处理能力。在神经网络方面,详细介绍其各层结构、激活函数、损失函数等关键要素,使学生掌握构建神经网络的核心知识。对于卷积神经网络 CNN 和循环网络 RNN,分别从图像基础和文本处理角度深入剖析,结合丰富案例帮助学生理解和应用。最后,通过电商图片搜索项目,让学生将所学知识转化为实际应用能力,提升学生在深度学习领域的综合素养和竞争力。
关键技术清单
深度学习简介和Pytorch
- 什么是深度学习、深度学习应用场景、深度学习优缺点
- Pytorch的安装、张量创建方法、张量的类型转换、张量的数值计算、张量运算函数、张量索引操作、张量形状操作、张量拼接操作、自动微分模块;案例:实现线性回归
神经网络
- 神经网络基础:多层感知机、激活函数、初始化方式、神经网络搭建
- 神经网络的学习:数据驱动、损失函数、梯度下降法、学习算法的实现
- 反向传播算法(核心算法):计算图、链式法则、算法原理、算法实现
- 学习方法的优化:参数更新、权重初始值、正则化、学习率衰减、梯度消失和梯度爆炸
- 神经网络案例:房价预测
卷积神经网络
- CNN:图像基础、卷积层计算、池化层作用及分类、全连接层、API
- CNN案例:服装分类
考试四
第五阶段 NLP自然语言处理 ——人工智能皇冠上的明珠 点击展开
核心技能
- 理解 NLP 的概念、发展历史和应用场景。
- 掌握文本预处理的方法,包括文本张量表示、特征处理和数据增强等。
- 熟悉 RNN、LSTM、GRU 模型的概念、作用和结构特点,以及对应的 API。
- 了解注意力机制的概念和实现步骤,掌握 Seq2Seq 结构及添加注意力机制的方法。
- 理解 Transformer 架构,包括各层结构和编码器 - 解码器结构实现。
- 掌握 fastText 工具的作用、安装和文本分类方法,以及词向量迁移技巧。
课程设计特色
本阶段课程以 NLP 为核心,从概念、发展历史和应用场景出发,引领学生全面认识该领域。在文本预处理环节,深入传授中英文分词、词表示(One-hot、Word2Vec)等方法和工具,为后续学习夯实基础。对 RNN、LSTM、GRU、Seq2Seq、Attention 等经典模型进行详细剖析,让学生掌握不同模型的特点与局限;在此基础上,引入 Transformer 架构与 GPT、BERT、T5 等预训练模型,拓展学生的知识深度与广度。同时,通过 fastText 相关内容讲解(文本分类、词向量迁移),提升学生的实际操作能力。课程还涵盖前沿模型与案例实操,让学生紧跟技术发展潮流。最后,通过智能商品发布(标题分类)项目,将理论知识与实际应用紧密结合,培养学生解决实际问题的能力,提升学生在 NLP 领域的综合竞争力。
关键技术清单
NLP核心
- NLP技术演进:规则系统阶段、统计方法阶段、机器学习阶段、深度学习阶段
- NLP英文分词:词级分词、字符级分词、子词级分词
- NLP中文分词:字符级分词、词级分词、子词级分词、 jieba分词器工具
- 词表示:One-hot编码、语义化词向量、 Word2Vec原理
- RNN:基础结构、多层结构、双向结构、多层+双向结构、API使用;RNN存在问题;
- LSTM:基础结构、多层结构、双向结构、多层+双向结构、API使用;LSTM存在问题;
- GRU:基础结构、多层结构、双向结构、多层+双向结构、API使用;GRU存在问题;
- Seq2Seq模型:编码器、解码器、模型训练、模型推理;Seq2Seq存在问题
- Attention工作原理:相关性计算、注意力权重计算、上下文向量计算、解码信息融合
- Attention注意力评分函数:点积评分、通用点积评分、拼接评分;Attention存在问题
- Transformer模型结构详解:核心思想、整体结构、编码器、解码器
- Transformer模型:模型训练、模型推理、API使用;案例实操:中英翻译
- 预训练模型GPT:模型结构、预训练方式、微调方式
- 预训练模型BERT:模型结构、预训练方式、微调方式
- 预训练模型T5:模型结构、预训练方式、微调方式
- 预训练模型案例实操:AI智评
项目一:智能发布(标题分类)
- 层级化分类设计:通过预测三级分类并反推上级类别,简化多级分类任务,确保层级关系严格一致。
- 数据均衡化处理:针对原始数据类别分布不均问题,采用热门类别下采样与冷门类别大模型数据增强策略。
- 预训练模型微调:选用bert-base-chinese模型,基于Huggingface Transformers库进行高效训练与部署。
- 高效训练与评估:在单张V100显卡上约一小时完成训练,最终在多类别场景下取得近70%的F1分数。
- 模块化功能集成:作为智能发布流程的核心环节,与图片生成标题、视频简介复刻模块协同工作。
考试五
第六阶段 大模型智能体 —— 智能时代的场景重构引擎 点击展开
核心技能
- 理解智能体的基本概念、构成要素与工作原理。
- 掌握Coze、Dify等智能体开发平台的使用与部署。
- 精通LangChain框架核心组件,包括Model I/O、Chains、Memory、Agents和Retrieval模块。
- 熟悉LangGraph框架,能够构建图状工作流解决复杂任务。
- 具备私有知识库搭建与RAG系统实现能力。
- 掌握企业级智能体项目开发流程,包括需求分析、架构设计与部署优化。
课程设计特色
本阶段课程以大模型智能体为核心,从应用开发概述入手,全面介绍微调、RAG、提示词技术和智能体基本构成要素,帮助学生建立完整的智能体知识体系。在框架技术方面,深入讲解LangChain与LangGraph两大主流框架,包括从基础的Model I/O到复杂的Agent设计,从链式思维到图状工作流的思维转变,全面提升学生的技术视野。课程注重企业级应用场景,通过商户运营管家项目,带领学生构建电商、自媒体等领域的AI应用;通过掌柜智库项目,指导学生基于LangGraph构建企业级可插拔RAG工作流,集成多模态处理、多路召回和智能切片技术,解决真实业务问题。同时,提供医疗、教育、听书、金融、旅游等领域项目实战选择,让学生在特定垂直领域深入应用所学技能。最后,通过完整的项目开发流程训练,结合git版本控制与团队协作实践,培养学生从需求分析到部署上线的全流程能力,使学生具备在企业环境中独立开发和维护大模型智能体的综合竞争力,为进入AI应用开发领域做好充分准备。
关键技术清单
大模型应用开发概述
- 微调入门、RAG入门、提示词入门、智能体是什么、LLM代理的构成要素、第一个LLM智能体、为Agent配备工具、智能体基本规划与执行、LLM智能体记忆
项目二:商户运营管家
- 智能体开发概述与搭建流程,Coze、Dify的介绍和基本使用
- 企业私有知识库搭建
- 电商场景AI应用搭建(商品营销卖点提炼、商品评论分析、客服对话记录分析、一键生成行业调研报告、客户投诉分类助手、产品营销海报)
- 自媒体领域AI应用搭建(一键生成行业调研PPT、复刻爆款视频)
- Python调用Coze、Dify平台工作流
- Coze、Dify的windows平台部署
- 企业级大模型及Ollama、Xinference部署
LangChain框架
- LangChain框架概述、LangChain的安装与调用
- Model I/O:Message、Prompt Template、Output Parsers、FunctionCaling
- Chains:Chains的设计理念、SequentialChain、RouterChain
- Memory:Memory模块的设计理念、如何自定义Memory模块、内置的Memory模块
- Agents:基于LangChain的Agent抽象、自定义基于ReAct范式的Agents、使用LangChain定义的ReAct策略
- Retrieval:Source 与 data loaders、Text Splitters、Text embedding models、vector store
- 电商平台商家对话助手案例:集成店铺运营数据库检索、平台政策实时查询和客户服务管理功能;开发多工具调用能力,比如:创建优惠券、平台物流/订单、库存检查、工单分类等;掌握通过记忆机制管理多会话上下文;掌握本地知识库的搭建与调用
LangGraph框架
- LangGraph入门:从链式到图状的思维转变
- 图的核心要素:State, Node, Edge - State (状态)
- Graphs:图的构建与编译
- Memory:图中的持久化状态与记忆
- Agents:使用LangGraph构建更鲁棒、更可控的智能体
- 高级应用与技巧 - 流式输出 (Streaming)
- 案例:内部文档查询助手(小型知识库)
RAG原理及优化
- RAG 架构演进、RAG 效果评估、质量分数评估、基本能力评估、评估工具 Ragas
- 搭建 RAG 系统:系统架构、索引过程、检索过程、生成过程、索引模块、RAG 链条、流式响应 API
- 索引过程:文档加载、文本分块、向量嵌入与存储
- RAG 优化:检索前处理-多查询、检索前处理-HyDE、检索后处理-重排序、混合检索、分层缓存
- Graph RAG:传统 RAG 的局限、基于语料库的 Graph RAG、基于已有知识图谱的 Graph RAG
- 基于语料库的 Graph RAG:切分文本块、抽取实体与关系、构建知识图谱、构建图社区、生成社区摘要、全局查询、局部查询
git/github/gitee/gitlab
- 安装配置、本地库搭建、基本操作、工作流、集中式
项目三:掌柜智库
- 前沿架构:基于 LangGraph 构建企业级可插拔 RAG 工作流。
- 多模态处理:集成 MinerU 与 OCR,精准解析图文混排 PDF。
- 多路召回:向量检索 + 稀疏检索 + Neo4j 知识图谱多路混合召回。
- 智能切片:支持滑动窗口、Small-to-Big 及语义切分策略。
- 深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术。
- 全链路评估:集成 RAGAS 框架,自动化评估检索与生成质量。
项目实战一:好医智库(五选一)
- 前沿架构:基于 LangGraph 构建可审计、可溯源的企业级可插拔 RAG 工作流。
- 多模态处理:集成 MinerU 与OCR,精准解析医学影像报告、电子病历(EMR)及图文混排医学文献。
- 多路召回:向量检索 + 稀疏检索 + 临床知识图谱多路融合召回,确保医疗问答的准确性与覆盖率。
- 智能切片:支持基于病例结构的切片、滑动窗口、Small-to-Big及医学语义切分策略,适配长文档 EMR 与指南。
- 深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,优化对症状、诊断、治疗路径等查询的匹配质量。
- 全链路评估:集成 RAGAS 与临床知识正确性校验流程,实现检索与生成的自动化医疗级评估。
项目实战一:伴学智库(五选一)
- 前沿架构:基于LangGraph构建在线教育可插拔RAG工作流,支持课程构建、教辅生成与学习路径推荐的模块化扩展。
- 多模态处理:集成MinerU与OCR,精准解析教材扫描件、课堂板书截图、图文混排课件PDF。
- 多路召回:向量检索+稀疏检索+知识图谱(课程体系/题库知识点网)多路混合召回,支撑题目解析与知识点推送。
- 智能切片:支持滑动窗口、Small-to-Big及教育语义切分策略,适配不同学科的课件、笔记与大体量教材。
- 深度优化:引入HyDE假设性嵌入与BGE-Rerank重排序技术,增强对知识点、题干语义与解题逻辑的精准匹配。
- 全链路评估:集成RAGAS框架,结合题目正确率与知识点覆盖度,完成检索与生成质量的自动化性能评估。
项目实战一:倾听智库(五选一)
- 前沿架构:基于 LangGraph 构建企业级可插拔 RAG 工作流,支持对话意图理解、多轮问答与知识溯源,模块可灵活扩展与替换。
- 多模态处理:集成 MinerU 与 OCR,精准解析对话纪要、访谈文稿、图文混排报告及音视频转写文档。
- 多路召回:向量检索 + 稀疏检索 + 业务场景知识图谱多路混合召回,提升问答连贯性与场景匹配度。
- 智能切片:支持滑动窗口、Small-to-Big 及对话语义切分策略,适配长文本访谈记录与多轮对话日志。
- 深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,强化对观点、诉求、关键信息的精准提取与匹配。
- 全链路评估:集成 RAGAS 框架,结合信息完整度、回答合理性与事实一致性,实现自动化质量评估。
项目实战一:金融智库(五选一)
- 前沿架构:基于 LangGraph 构建金融场景可插拔 RAG 工作流,支持研报解读、数据查询、风险提示与合规校验一体化流程。
- 多模态处理:集成 MinerU 与 OCR,精准解析财报 PDF、研报图表、招股书、合同文本及金融图文混排资料。
- 多路召回:向量检索 + 稀疏检索 + 金融知识图谱(行业 / 标的 / 指标 / 法规)多路融合召回,保障金融问答严谨性与准确性。
- 智能切片:支持按财报章节、指标维度、条款段落切分,结合滑动窗口、Small-to-Big 与金融语义切片,适配长文档研报与法规。
- 深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,提升对金融指标、业务逻辑、风险条款的检索与生成精度。
- 全链路评估:集成 RAGAS 框架并叠加金融合规性校验,自动化评估检索准确性、生成可靠性与合规风险。
项目实战一:美途智库(五选一)
- 前沿架构:基于 LangGraph 构建文旅出行场景可插拔 RAG 工作流,支持行程规划、攻略生成、景点问答与服务推荐模块化扩展。
- 多模态处理:集成 MinerU 与 OCR,精准解析旅游攻略、景点介绍、线路手册、票务文件及图文混排文旅宣传资料。
- 多路召回:向量检索 + 稀疏检索 + 文旅知识图谱(景点 / 线路 / 交通 / 住宿 / 政策)多路混合召回,提升推荐合理性与信息全面性。
- 智能切片:支持按地域、行程天数、景点主题切片,结合滑动窗口、Small-to-Big 与出行语义切分,适配长攻略与线路手册。
- 深度优化:引入 HyDE 假设性嵌入与 BGE-Rerank 重排序技术,优化对出行需求、偏好、游玩路线的语义理解与匹配。
- 全链路评估:集成 RAGAS 框架,结合信息真实度、路线合理性与用户问答满意度,完成自动化检索与生成质量评估。
考试六
第七阶段 大模型 ——AI 能力跃迁的核心基座 点击展开
核心技能
- 深入理解GPT、LLaMA、Qwen等主流大模型的核心原理与架构特点。
- 掌握大模型微调技术,包括PEFT、LoRA、QLoRA等参数高效微调方法。
- 熟悉DeepSpeed分布式训练技术,具备大模型训练环境搭建能力。
- 了解强化学习基础理论,掌握PPO、DPO、GRPO等算法在大模型优化中的应用。
- 具备Rasa框架深度定制能力,能够开发领域专用对话系统。
- 掌握NL2SQL技术,能够构建基于思维链的智能数据查询系统。
课程设计特色
本阶段课程以大模型核心技术为主线,从GPT、LLaMA、Qwen等主流模型原理讲解入手,为学生构建扎实的理论基础。在技术实践层面,详细剖析大模型微调的全流程,包括数据收集处理、参数高效微调技术、量化算法以及分布式训练策略,使学生全面掌握大模型定制化的核心技能。课程深入讲解强化学习在大模型优化中的前沿应用,从马尔可夫决策过程等基础理论,到PPO、DPO、GRPO等高级算法,再到RLHF的完整实现流程,通过智能评论等实战项目,让学生亲身体验从监督微调到强化学习对齐的全链路开发过程。在应用层面,课程精心设计了三大类型的实战项目:对话系统类(电商小二、尚医助手、知学助手、倾听助手、金融助手、美途助手)、数据分析类(掌柜问数、归因分析、商城风控)和综合智能体类(市场罗盘、万应助手、舆情分析、运维管家)。这些项目覆盖了从开源项目深度定制、多路特征提取、混合对话策略,到思维链驱动NL2SQL、混合多路召回、动态Schema剪枝等企业级技术难点,全面提升学生解决复杂问题的能力。最终,通过这些系统化的理论学习与项目实战,学生将建立起完整的大模型技术体系,具备在企业环境中进行大模型定制、优化和应用的全方位能力,为成为大模型领域的专业人才奠定坚实基础。
关键技术清单
大模型框架原理
- GPT 系列模型演进历史
- 当今主流LLM体系概览
- LLM基础架构:输入层、Transformer Block、输出层
- LLM架构演进:Attention、Feed Forward Network、残差连接与归一化、位置编码
- 主流开源LLM架构:DeepSeek V3、Llama 4、Qwen3、GPT-OSS、其他
大模型微调核心
- 微调原理:BaseModel/InstructModel、ChatTemplate
- 微调数据集格式:alpaca指令跟随格式、shareGPT多轮对话格式
- 微调算法:全参微调、参数高效微调(LoRA/QLoRA)、分布式训练(数据并行、张量并行、流水线并行、专家并行、零冗余优化器)
- 微调工具链:Huggingface SFT、Huggingface Accelerate、Unsloth、DeepSpeed、Lamma Factory
- 模型部署与推理:vLLM、PagedAttention(分页显存管理机制)、Continuous Batching(连续批处理调度)、KV Cache 高效复用、OpenAI API 兼容服务化部署
- 模型评估:EvalScope、全面的评测基准、推理性能压力测试、交互式测试报告
文摘引擎
- 轻量化大模型落地:基于 Qwen3-4B + LoRA 微调,实现单卡快速迭代,兼顾精度与成本,核心数据抽取准确率从 90% 提升至 96%。
- 全岗位报表效率提升:覆盖运营、供应链、客服全周期报表场景,日报/周报生成时间压缩 70%-90%,减少重复人工操作。
- 复杂逻辑与长文本处理:2048 token 上下文窗口保证季度及多维报表逻辑连贯,支持趋势分析、问题复盘与计划建议。
- 异常数据智能归因与关键信息保障:自动分析异常原因并结合规则校验,确保 SKU、促销周期、物流延迟等核心信息零遗漏。
- 安全合规与易用性设计:加密传输与脱敏处理保障数据安全,OA 系统集成与可视化编辑界面降低员工使用门槛。
- 闭环迭代与业务决策延展:通过员工反馈持续优化模型,支持可视化联动与智能问答,实现从报表工具向决策助手升级。
强化学习核心
- 强化学习基础理论:马尔可夫决策过程,贝尔曼方程,蒙特卡罗方法,时序差分方法(TD方法),策略梯度法,REINFORCE方法,Actor-Critic架构(演员评论家架构)
- 强化学习高级理论:PPO(近端策略优化),DPO(直接偏好优化),GRPO(组相对策略优化)
- 基于强化学习微调大语言模型:RLHF(基于人类反馈的强化学习),使用PPO微调大语言模型,使用DPO微调大语言模型,使用GRPO微调大语言模型
- 案例:从零实现DPO之“如何训练一个智能客服”
- 案例:从零复刻DeepSeek-R1之“如何训练一个带思维链的医疗助手”
项目四:智能评论
- 严格遵循标准RLHF流程:严格遵循监督微调、奖励模型训练与PPO强化学习三阶段,实现从基础能力到人类偏好的精准对齐。
- 监督微调奠基:基于电商评论数据集对Qwen2.5-3B进行SFT,赋予模型生成流畅商品评论的核心能力。
- 奖励模型提供偏好信号:在Qwen2.5-0.5B基础上构建奖励头,通过正负向评论标注训练,量化文本情感偏好。
- PPO强化学习对齐:以SFT模型为行动者,集成价值头作为评判者,结合奖励模型打分驱动策略优化。
- 稳定训练技术集成:引入KL散度惩罚防止策略漂移,采用广义优势估计优化优势计算,并应用PPO-Clip确保更新稳定。
- 业务目标精准达成:通过端到端流程,成功引导模型从生成中性评论转向稳定输出积极正向的商品评价。
项目五:电商小二
- 行标级开源项目深度二开与定制:深入 Rasa 源码层进行企业级二次定制开发。
- 深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与预训练语言模型(BERT/ChineseBERT),实现对电商复杂术语的精准理解。
- DIET 多任务学习:采用 DIET (Dual Intent and Entity Transformer) 架构,在一个模型中同时完成意图分类与实体提取,大幅提升训练效率与识别准确率。
- 混合对话策略: Rule + ML (TED) 双引擎驱动。利用 RulePolicy 处理退换货等硬性业务流程,利用 TED 策略处理上下文跳跃等复杂多轮对话,拒绝“人工智障”。
- 全链路特征工程:内置 Jieba 中文分词与 CountVectors 词袋模型,针对中文电商语境进行专项优化,解决“口语化”、“缩略语”识别难题。
- 动态动作执行:基于 Action Selection 模块,不仅能“答疑”,更能“办事”。支持自定义 Action 调用外部 API,实时查询订单状态、修改物流信息。
- 可视化故事建模:基于 Stories 故事策略进行多轮对话流程建模,将非线性的用户交互转化为可控的机器学习训练样本。
项目实战二:尚医助手(五选一)
- 开源项目深度二开与定制:深入 Rasa 源码层进行企业级二次定制开发。
- 深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与预训练语言模型(BERT/ChineseBERT),实现对医疗专业术语的精准理解。
- DIET 多任务学习:采用 DIET (Dual Intent and Entity Transformer) 架构,在一个模型中同时完成意图分类与实体提取,大幅提升训练效率与识别准确率。
- 混合对话策略: Rule + ML (TED) 双引擎驱动。利用 RulePolicy 处理挂号缴费、病历查询等硬性业务流程,利用 TED 策略处理病情描述、用药咨询等复杂多轮对话。
- 全链路特征工程:内置 Jieba 中文分词与 CountVectors 词袋模型,针对中文医疗语境进行专项优化,解决“口语化症状描述”、“医学缩略语”识别难题。
- 动态动作执行:基于 Action Selection 模块,不仅能“答疑”,更能“办事”。支持自定义 Action 调用外部 API,实时查询检验报告、预约检查项目、更新患者诊疗信息。
- 可视化故事建模:基于 Stories 故事策略进行多轮对话流程建模,将非线性的用户交互(如症状主诉、病史追问、用药指导)转化为可控的机器学习训练样本。
项目实战二:知学助手(五选一)
- 开源项目深度二开与定制:深入Rasa源码,针对在线教育平台进行二次定制开发,支持课程咨询、学习路径推荐、作业提醒等教育业务场景需求。
- 深度语义融合:构建Sparse+Dense双路特征提取网络,结合正则表达式(Regex)与教育领域语言模型(EduBERT/ChineseBERT),精准理解课程名、教学术语、学生口语化提问。
- DIET多任务学习:应用DIET模型,实现意图分类(课程查询/报名咨询/学习疑问)与实体识别(课程名称、章节、知识点、年级)一体化,提升模型性能。
- 混合对话策略:Rule+ML(TED)双引擎驱动。RulePolicy处理选课流程、考试流程等固定路径;TED策略处理学生自由问答、课程跳跃式咨询等复杂多轮学习互动场景。
- 全链路特征工程:内置对教育语境优化的分词器与CountVectors特征模型,解决课程简称、学习术语、学生非正式表达等解析困难问题。
- 动态动作执行:基于ActionSelection,可调用LMS/教务系统API,实现课程进度查询、作业提醒、学习数据汇总等实时教学辅助功能。
- 可视化故事建模:使用Stories建模多轮学习场景,将课程咨询、知识点问答、学习规划等过程转换为可控训练样本,提高学习交互的可解释性与可扩展性。
项目实战二:倾听助手(五选一)
- 开源项目深度二开与定制:深入 Rasa 源码层进行企业级二次开发,适配政务咨询、民意倾听、投诉建议、回访调研等对话场景。
- 深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与中文预训练模型(BERT/ChineseBERT),精准识别诉求、意见、问题描述等口语化表达。
- DIET 多任务学习:采用 DIET 架构,在统一模型中完成意图分类(投诉 / 建议 / 咨询 / 求助)与实体提取(时间、地点、事件、对象),提升意图理解准确率。
- 混合对话策略:Rule + ML (TED) 双引擎驱动。使用 RulePolicy 处理流程化业务(登记信息、工单流转、进度查询);使用 TED 策略处理自由陈述、多轮追问、复杂诉求表达。
- 全链路特征工程:基于 Jieba 分词与 CountVectors 词袋模型,针对民生口语、方言化表达、缩略称谓做专项优化,解决模糊诉求、长句描述的理解难题。
- 动态动作执行:通过 Action Selection 模块调用外部系统 API,实现诉求登记、工单派发、进度查询、结果反馈、回访提醒等自动化办事能力。
- 可视化故事建模:基于 Stories 完成多轮交互建模,将诉求表达、信息核实、问题追问、结果告知等流程标准化,提升对话可控性与业务落地能力。
项目实战二:金融助手(五选一)
- 开源项目深度二开与定制:深入 Rasa 源码进行金融场景企业级二次开发,支持理财咨询、业务办理、风险提示、客服回访等智能对话需求。
- 深度语义融合:构建 Sparse + Dense 双路特征提取网络,结合正则表达式(Regex)与金融领域预训练模型,精准识别产品名称、金额、期限、风险等级、业务条款等专业信息。
- DIET 多任务学习:采用 DIET 架构,同步实现意图分类(开户 / 转账 / 理财 / 贷款 / 查询)与实体抽取(账号、金额、产品、日期、费率),提升金融对话识别精度。
- 混合对话策略:Rule + ML (TED) 双引擎驱动。RulePolicy 负责密码验证、业务鉴权、流程办理等强规则场景;TED 策略负责理财咨询、风险解读、收益对比等复杂多轮问答。
- 全链路特征工程:优化 Jieba 分词与 CountVectors 特征模型,适配金融口语、产品简称、行业黑话与数字表达式,解决模糊查询与歧义理解问题。
- 动态动作执行:通过 Action Selection 调用核心业务 API,支持余额查询、交易明细、风险测评、产品推荐、业务预约等实时操作。
- 可视化故事建模:使用 Stories 构建多轮金融对话流程,实现咨询 — 校验 — 办理 — 告知全链路标准化,提升合规性与交互稳定性。
项目实战二:美途助手(五选一)
- 开源项目深度二开与定制:基于 Rasa 源码深度二次开发,面向文旅出行场景打造智能助手,支持景点问答、行程规划、票务查询、酒店咨询、投诉建议等功能。
- 深度语义融合:构建 Sparse + Dense 双路特征网络,结合 Regex 与中文预训练模型,精准识别目的地、景点、日期、人数、预算、出行方式等关键信息。
- DIET 多任务学习:采用 DIET 架构,统一完成意图识别(订票 / 订房 / 攻略 / 投诉 / 问路)与实体抽取(城市、景点、时间、价格区间、交通方式),提高交互效率。
- 混合对话策略:Rule + ML (TED) 双引擎驱动。RulePolicy 处理票务查询、酒店预订、入园预约等标准化流程;TED 策略处理自由行程规划、偏好调整、多目的地对比等复杂对话。
- 全链路特征工程:基于 Jieba 分词与 CountVectors 做文旅场景优化,支持景点别称、口语化需求、模糊地点描述的理解,提升用户体验。
- 动态动作执行:通过 Action Selection 调用文旅、交通、票务 API,实现实时查询车次、景点开放时间、天气、路线规划、订单状态更新等能力。
- 可视化故事建模:使用 Stories 建模多轮出行对话,将需求收集、方案推荐、修改调整、确认下单流程结构化,支持灵活扩展线路与服务类型。
项目六:掌柜问数(三选一)
- 大厂开源内核:大厂开源内核:基于京东最新开源 DataAgent 架构深度定制,承袭经亿级业务场景验证的企业级稳定性与工业化标准。
- 思维链驱动 NL2SQL:引入 Deep-Thinking 推理层,采用“重写-思考-生成”三阶段 Agent 架构,确保复杂 SQL 生成的逻辑准确性。
- 混合多路召回:创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引,实现 Schema 语义与单元格精准值的双重混合召回。
- 动态 Schema 剪枝: ColumnFilterModule 智能列过滤技术,基于查询语义自动剔除无关字段,大幅降低 LLM 上下文噪声。
- 高并发异步架构:全链路基于 AsyncIO 构建,并行执行 Query Rewrite 与 Schema Ranking,显著降低端到端响应延迟。
- 精准语义对齐:集成 Jieba 分词与 HyDE 策略进行查询意图扩展,有效解决业务术语与数据库字段名的语义鸿沟。
项目六:归因分析(三选一)
- 大厂开源内核:基于最新 AttributionAgent 架构深度定制,适配电商多渠道、长链路的归因分析需求。
- 思维链驱动多模型归因:引入 Deep-Attribution 推理层,采用“路径解析-因子拆解-权重分配”三阶段 Agent 架构,兼容末次互动、线性归因、时间衰减等多类模型,确保复杂用户路径归因的逻辑准确性与合理性。
- 混合多路召回:创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引,实现用户行为触点与归因因子的双重混合召回,精准匹配每笔交易对应的全链路营销渠道与运营动作。
- 动态因子剪枝:AttrFilterModule 智能因子过滤技术,基于电商业务场景(广告投放、促销活动、自然流量等)自动剔除无关归因因子,大幅降低 LLM 上下文噪声,提升归因效率。
- 高并发异步架构:全链路基于 AsyncIO 构建,并行执行路径追溯与权重计算,适配电商大促峰值时段的海量交易数据归因需求,显著降低端到端响应延迟。
- 精准语义对齐:集成 Jieba 分词与 HyDE 策略进行归因意图扩展,有效解决电商业务术语(如直通车、直播带货、复购归因)与归因模型字段名的语义鸿沟,提升归因精准度。
项目六:商城风控(三选一)
- 大厂开源内核:基于最新 RiskAgent 架构深度定制,适配电商全场景风控排查需求。
- 思维链驱动风险识别:引入 Deep-Risk 推理层,采用“特征提取-风险研判-决策生成”三阶段 Agent 架构,确保复杂交易风险、欺诈行为识别的逻辑准确性。
- 混合多路召回:创新性融合 Qdrant 向量检索与 Elasticsearch 倒排索引,实现风险特征语义与交易行为数据的双重混合召回,精准捕捉潜在风控隐患。
- 动态风险因子剪枝:RiskFilterModule 智能风险因子过滤技术,基于查询语义自动剔除无关风险字段,大幅降低 LLM 上下文噪声,提升风控识别效率。
- 高并发异步架构:全链路基于 AsyncIO 构建,并行执行风险检测与特征排序,适配电商大促峰值时段的海量交易风控需求,显著降低端到端响应延迟。
- 精准语义对齐:集成 Jieba 分词与 HyDE 策略进行风控意图扩展,有效解决电商风控术语(如刷单、盗刷、恶意退款)与风控模型字段名的语义鸿沟。
项目七:市场罗盘(四选一)
- 场景化任务拆解:结合问数、客服等智能体场景,布置真实业务需求(如电商订单数据查询、售后问题统计),明确智能体功能边界与验收标准
- 自主设计与开发:学生从 0 到 1 完成智能体架构设计、核心功能编码(如对话逻辑、数据接口集成),老师提供实时技术答疑与方案指导
- 阶段性目标划分:按 “需求分析→原型设计→开发调试→功能验证” 拆分阶段,每个阶段设定明确产出(如需求文档、可运行 Demo),避免盲目开发
- 动态进度管控:通过项目看板同步各学生进度,每周开展 1 次进度复盘,老师针对滞后情况调整任务难度或提供额外支持
- 多维度过程检查:关键节点(如架构确定、核心功能完成)进行代码评审与功能测试,老师指出优化点(如交互流畅度、数据准确性)
- 成果落地与展示:学生最终提交可运行智能体及开发报告,组织成果演示环节,老师点评亮点与改进方向,强化实战成就感
项目七:万应助手(四选一)
- 中控调度架构:采用基于 Orchestrator 的分诊模式,精准识别用户意图,在知识库、SQL 查询、地图服务与购物助手间动态路由。
- Text-to-SQL:内置 sql_info_agent,支持将自然语言转化为结构化 SQL,精准查询维修站分布、城市覆盖及特定服务信息。
- 时空智能集成:引入 MCP (Model Context Protocol) 协议对接百度地图,实现基于地理位置(LBS)的维修点查询与导航规划。
- 领域知识 RAG:集成 knowledge_agent 垂直知识库,专门处理“电脑无法开机”等硬件故障诊断,提供专家级维修指导。
- 全生命周期记忆:基于 JSON 的持久化 Session 管理,支持多轮对话上下文保持,确保服务过程的连续性与个性化。
- 全栈交互体验:Python 异步后端配合 Vue3 + Element Plus 前端,打造响应式、可视化的现代智能客服终端。
项目七:舆情分析(四选一)
- 多源舆情采集架构:采用分布式爬虫与API对接结合模式,全面抓取电商平台、社交媒体、新闻资讯、论坛评论等多渠道舆情数据,实现全场景舆情覆盖。
- 智能舆情分类研判:内置 sentiment_agent 情感分析模块,结合 BERT 预训练模型,精准识别舆情正面、负面、中性倾向,自动标注舆情核心诉求与关键词。
- 舆情热度动态追踪:引入热度计算模型与时间序列分析,实时监测舆情传播速度、覆盖范围、互动量,生成可视化热度趋势图,精准捕捉舆情爆发点。
- 风险舆情预警机制:基于关键词匹配与语义相似度检索,设置多级预警阈值,针对恶意诋毁、投诉集中、虚假宣传等风险舆情,实现实时弹窗与短信预警。
- 全周期舆情记忆:采用 JSON 持久化存储与上下文关联技术,留存舆情历史数据与研判记录,支持多轮舆情追溯、趋势对比与复盘分析。
- 全栈可视化展示:Python 异步后端搭配 Vue3 + ECharts 前端,打造舆情仪表盘,直观呈现舆情分布、情感占比、风险等级,支持自定义查询与数据导出。
项目七:运维管家(四选一)
- 智能运维调度架构:采用基于 Orchestrator 的分诊模式,精准识别运维告警意图,在设备监控、故障排查、日志分析与工单处理间动态路由,实现运维全流程自动化。
- 日志智能解析:内置 log_analysis_agent,结合 NLP 与正则匹配技术,支持将自然语言运维需求转化为日志查询指令,精准提取设备异常、性能瓶颈等关键信息。
- 多维度监控集成:引入 Prometheus + Grafana 监控协议,对接服务器、数据库、应用程序等多类运维对象,实现硬件负载、软件性能的实时监测与可视化展示。
- 运维知识 RAG:集成 ops_knowledge_agent 垂直知识库,专门处理服务器宕机、端口异常、内存溢出等常见运维故障,提供标准化排查流程与解决方案。
- 全周期运维记忆:基于 JSON 的持久化 Session 管理,留存设备运行日志、故障处理记录与运维操作历史,支持多轮故障追溯、问题复盘与经验沉淀。
- 全栈运维交互:Python 异步后端配合 Vue3 + Element Plus 前端,打造智能化运维控制台,直观呈现设备状态、告警信息、处理进度,支持一键提交运维工单。
考试七
第八阶段 多模态 —— 打通跨域感知的 AI 新范式 点击展开
核心技能
- 理解多模态技术的基本概念及其在AI中的应用。
- 掌握Vision Transformer(ViT)的核心原理,并能够从零实现图片分类任务。
- 学习CLIP模型的工作机制,掌握如何基于CLIP实现“文搜图”任务。
- 理解ClipCap和扩散模型(Diffusion Model)的工作原理,能够实现图像生成文字及条件扩散模型的任务。
- 了解OpenAI Dall-E2的核心原理,掌握从零实现文本到图像生成的技术。
- 能够进行模型微调优化、训练策略定制,以及高效向量检索的设计与实施。
- 掌握多模态特征融合的方法,包括图像表征预计算、数据集构建与提示工程等高级技巧。
课程设计特色
本阶段课程以多模态技术为主线,从基础理论出发,逐步深入到具体模型的实现与应用。首先介绍多模态技术概论,帮助学生建立全面的知识框架。随后详细讲解Vision Transformer(ViT)和CLIP模型的核心原理,并通过实际操作指导学生从零开始构建这些模型,完成具体的任务如图片分类、“文搜图”等,增强学生的动手能力。在进阶部分,课程深入探讨了ClipCap模型、扩散模型及其条件版本的应用场景和技术细节,让学生不仅理解其背后的理论知识,还能亲自实践这些前沿技术。此外,通过讲解OpenAI Dall-E2的核心原理,为学生打开了一扇通往文本到图像生成的大门。项目实战环节中,学生将有机会参与到智能检索、智能发布(标题生成)等多个真实项目的开发过程中。每个项目都强调理论与实践相结合,比如在智能检索项目中,学生将学习模型微调优化、训练策略定制等技能;而在智能发布项目中,则会深入探索多模态特征融合、数据集构建与提示工程等内容,最终达到提升解决实际问题能力的目的。整个课程设计旨在通过系统化的学习路径,结合丰富的项目实践,帮助学生掌握多模态技术的核心原理与应用场景,培养他们在跨域感知领域的综合竞争力。
关键技术清单
多模态核心原理
- 多模态技术概论
- Vision Transformer(ViT)核心原理讲解
- 从零实现Vision Transformer架构,完成图片分类任务
- CLIP模型核心原理讲解
- 从零实现CLIP模型,完成“文搜图”任务
- ClipCap模型核心原理讲解
- 从零实现ClipCap模型,实现“图生文”
- 扩散模型(Diffusion Model)核心原理讲解
- 条件扩散模型(Conditional Diffusion Model)核心原理讲解
- 从零实现扩散模型和条件扩散模型
- OpenAI Dall-E2(文生图)核心原理讲解
- 从零实现一个Dall-E2文生图模型
项目八:智能检索
- 模型微调优化:基于 CLIP Chinese 模型进行续训,采用部分参数冻结策略,重点解冻文本端后3层与视觉端后2层,以提升图文匹配能力。
- 训练策略定制:使用 AdamW 分组学习率与权重衰减,结合线性预热、余弦衰减、梯度裁剪和早停机制,确保训练稳定高效。
- 高效向量检索:利用优化后的模型将图像编码为归一化特征向量,存入基于 HNSW 索引的 Chroma 向量数据库,实现快速近似最近邻搜索。
- 端到端检索流程:用户文本经模型编码后,通过点积相似度在向量库中检索最相关图像,完成“文搜图”的完整闭环。
- 资源与性能平衡:在单张 V100 GPU 上完成训练,显存占用约 15GB,训练时长约 5 小时,在有限资源下实现了检索效果的显著提升。
项目九:智能发布(标题生成)
- 图像表征预计算:训练时完全冻结图像编码器,将图像预处理为统一格式后,通过CLIP视觉模型提取特征并提前存储,显著提升训练效率并降低总体计算开销。
- 数据集构建与提示工程:通过图像ID关联预计算的图像特征与文本描述,构建训练数据集,并将文本描述嵌入到特定的提示词模板中以指导模型学习。
- 多模态特征融合:将图像特征通过投影层映射为提示词序列,替换文本嵌入中对应的占位符向量,实现图像与文本信息的深度融合。
- 高效训练策略:采用带预热与衰减的AdamW优化器,结合梯度裁剪,在固定图文对数据集上进行多轮训练,并通过早停机制防止过拟合。
- 推理流程自动化:接收用户图像,实时编码并投影为特征序列,与固定的提示词前缀融合后输入语言模型,通过自回归采样生成推荐标题。
- 资源优化配置:整个训练过程在单张高性能GPU上完成,通过预计算和高效的训练设置,在可控的显存占用和时间内完成模型优化。
第九阶段 前沿热点技术融合 —— 紧跟行业趋势,抢占技术红利 点击展开
核心技能
- 理解并掌握 Harness Engineering 核心思想。
- 掌握 Hermes Agent 自我改进型智能体设计方法。
- 掌握 Vibe Coding 意图驱动型编程范式,打破传统逐行编码的开发模式,学会以自然语言描述需求意图、场景与功能,提升开发效率与创新空间。
- 掌握 OpenClaw 常驻型 AI 助手搭建与实操。
课程设计特色
聚焦行业热门方向,对接主流技术生态,同步行业最新成果,让学员掌握贴合前沿的实用技能。
关键技术清单
Harness Engineering
- 基于 Hermes Agent 技术,讲解“自我改进型智能体”这一前沿方向。学生将掌握具备长期记忆、技能沉淀、经验学习、工具调用、自动调度与多 Agent 协同能力的智能体系统设计方法,理解 AI 应用如何从一次性代码生成,进一步升级为“会记忆、会积累、会持续执行任务”的长期运行型 Agent。Hermes Agent 官方将其定位为 self-improving AI agent,强调 built-in learning loop,可从经验中创建并改进 skills、搜索过往对话、跨会话建立用户模型,并支持定时任务与多平台接入。
Vibe Coding
- Vibe Coding 是当下 AI 浪潮下全新的意图驱动型编程范式,颠覆传统逐行手写代码的开发模式,核心实现「人类定义需求意图,AI 落地代码实现」的高效协作开发。课程系统讲解 Vibe Coding 的核心思想、协作逻辑与落地方法论,帮助学员跳出语法细节与底层逻辑的繁琐束缚,掌握以自然语言描述目标、场景与功能诉求的高效开发方式。
OpenClaw小龙虾技术
- 基于 OpenClaw 开源智能体平台,掌握常驻型 AI 助手的基本使用方式,掌握多渠道消息接入、工具调用、技能扩展与日常任务处理等重要能力。学生将通过实际操作,认识个人 AI 助手类产品的基本形态,掌握搭建与使用通用智能体应用的入门方法。
Hermes Agent爱马仕技术
- 围绕 Harness 思想,讲解 AI Agent 从“直接调用模型”走向“可控运行系统”的关键架构升级。学生将理解 Harness 并非单一产品,而是位于模型与外部世界之间的运行控制层,负责工具接入、权限约束、状态管理、执行循环、安全控制与结果回收等核心能力,掌握 Agent Runtime / Agent Host / 控制外壳等重要概念,为后续学习复杂智能体系统设计打下基础。近期关于 agent harness 的研究与技术讨论,普遍将其定义为把原始大模型转化为可控自治体的基础设施层。
第十阶段 就业冲刺 ——大牛引路,冲击大厂,把握超级风口 点击展开
全程就业护航
- 对标招聘需求,进行全方位复习及准备;
- 手把手指导:简历撰写、投递,面试机会源源不断;
- 1V1模拟面试,通过后再正式开始就业;
- 就业老师为你复盘每日面试情况,传授面试及谈薪技巧;
- N多企业内推,工作机会又多又顺;
- 入职后技术老师持续答疑,为你的职场之路保驾护航。
本课程适学人群
希望转型
人工智能
大模型行业的从事相关开发工作,
希望进一步
提升的对新一代
AI大模型开发
感兴趣的大学生对人工智能
感兴趣,
希望系统学习的
全程护航
你们只管乘风破浪
从入学到就业,一站式陪跑服务,助力职业生涯持续提升
就业老师1v1面试指导
职业素养课+简历指导+模拟面试+就业答疑
职业素养课+简历指导+模拟面试+就业答疑
实力担当 行业之光




