《九天菜菜-大模型与Agent开发实战》课程全面涵盖了大模型与Agent的开发、部署、微调及实战应用。课程从在线大模型(如GPT、GLM、Claude、Gemini等)的部署与调用入手,详细讲解了API调用、流式处理、多模态应用、工具调用等核心技术。随后深入开源大模型的本地部署与微调,包括ChatGLM、Llama、Qwen等模型的部署、LoRA微调、PPO算法、RLHF等高效微调技术。课程还重点介绍了AI Agent的开发,涵盖ReAct架构、LangGraph、Function Calling、Assistant API等前沿技术,并结合实际项目(如MateGen Pro)进行实战演练。最后,课程通过RAG项目实战,展示了如何构建企业级知识库问答系统,并结合评估框架优化RAG流程。
九天菜菜-大模型与Agent开发实战94.81GB
大模型与Agent开发实战课件288.4MB
Agent开发实战-课件244.95MB
03_ReAct Agent 基础理论与项目实战9.85MB
03_ReAct Agent 基础理论与项目实战.ipynb66.04KB
ReAct_AI_Agent.zip9.78MB
06_OpenAI Assistant API 高阶应用 - 流式输出_20241010_175342114.3MB
06_OpenAI Assistant API 高阶应用 - 流式输出.ipynb521.44KB
AssistantStreaming.zip113.79MB
14_LangGraph 多代理与 GraphRAG 综合应用实战295.3KB
Ch.14 LangGraph Supervisor 多代理架构与 GrapRAG 综合应用实战.ipynb290.55KB
company.txt4.75KB
15_MicroSoft AutoGen 开发框架基础入门50.03MB
autogen.zip49.78MB
Ch 15_MicroSoft AutoGen 基础入门.ipynb248.21KB
项目开发实战一:从零搭建多功能智能体 MateGen Pro(第一部分)7.59MB
mategen_pro-main.zip7.51MB
项目开发实战一:MateGen Pro.ipynb91.81KB
01_大模型应用发展及Agent前沿技术趋势.ipynb44.47KB
02_AI Agent应用类型及Function Calling开发实战.ipynb137.62KB
04_OpenAI Assistant API 基本理论与入门实战.ipynb199.5KB
05_OpenAI Assistant API 进阶应用.zip61.11MB
07_LangGraph底层原理解析与基础应用入门.ipynb60.62KB
08_LangGraph中State状态模式与LangSmith基础使用入门(1).ipynb117.74KB
09_单代理架构在 LangGraph 中构建复杂图的应用.ipynb217.74KB
10_LangGraph 实现自治循环代理(ReAct)及事件流的应用.ipynb182.44KB
11_LangGrah 长短期记忆实现机制及检查点的使用.ipynb175.05KB
12_LangGraph 中 Human-in-the-loop 应用实战.ipynb164.12KB
13_LangGraph Multi-Agent Systems 开发实战.ipynb235.77KB
16_MicroSoft AutoGen 代理对话与人机交互源码解析.ipynb293.71KB
大模型微调-课件14.78MB
CH 1 论文.zip14.15MB
Ch 1. 大模型微调.ipynb52.2KB
Ch 2. LLama_Factory+LORA大模型微调.ipynb72.01KB
Ch 3. LLama_factory&Lora微调Qwen2.5做NL2sql.ipynb75.89KB
Ch 4. Window微调Qlora.ipynb72.8KB
Ch 5. PPO微调LLama-3.2.ipynb79.54KB
Ch 6. RHLF微调Qwen2.5.ipynb86.34KB
Ch 7. DPO微调Qwen2.5.ipynb85.29KB
Ch 8 PEFT&医疗领域模型微调实践.ipynb123.1KB
开源大模型部署与调用-课件3.32MB
01_ChatGLM3-6B2.51MB
【ChatGLM3-6B】Part1_Ubuntu双系统安装教程.ipynb48.22KB
【ChatGLM3-6B】Part2_Ubuntu环境ChatGLM3-6B安装办法.ipynb46.92KB
【ChatGLM3-6B】Part3.1_服务器场景下ChatGLM3-6B部署与多种启动方式.ipynb46.26KB
【ChatGLM3-6B】Part3.2_在AutoDL中快速部署ChatGLM3-6B模型.pdf2.15MB
【ChatGLM3-6B】Part4_以ChatGLM3为例实现本地大模型更新.ipynb40.91KB
【ChatGLM3-6B】Part5_单机多卡启动大模型办法.ipynb24.7KB
【ChatGLM3-6B】Part6_LORA微调原理&实战.ipynb41.66KB
【ChatGLM3-6B】Part7_PEFT主流高效微调方法介绍&实战.ipynb69.71KB
【ChatGLM3-6B】Part8_Langchain体系详解与v0.3安装部署.ipynb53.91KB
02_【GLM4-9B-Chat】GLM4-9b部署&vLLM推理.ipynb101.79KB
03_【Llama3.1】Llama 3.1介绍与部署流程.ipynb122.39KB
04_【Llama3.2】Llama3.2介绍与部署流程.ipynb51.61KB
05_【Qwen2.5】Qwen2.5介绍与部署流程.ipynb79.01KB
06_【Qwen2.5】Qwen2.5-Coder&Math介绍部署.ipynb115.07KB
08_【Ollama】最新版本从入门到进阶攻略.ipynb64.57KB
09_【Marco-01】推理大模型参数介绍与本地部署.ipynb74.47KB
10_【GLM-Edge-V】端侧多模态模型参数介绍与部署流程.ipynb19.63KB
11_【Qwen2VL】多模态视觉识别模型参数介绍与部署.ipynb33.16KB
12_【Llama.cpp】开源推理框架量化模型使用指南.ipynb46.17KB
13_【GLM4-Voice】语音模型参数介绍与部署.ipynb89.81KB
14_【Cursor】以调用QWQ推理大模型为例实现辅助编程.ipynb35.55KB
在线大模型部署与调用-课件25.34MB
【Claude 3.5 系列】19.31MB
【Claude3.5】part1-Claude介绍及注册流程与API领取.pdf6.19MB
【Claude3.5】part2-API从入门到精通.zip12.73MB
【Claude3.5】part3_tool_use工具调用全流程与2参数详解.ipynb169.24KB
【Claude3.5】part4_prompt cache 提示缓存与streaming流式输出.ipynb234.49KB
【Dspy】1.28MB
【DSPy】part1_核心理念DSPy的核心理念(配置LM、签名、构建模块).ipynb151.02KB
【DSPy】part2_DSPy的评估体系(Example数据、Metric度量指标、评估).ipynb44.17KB
【DsPy】part3_实战优化_评估GSM8K数据集下模块的表现(优化篇).ipynb232.43KB
【DsPy】part4_推文生成与优化实战.ipynb879.25KB
【Gemini 系列】453.26KB
【Gemini】part1_Gemini生态之最新模型、免费策略、注册指南、网页端微调实战一网打尽.md16.94KB
【Gemini】part1_甄嬛Gemini微调语料500条.xlsx101.25KB
【Gemini】part2_ API文本生成调用入门到构建多轮对话机器人.ipynb118.35KB
【Gemini】part3_API精细化控制生成参数与长文档实战与生成结构化.ipynb216.72KB
【GLM 系列】306.87KB
【GLM】part0_智谱清言GLM账号注册及APIKEY领取.md2.6KB
【GLM】part1_GLM-4文本对话大模型API调用指南.ipynb83.83KB
【GLM】part2_Streaming流式响应调用API全解.ipynb152.73KB
【GLM】part3_GLM_函数调用讲解与实战.ipynb42.44KB
【GLM】part4_智谱CogVideoX 文生视频.ipynb25.27KB
【OpenAI GPT 4o 系列】3.39MB
【GPT 4o】part1_文本生成API调用入门与精细化控制.ipynb116.71KB
【GPT 4o】part2_文本生成API的多模态调用.zip2.18MB
【GPT 4o】part3_tool_use工具调用与实战.ipynb504.94KB
【GPT 4o】part4_生成结构化输出.ipynb16.78KB
【GPT 4o】part5_首token时延与提示缓存.ipynb42.41KB
【GPT 4o】part6_Streaming流式响应调用API全解.ipynb424.38KB
【GPT 4o】part7_微调实战初窥之写作风格.zip81.84KB
【GPT 4o】part8_微调实战进阶之tool use微调.zip45.6KB
【OpenAI GPT o1 系列】156.15KB
【GPT o1】part1_o1大模型与推理token简介.md5.97KB
【GPT o1】part2_o1的API调用与总结.ipynb33.32KB
【GPT o1】part3_通过COT制作4o-mini版本的o1模型与其局限性.ipynb22.92KB
【GPT o1】part4_使用o1模型生成诺贝尔奖得主的JSON格式数据分析.zip75.5KB
【GPT o1】part5_o1蒸馏4o-mini模型实战.zip18.43KB
【OpenAI 账号注册与环境配置】69.92KB
【GPT】Part 1. OpenAI的账号注册速通.md20.4KB
【GPT】Part 2. OpenAI官网及开发者平台使用指南.md18.27KB
【GPT】Part 3. 开通虚拟信用卡与Plus会员订阅与API账户的充值与领取API_KEY.md18.48KB
【GPT】Part 4. 在Jupyter中首次调用OpenAI API.ipynb12.76KB
【提示工程】411.32KB
使用 FastAPI 构建后端的 API 服务.pdf303.22KB
【提示工程】part1_提示工程指南(上).md9.38KB
【提示工程】part2_提示工程指南(下).ipynb98.72KB
大模型与Agent开发实战【新课】94.52GB
1-在线大模型部署调用12.88GB
DSPy优化器优化LLM程序.ts1.14GB
DSPy:斯坦福20k+星标项目 - 革命性的LLM优化框架,从评估到自动优化你的LLM系统(如RAG系统).ts1.13GB
GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts669.29MB
GLM Assistant API集成与FastAPI服务复刻实战指南.ts927.33MB
GLM模型:流式处理的工具调用、多模态应用及模型微调实战指南.ts545.62MB
提示工程全解指南.ts775MB
【Claude】01_了解Claude的所有特质.MP4145.07MB
【Claude】02_Claude的注册流程.ts70.21MB
【Claude】03_API_KEY领取及调用.ts83.9MB
【Claude】04_API必须参数揭秘,多轮对话机器人速成指南_x264.ts205.22MB
【Claude】05_API多模态的最佳实践.ts88.41MB
【Claude】06_API生成定制化与提示工程实战长文档.mp4136.13MB
【Claude】07_tool use全流程讲解与wiki搜索实战.ts245.39MB
【Claude】08_tool_choice与定制Json输出及tool_use大实战.ts197.23MB
【Claude】09_揭秘prompt Cache提示缓存:节省成本加快响应的绝技.ts124.11MB
【Claude】10_stream函数及生成器本质讲解.ts112.73MB
【Claude】11_stream流式概念与使用方法讲解.ts163.21MB
【Claude】12_异步的使用原因与基本语法.ts120.86MB
【Claude】13_异步的API调用的讲解与实践.ts172.03MB
【Gemini】01_Gemini注册指南-最新模型免费API调用.ts109.71MB
【Gemini】02_生态体验攻略与微调实战.ts95.44MB
【Gemini】03_解锁 Gemini API-开启文本生成之旅.ts116.92MB
【Gemini】04_掌握原生generate_content函数多轮对话技巧.ts64.59MB
【Gemini】05_API内置简化多轮对话的start_chat函数与ChatSessi.ts136.12MB
【Gemini】06_API精细化控制生成之System Instruction.ts62.16MB
【Gemini】07_API精细化控制生成之generation_config与max_t.ts97.31MB
【Gemini】08_API精细化控制生成之Temperature与Stop Sequen.ts103.02MB
【Gemini】09_提示工程之长文档实战.ts107.48MB
【Gemini】10_API精细化控制生成结构化与Json参数.ts120.47MB
【GLMAssistantAPI】01_调用assistantAPI流程与效果.ts117.04MB
【GLMAssistantAPI】02_多个assistant演示解析使用.ts45.77MB
【GLMAssistantAPI】03_将智能体集成Agent类使用.ts69.38MB
【GLMAssistantAPI】04_构建fastapi的Web项目.ts106.28MB
【GLMAssistantAPI】05_复刻AssistantAPI.ts46.82MB
【GLM】01_GLM大模型API调用介绍与领取APIKEY.ts22.23MB
【GLM】02_GLM模型API初次调用与响应解析.ts62.48MB
【GLM】03_大模型API调用的消息和构建多轮对话机器人.ts104.26MB
【GLM】04_十分钟速通GLM的可选参数.ts39.05MB
【GLM】05_GLM的stream流式响应讲解.ts69.98MB
【GLM】06_tooluse上-一次api调用的tooluse.ts99.08MB
【GLM】07_tooluse下-两次api调用的tooluse.ts89.27MB
【GLM】08_tooluse接入维基百科搜索实战.ts73.43MB
【GLM】09_CogVideoX视频生成大模型.ts111.41MB
【GLM】10_GLM4V图像多模态模型.mp445.11MB
【GLM】11_tool_use和流式结合的API调用.mp454.8MB
【GLM】12_GLM的AllTool模型API调用.mp481.54MB
【GLM】13_构建在线GLM的微调.mp491.38MB
【GPT4o】01_4o文本生成API基本讲解与调用.ts101.29MB
【GPT4o】02_2个核心必需参数详解与对话消息本质剖析.ts118.3MB
【GPT4o】03_多轮对话历史及面向对象多轮对话机器人实战.ts120.31MB
【GPT4o】04_精细控制生成可选参数系列讲解.ts140.19MB
【GPT4o】05_4o多模态图片的文本生成API调用详解.ts144.29MB
【GPT4o】06_3步的 tool use基础讲解与【实战】社交媒体情绪数据分析.ts129.05MB
【GPT4o】07_5步的 tool use完整的调用流程与汇总.ts85.78MB
【GPT4o】08_tool use 维基百科实时写作助手【实战】.ts120.24MB
【GPT4o】09_并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts113.24MB
【GPT4o】10_输出生成结构化的3种方式(JSON结构化).ts143.38MB
【GPT4o】11_首token时延与提示缓存原理与最佳实践.ts101.11MB
【GPT4o】12_Streaming流式响应详解.ts196.61MB
【GPT4o】13_函数调用中的Streaming流式响应.ts114.33MB
【GPT4o】14_风格微调(上)创建数据集与微调作业.ts199.23MB
【GPT4o】15_风格微调(下)微调作业运行与应用评估.ts109.84MB
【GPT4o】16_tool_use微调(上)微调数据准备思路和微调准备.MP4211.31MB
【GPT4o】17_tool_use微调(下)制造微调数据微调并评估结果.MP4377.67MB
【GPTo1】01_o1大模型原理介绍 从4o到o1实际上发生了什么.ts88.22MB
【GPTo1】02_o1模型的API调用详解与总结.ts132.97MB
【GPTo1】03_通过COT制作4o-mini版本的o1模型【实战】.ts102.79MB
【GPTo1】04_2种加载模型o1没有的Json结构功能与【实战】.ts84.03MB
【GPTo1】05_用o1蒸馏模型实战(上).ts117.8MB
【GPTo1】06_用o1蒸馏模型实战(下).ts104.68MB
【GPT】01_OPENAI的账号注册速通.ts147.02MB
【GPT】02_OPEN AI官网及开发者平台使用指南.ts182.38MB
【GPT】03_虚拟信用卡开通与升级GPT_Plus会员.ts111.43MB
【GPT】04_API账户充值及领取API_KEY及首次调用API.ts147.84MB
2-开源大模型部署调用6.3GB
Cursor&Coder高效低代码开发办法.ts90.15MB
Glm-Edge-v-5B模型介绍与本地部署.ts35.57MB
Marco-o1模型介绍与本地部署.ts224.78MB
Ollama最新版本保姆级指南.ts185.78MB
Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts128.47MB
Qwen2--5Coder本地部署使用全流程.ts178.05MB
Qwen2--5Coder:32B基本介绍和测试.ts196.8MB
Qwen2VL多模态模型参数介绍&部署使用全流程.ts96.15MB
在Windows环境下使用Ollama启动多模态模型llama3.2Vision全流程.ts50.29MB
【ChatGLM3-6B】01_Ubuntu双系统安装.MP4199.67MB
【ChatGLM3-6B】02_Ubuntu环境下ChatGLM3-6b命令行安装办法.MP4182.7MB
【ChatGLM3-6B】03_服务器环境下部署ChatGLM3-6b.ts163.22MB
【ChatGLM3-6B】04_ChatGLM3-6b的多种启动方法.ts99.69MB
【ChatGLM3-6B】05_AutoDL快速部署ChatGLM3-6b办法.ts64.49MB
【ChatGLM3-6B】06_Git方法简洁下载ChatGLM3-6b.ts62.11MB
【ChatGLM3-6B】07_以ChatGLM3-6b为例的大模型更新办法.ts50.2MB
【ChatGLM3-6B】08_单机多卡启动大模型办法.ts110.06MB
【ChatGLM3-6B】09_LoRA原理浅析.ts160.74MB
【ChatGLM3-6B】10_LoRA微调实战训练.ts142.19MB
【ChatGLM3-6B】11_DeepSpeed原理浅析.ts141.66MB
【ChatGLM3-6B】12_PEFT高效微调原理浅析.ts259.61MB
【ChatGLM3-6B】13_P-Tuning V2微调实战.ts95.07MB
【ChatGLM3-6B】14_LangChian体系详解.ts188.17MB
【ChatGLM3-6B】15_LangChain0.3安装部署与调用方法.ts157.51MB
【Cursor】调用QWQ实现辅助编程--调用本地模型全流程.ts70.06MB
【Cursor】在Windows环境下调用QWQ线上API实现辅助编程方法.ts31.56MB
【GLM4-9B】01_模型基本介绍.ts53.53MB
【GLM4-9B】02_安装部署流程展示.ts87.73MB
【GLM4-9B】03_多种启动方式流程展示.ts115.54MB
【GLM4-9B】04_vLLM介绍和部署应用.ts167.28MB
【GLM4-9B】05_WSL部署流程.ts55.51MB
【GLM4-Voice】01_模型基本介绍.ts105.8MB
【GLM4-Voice】02_多模态与AGI技术展望.ts75.44MB
【GLM4-Voice】03_本地化部署流程.ts108.19MB
【GLM4-Voice】04_线上部署流程.ts100.82MB
【GLM4-Voice】05_开源大模型比拼-排行榜介绍.ts121.6MB
【Llama.cpp】以Qwen2.5为例实现量化模型启动与API调用.ts99.79MB
【Llama.cpp】以Qwen2VL为例实现GGUF模型量化与调用办法.ts44.25MB
【Llama3.1】01_Llama家族系列模型生态介绍.ts125.39MB
【Llama3.1】02_线上体验办法.ts42.88MB
【Llama3.1】03_技术论文解读.ts167.28MB
【Llama3.1】04_官网以及Ollama部署流程.ts160.78MB
【Llama3.1】05_ModelScope线上部署.ts92.32MB
【Llama3.1】06_ModelScope本地部署.ts63.14MB
【Llama3.1】07_LlamaFactory中文能力微调实例.ts172.41MB
【Llama3.2】01_基本介绍与线上测试办法.ts64.71MB
【Llama3.2】02_官网下载流程.ts62.3MB
【Llama3.2】03_Ollama在Linux和Windows部署方法.ts48.99MB
【Qwen2.5Coder&Math】01_Coder介绍.ts96.63MB
【Qwen2.5Coder&Math】02_Math介绍.ts35.79MB
【Qwen2.5Coder&Math】03_Coder技术文章分析.ts82.58MB
【Qwen2.5Coder&Math】04_Math技术文章分析.ts22.71MB
【Qwen2.5Coder&Math】05_Math线上体验.ts27.62MB
【Qwen2.5Coder&Math】06_Coder本地部署推理流程.ts91.02MB
【Qwen2.5Coder&Math】07_vLLM推理Coder流程.ts41.4MB
【Qwen2.5Coder&Math】08_Ollama推理Coder流程.ts32.06MB
【Qwen2.5Coder&Math】09_线上部署推理Coder流程.ts92.41MB
【Qwen2.5Coder&Math】10_Math部署流程.ts13.88MB
【Qwen2.5】01_基本介绍与线上体验办法.ts98.71MB
【Qwen2.5】02_ModelScope本地化部署流程.ts82.59MB
【Qwen2.5】03_ModelScope线上部署办法.ts41.25MB
【Qwen2.5】04_Ollama框架部署流程.ts43.74MB
【Qwen2.5】05_在Windows系统中使用Ollama框架部署流程.ts26.25MB
【Qwen2.5】06_vLLM部署与调用流程.ts124.28MB
3-大模型微调实战13.95GB
Ch 1.1 通用模型发展与微调前景.ts141.19MB
Ch 1.2 微调与其他技术的区别和关联.ts102.06MB
Ch 1.3 微调步骤及技术栈.ts89.86MB
Ch 1.4 高效微调及范围.ts205.59MB
Ch 1.5 强化学习RHLF介绍.ts80.9MB
Ch 1.6 主流微调框架.ts81.72MB
Ch 2.1 Lora原理详解.ts173.76MB
Ch 2.2 LLama_factory 介绍.ts103.36MB
Ch 2.3 LLama_factory 安装部署及验证.ts93.84MB
Ch 2.4 实战Qwen2.5微调.ts141.37MB
Ch 2.5 配置TensorBoard.ts85.33MB
Ch 3.1 如何获取数据源及使用解析.ts170.86MB
Ch 3.2 llamafactory中如何使用和注册数据集.ts215.15MB
Ch 3.3 模型微调及参数详解.ts153.76MB
Ch 3.4 数据验证&deepspeed微调.ts122.15MB
Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts79MB
Ch 4.2 Qlora核心概念.ts105.96MB
Ch 4.3如何在windows配置环境.ts129.25MB
Ch 4.4 Qlor微调实战与验证.ts153.16MB
Ch 5.1PPO&llama3.2_什么是PPO算法.ts78.47MB
Ch 5.2 如何理解PPO.ts113.78MB
Ch 5.3 各个模型PPO算法的协作关系.ts98.88MB
Ch 5.4 PPO模型与数据的选择.ts122.65MB
Ch 5.5 PPO微调实操.ts111.7MB
Ch 5.6 PPO源码解读.ts113.74MB
Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts93.2MB
Ch 6.2 RLHF流程拆解与核心.ts169.38MB
Ch 6.3 奖励模型原理.ts59.14MB
Ch 6.4 奖励模型训练流程.ts137.38MB
Ch 6.5 RLHF全流程微调.ts45.57MB
Ch 6.6 RLHF挑战与改进方向.ts83.15MB
DPO微调Qwen2.5.ts988.18MB
LLama_factory&Lora微调Qwen2.5做NL2sql.ts2.45GB
LLama_Factory+LORA大模型微调.ts2.42GB
PPO微调Llama-3.2.ts2.62GB
window系统微调QLORA.ts1.92GB
4-大模型Agent开发实战20.25GB
Ch 1.1 大模型应用发展与Agent前沿技术趋势.ts162.81MB
Ch 1.2 大模型应用的本地知识库问答核心技术-RAG.ts136.12MB
Ch 1.3 AI Agent爆发的根本原因.ts133.13MB
Ch 1.4 AI Agent 经典核心架构与 AgentExcuter.ts200.35MB
Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts73.06MB
Ch 2.2 AI Agent三种应用类型及Python实现可交互的聊天机器人.ts192.01MB
Ch 2.3 Funcation Calling 完整生命周期细节复现.ts222.8MB
Ch 2.4 实现具备Funcation Calling的智能电商客服.ts88.18MB
Ch 2.5 Function Calling并行调用和多函数调用的应用方法.ts129.57MB
Ch 2.6 加餐:OpenAI最新推出的结构化输出功能介绍.ts43.58MB
Ch 3.1 Funcation Calling 与 AI Agent的本质区别.ts63.25MB
Ch 3.2 提示工程到代理工程的平滑过度.ts113.13MB
Ch 3.3 ReAct Agent框架的基础理论.ts90.45MB
Ch 3.4 案例:从零复现ReAct Agent的完整流程.ts297.49MB
Ch 3.5 项目:基于ReAct Agent构建电商智能客服_batch.ts218.54MB
Ch 4.1 Assistant API 框架的整体介绍.ts114.29MB
Ch 4.2 Assistant对象的创建方法.ts198.82MB
Ch 4.3 Thread、Messges及Run应用方法.ts72.51MB
Ch 4.4 Run运行时的状态转移机制.ts119.49MB
Ch 4.5 实现Run状态的轮询方法,并实现Assistant API完整链路.ts177.37MB
Ch 5.1 Assistant API 进阶应用方法介绍.ts56.58MB
Ch 5.2 File Search内置工具说明及文件管理.ts172.52MB
Ch 5.3 基于 Assistant API 创建在线私有知识库.ts142.11MB
Ch 5.4 在Assistant和Thread定义File Search工具的四种策略.ts178.35MB
Ch 5.5 如何处理Assistant API输出响应中的注释.ts62.63MB
Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts86.73MB
Ch 5.7 基于Funcation Calling实现本地代码解释器.ts207.39MB
Ch 6.1 为什么企业级应用必须接入流式输出.ts140.59MB
Ch 6.2 Assistant API中流式输出的开启方法.ts104.19MB
Ch 6.3 Assistant API 流式传输中的事件流原理细节.ts121.61MB
Ch 6.4 如何在 Assistant API 流式传输中接入外部函数.ts175.8MB
Ch 6.5 应用案例(1):异步构建Assistant对象的工程化代码.ts89.25MB
Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts156.01MB
Ch 7.1 LangChain的AI Agent开发框架架构设计.ts87.88MB
Ch 7.2 LangGraph 的底层构建原理.ts201.64MB
Ch 7.3 Langgraph底层源码解析.ts138.23MB
Ch 7.4 LangGraph中如何接入大模型做问答流程.ts163.89MB
Ch 8.1 LangGraph中State的定义模式.ts123.22MB
Ch 8.2 使用字典类型定义状态的方法与优劣势.ts196.72MB
Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts141.56MB
Ch 8.4 MessageGraph源码功能解析.ts223.67MB
Ch 8.5 LangSmith基本原理与使用入门.ts112.94MB
Ch 9.1 LangGraph代理架构及Router Agent介绍.ts185.14MB
Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts144.14MB
Ch 9.3 结合结构化输出构建Router Agent(数据库).ts194.88MB
Ch 9.4 Tool Calling Agent 中ToolNode的使用.ts163.66MB
Ch 9.5 Tool Calling Agent的完整实现案例:实时搜索与数据库集成.ts207.6MB
Ch 10.1 LangGraph中ReAct的构建原理.ts157.6MB
Ch 10.2 案例实操:构建复杂工具应用的ReAct自治代理.ts279.09MB
Ch 10.3 LangGraph中如何使用流式输出.ts211.04MB
Ch 10.4 LangGraph中的事件流.ts101.01MB
Ch 11.1 Agent长短期记忆认知.ts123.01MB
Ch 11.2 LangGraph的短期记忆及Checkpointer(检查点).ts183.4MB
Ch 11.3 检查点的特定实现类型-MemorySaver.ts153.12MB
Ch 11.4 检查点的特定实现类型-SqliteSaver.ts172.7MB
Ch 11.5 长期记忆和Store(仓库).ts102.5MB
Ch 12.1 LangGraph知识点概述总结.ts106.26MB
Ch 12.2 LangGraph中的HIL实现思路.ts156.98MB
Ch 12.3 标准图结构中如何添加断点.ts348.78MB
Ch 12.4 复杂代理架构中如何添加动态断点.ts163.2MB
Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts346.26MB
Ch 13.1 Single-Agent 存在的局限.ts181.72MB
Ch 13.2 Multi-Agent 架构分类及子图的通信模式 - 副本.ts239.31MB
Ch 13.3 父、子图状态中无共同键的通信方式.ts92.37MB
Ch 13.4 案例:基于网络架构实现智能BI数据分析多代理系统(上).ts163.06MB
Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts168.18MB
Ch 14.1 Supervisor 架构介绍与基本构建原理.ts317.25MB
Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts170.45MB
Ch 14.3 GraphRAG 基本介绍与核心架构.ts179.06MB
Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts329.06MB
大模型应用发展及Agent前沿技术趋势.MP41.53GB
LangGraph 多代理与 GraphRAG 综合应用实战.ts3.09GB
项目开发实战一:从零搭建多功能智能体 MateGen Pro(第二部分).ts3.4GB
【MateGenPro】Ch 1. MateGen Pro 项目整体架构介绍.ts66.7MB
【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts155.27MB
【MateGenPro】Ch 3. MateGen Pro 后端API核心模块设计.ts73.33MB
【MateGenPro】Ch 4. SQLAlchemy原理与项目接入.ts198.67MB
【MateGenPro】Ch 5. MateGen 数据库初始化逻辑.ts55.72MB
【MateGenPro】Ch 6 API_Key接口初始化与校验.ts138.85MB
【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts356.45MB
【MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts205.36MB
5-RAG项目实战企业篇5.03GB
week_1_1_part_1_课程说明及大模型问答功能复现.mp4135.84MB
week_1_1_part_2_本地私有化部署glm4-9b-chat模型.mp4140.63MB
week_1_1_part_3_调用本地启动的glm4模型的方法.mp4109.01MB
week_1_2_part_1_GLM在线API调用方法.mp4222.7MB
week_1_2_part_2_Langchain应用框架整体介绍.mp4228.96MB
week_1_2_part_3_FastAPI项目介绍.mp450.08MB
week_2_1_part_1_本周开发任务说明.mp431.41MB
week_2_1_part_2_Naive RAG介绍及借助LangChain实现RAG流.mp4292.84MB
week_2_1_part_3_RAG集成历史对话信息及SqlalChemy持久化存储的使.mp4229.22MB
week_2_2_part_1_通用问答流程整体流程介绍及参数说明.mp4221.92MB
week_2_2_part_2_FastChat项目说明及Python多进程.mp4170.39MB
week_2_2_part_3_项目启动文件详细说明及流程复现.mp4175.17MB
week_3_1_part_1_企业级RAG的构建架构和思路.mp492.47MB
week_3_1_part_2_结合Faiss向量数据的RAG Indexing构建流程.mp4175.93MB
week_3_1_part_3_百万量级的wiki公有语料构建方法实践.mp4122.3MB
week_3_1_part_4_yolox + orc 识别私有PDF语料的方案实践.mp4158.65MB
week_3_2_part_1_本地RAG知识库问答功能链路详解与复现.mp4127.26MB
week_3_2_part_2_RAG评估框架-TruLens实践.mp4164.82MB
week_3_2_part_3_RAG评估框架-Ragas的使用及借助GLM4生成评估数据.mp4244.35MB
week_4_1_part_1_自定义RAG评估Pipeline-构建统一的数据集格式.mp4134MB
week_4_1_part_2_自定义RAG评估Pipeline-构建统一的提示模板.mp430.18MB
week_4_1_part_3_自定义RAG评估Pipeline-整体逻辑实现及细节说明.mp4149.67MB
week_4_1_part_4_自定义RAG评估Pipeline-评估指标及评估流程实现.mp494.2MB
week_4_1_part_5_自定义RAG评估Pipeline-ReRanker原理及实.mp485.35MB
week_4_2_part_1_Serper API联网检索数据预处理过程拆解.mp4167.01MB
week_4_2_part_2_基于Serper实现系统架构下的联网实时检索功能.mp4279.05MB
week_5_part_1_大模型融入推荐系统一种思路_1.MP454.41MB
week_5_part_2_大模型用于特征工程及实现推荐系统的整体逻辑代码.MP4411.41MB
week_5_part_3_基于Langchain实现基于ReAct的代码实践及TOT提示.MP4415.36MB
week_5_part_4_项目整体框架下实现基于Agent的问答流程代码实践.ts93.09MB
week_5_part_5_Docker介绍及借助Docker打包部署完整项目的流程.mp4142.86MB
6-直播回放篇29.07GB
加餐-前沿技术追更496.38MB
【加餐】01 Computer Use API 详解(1)准备工作.ts46.77MB
【加餐】02 Computer Use API 详解(2)对话函数上.ts73.86MB
【加餐】03 Computer Use API 详解(3)对话函数下.ts53.75MB
【加餐】04 Computer Use API 详解(4)多轮对话及tool use.ts84.06MB
【加餐】05 Computer Use API 详解(5)全组件总结.ts43.06MB
【加餐】06 Computer use实战初窥.ts67.13MB
【加餐】07 Computer Use docker安装部署全流程.ts63.23MB
【加餐】08 Computer Use项目启动&实战案例.ts39.18MB
【加餐】09 Computer Use源码详解.ts25.35MB
直播回放28.59GB
25-13.9GB
《企业级 Agent 项目实战:智能客服》- AssistGen.ts3.9GB
ChatGPT的注册与ChatGPT API充值.ts1.02GB
GLM-4-Video-9b 介绍与部署流程.ts1.07GB
GPT4o的API基本调用、精细生成控制与多模态实操.ts1.17GB
GPT4o的函数调用实战与结构化生成回答与提示缓存原理.ts1.17GB
LangGraph 实现自治循环代理(ReAct)及事件流的应用.ts3.13GB
LangGraph 中 Human-in-the-loop 应用实战.ts3.66GB
LangGraph 长短期记忆实现机制及检查点的使用.ts3.7GB
LangGraph中State状态模式与LangSmith基础使用入门.ts3GB
Llama 3.1&2部署微调.ts1.21GB
Llama 3.1介绍与部署流程.ts1.12GB
o1模型详解与模型蒸馏实战.ts1.15GB
OPENAI的Streaming流式响应与API微调双实战,Claude computer use接入自己的电脑.ts1.37GB
Qwen2.5-Coder&Math介绍与部署.ts1.01GB
Qwen2.5介绍与部署流程.ts923.78MB
低代码开发实战Dify&Coze2.69GB
12.69GB
【dify】Ch 1.1 低代码平台介绍.MP4156.23MB
【dify】Ch 1.2 Dify介绍与安装.MP4209.68MB
【dify】Ch 1.3 xinference介绍与安装.MP4189.99MB
【dify】Ch 1.4 dify&xinference打通融合.MP494MB
【dify】Ch 2.1服务器源码部署dify&RAG_基础环境准备.MP4310.94MB
【dify】Ch 2.2 源码安装dify.MP4320.02MB
【dify】Ch 2.3 xinference细化安装.MP4134.09MB
【dify】Ch 2.4 构建知识库.MP4303.52MB
【dify】Ch 2.5 构建简单RAG.MP4106.98MB
【dify】Ch3.1 window环境下ollama+deepseek+dify全链路.MP4335.85MB
【dify】Ch3.2 xinference+deepseek+dify全链路.MP4157.25MB
【dify】Ch3.3 window环境全链路实战+API检验.MP4432.43MB
DeepSeek-V3&R11GB
11GB
【DS-v3 API调用】1.DeepSeek v3模型性能介绍.MP4148.1MB
【DS-v3 API调用】2.DeepSeek v3开源情况介绍.MP4125.24MB
【DS-v3 API调用】3.DeepSeek API-Key获取与模型调用方法详解.MP4138.64MB
【DS-v3 API调用】4.DeepSeek v3模型参数详解.MP494.7MB
【DS-v3 API调用】5.搭建DeepSeek v3多轮对话机器人.MP4152.36MB
【DS-v3 API调用】6.DS-V3 Function calling功能介绍.MP463.51MB
【DS-v3 API调用】7.DS-V3 完整Function calling执行流程.MP4165.11MB
【DS-v3 API调用】8.DS-v3+Open WebUI搭建专属聊天机器人.MP4139.2MB
PART4:DeepSeekV3 (5小节)659.24MB
【DeepSeekv3】1 整体架构与分布式基础概念.mp4145.32MB
【DeepSeekv3】2 分布式嵌入层与投影层.mp4154.55MB
【DeepSeekv3】3 MLA潜在注意力 (1) 从自回归掩码看KV缓存机制.mp499.34MB
【DeepSeekv3】4 MLA潜在注意力 (2) 针对KV缓存的改进.mp494.22MB
【DeepSeekv3】5 DeepSeekMOE的MOE架构与创新.mp4165.81MB
企业级实战2.71GB
11.22GB
【MateGenPro】Ch 1. MateGen Pro 项目整体架构介绍.ts66.7MB
【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts155.27MB
【MateGenPro】Ch 3. MateGen Pro 后端API核心模块设计.ts73.33MB
【MateGenPro】Ch 4. SQLAlchemy原理与项目接入.ts198.67MB
【MateGenPro】Ch 5. MateGen 数据库初始化逻辑.ts55.72MB
【MateGenPro】Ch 6 API_Key接口初始化与校验.ts138.85MB
【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts356.45MB
【MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts205.36MB
21.49GB
【AssistGen】 Ch 1.1 项目介绍与课程安排.MP4103.49MB
【AssistGen】 Ch 1.2 Ollama 本地部署 DeepSeek R1 模型.MP4449.14MB
【AssistGen】 Ch 1.3 Ollama REST API 核心接口:gener.MP4495.75MB
【AssistGen】 Ch 1.4 Ollama 兼容 OpenAI API 接口规范.MP4157.92MB
【AssistGen】 Ch 1.5 Deepseek v3 & R1 在线 API 调用.MP4111.63MB
【AssistGen】 Ch 1.6 AssistGen 项目结构与本地启动流程介绍.MP4206.32MB