这是一门专注于医疗AI助手开发的实战课程,基于LangChain4J框架整合多种大语言模型(如DeepSeek、Ollama、阿里百炼等),系统讲解了从基础到企业级应用的完整开发流程。 课程首先介绍LangChain4J核心概念,包括AIService、聊天记忆(Chat Memory)和提示词工程(Prompt),然后详细讲解如何接入不同大模型(通义千问、DeepSeek等)以及本地部署(Ollama)和云平台(阿里百炼)的使用方法。 在高级功能部分,重点讲解了Function Calling(工具调用)、RAG(检索增强生成)技术实现(包括文档加载、分割、向量化)以及Pinecone向量存…...
📢 以下文件由夸克网盘用户于2025-09-01分享(文件数量过多时仅展示部分文件)
尚硅谷企业级大模型部署与开发实战1.1GB
01-课件10.83MB
尚硅谷-第1章:企业级大模型的部署.pdf8.52MB
尚硅谷-第2章:大模型实战项目:Agent&RAG.pdf2.31MB
02-软件157.01MB
02-软件.exe157.01MB
03-资料2.41MB
AutoDL使用文档.pdf2.3MB
刑法.txt114.64KB
04-视频952.89MB
01-课程概述与亮点.mp422.19MB
02-企业级大模型的整体部署方案.mp46.92MB
03-部署方案中的4个核心问题.mp419.46MB
04-基于RAG架构的开发流程.mp437.91MB
05-基于Agent架构的5个核心要素.mp420.37MB
06-主线1:腾讯云服务器的配置.mp480.97MB
07-主线1:腾讯云上部署docker.mp467.97MB
08-主线1:Docker中部署Dify.mp4101.03MB
09-主线1:Dify中部署线上大模型.mp457.6MB
10-主线2:AutoDL上配置Ollama的服务器.mp465.23MB
11-主线2:AutoDL上部署Ollama并启动.mp442.85MB
12-主线2:Ollama下部署Qwen3大模型.mp435.21MB
13-主线2:Dify打通Ollama服务器隧道并访问Qwen3.mp431.49MB
14-主线3:AutoDL服务器上部署Xinference.mp454.83MB
15-主线3:Xinference平台下载嵌入_重排序模型.mp460.17MB
16-主线3:Dify打通Xinference服务器隧道并部署嵌入_重排序模型.mp433.42MB
17-AutoDL服务器关机后如何重新建立连接.mp438.31MB
18-大模型应用1:聊天助手.mp432.66MB
19-大模型应用2:旅游顾问智能体.mp452.77MB
20-大模型应用3:法律助手(含RAG).mp491.52MB
共25个文件,合计:1.1GB


5积分


