Llama3大模型原理代码精讲与部署微调评估实战

  • 发布时间:
    2025-09-20 06:20:11
  • 文件大小:
    共计 66 个文件,合计:2.15GB
  • 资源来源:
    百度网盘百度网盘
  • 资源售价:
    积分5积分
・本站会员获取资源无需消耗积分。
・获取资源后可以在「个人中心」24 小时内无理由退积分。
为防止资源链接失效,请及时转存文件。
资源详情
《Llama3大模型原理代码精讲与部署微调评估实战》课程系统讲解Llama3大模型的核心原理、代码实现与实战应用,涵盖Transformer架构(注意力机制、位置编码、FFN)、Llama3特色技术(RMSNorm、SwiGLU、RoPE、GQA、KVCache),以及微调方法(全参微调、LoRA、QLoRA)。课程通过代码逐行解析(模型结构、生成策略、分词器)和实战演示(Ollama/vLLM部署、中文增强/医疗问答模型微调与评估),帮助学员深入理解大模型工作原理并掌握工业级部署与定制化开发技能。
📢 以下文件由百度网盘用户[us****伍贰柒]于2025-09-09分享(只展示部分的文件和文件夹)
Llama3大模型原理代码精讲与部署微调评估实战2.15GB
Llama3大模型原理代码精讲与部署微调评估实战21.07MB
Llama3大模型原理代码精讲与部署微调评估实战.zip21.07MB
9 Transformer 训练及性能.mp435.89MB
8 Transformer Decoder.mp421.44MB
7 Transformer 残差链接、LayerNorm、FFN.mp420.85MB
65 qlora微调的医疗问答大模型推理.mp410.38MB
64 qlora微调 _ev.mp414.9MB
63 llama3医疗问答大模型推理_ev.mp412.94MB
62 lora 微调.mp433.78MB
61 数据集准备_ev.mp49.75MB
60 lora文件合并.mp410.15MB
6 Transformer Encoder的位置编码.mp436.5MB
59 llama3中文增强大模型评估.mp430.58MB
58 llama3中文增强大模型推理_ev.mp410.66MB
57 LoRA微调训练.mp480.5MB
56 llama_factory安装及llama3模型下载.mp419.23MB
55 llama_factory介绍.mp410.1MB
54 vLLM部署llama3.mp455.12MB
53 llama3推理.mp459.85MB
52 ollama安装.mp428.89MB
51 ollama介绍.mp42.91MB
50 阿里云实例创建_ev.mp410.98MB
5 Transformer Encoder的多头注意力.mp453.85MB
49 KVCache代码解析_ev.mp411.4MB
48 RoPE代码解析.mp445.06MB
47 GQA代码解析.mp424.53MB
46 SwiGLU代码解析.mp46.72MB
45 RMSNorm代码解析.mp457.61MB
44 tokenizer.py代码解析.mp482.68MB
43 model.py代码解析.mp447.21MB
42 generation.py代码解析.mp481.34MB
41 completion和chat应用脚本代码解析.mp468.41MB
40 各文件功能_ev.mp45.69MB
4 Transformer的架构概述_ev.mp423.77MB
39 KVCache.mp456.89MB
38 GQA分组查询注意力_ev.mp47.71MB
37 RoPE旋转位置编码.mp470.27MB
36 SwiGLU激活函数.mp420.48MB
35 RMSNorm归一化_ev.mp48.4MB
34 llama3模型架构_ev.mp47.7MB
33 llama大模型生态.mp424.92MB
32 llama3模型类型_ev.mp47.79MB
31 llama模型进化史.mp418.88MB
30 QLoRA微调.mp433.59MB
3 自注意力机制.mp430.32MB
29 LoRA微调.mp449.71MB
28 微调方法(全参、冻结参数、LoRA、QLoRA).mp433.39MB
27 SFT微调.mp426.06MB
26 大模型开发阶段划分.mp437.62MB
25 文本生成时的QKV含义.mp436.33MB
24 llama3文本生成过程_ev.mp45.56MB
23 prefill和解码阶段_ev.mp48.58MB
22 文本生成过程.mp428.84MB
21 Token和分词器.mp419.3MB
20 文本生成策略.mp460.22MB
2 注意力机制_ev.mp448.36MB
19 文本生成模式.mp415.82MB
18 LLM推理方式.mp429.57MB
17 结合中文注释代码深入解读2.mp466.99MB
16 结合中文注释代码深入解读1.mp454.96MB
15 Transformer的训练示例(德语-英语机器翻译)代码解.mp458.57MB
14 Transformer的训练示例(人为随机数据)代码解读.mp427.52MB
13 Transformer的超参设置代码解读.mp447.24MB
12 Transformer的Decoder代码解读.mp475.94MB
11 Transformer的Encoder代码解读.mp452.75MB
10 Transformer机器翻译工作流程_ev.mp49.6MB
1 课程介绍.mp473.46MB
网站声明:
1. 本站链接通过程序自动收集互联网公开分享链接,本站不储存、复制、传播任何网盘文件,也不提供下载服务。
2. 本站遵守相关法律法规,坚决杜绝一切违规不良信息,如您发现任何涉嫌违规的网盘信息,请立即向网盘官方网站举报,并及时反馈给我们进行屏蔽删除。同时您必须了解并同意本站《用户协议》,严禁搜索非法关键词。
3. 本站高度重视知识产权保护和个人隐私保护,如有网盘链接侵犯您的合法权益,请立即向网盘官方网站举报,并参见本站《版权说明》提供书面材料联系我们屏蔽删改。
4. 本站作为非经营性网站,所有服务仅供学习交流使用。
资源评论 AUP主 M管理员