极客时间《彭靖田AI大模型微调训练营》- 带课件。 随着人工智能技术的不断发展,大型预训练模型已经成为各种AI应用的基础。 然而,为了使这些模型更好地适应特定任务或场景,我们需要对它们进行微调。 为了帮助广大AI爱好者掌握这一技术,业界知名的AI专家彭靖田老师领衔的训练营应运而生。 训练营的课程设计精妙绝伦,从基础的模型架构讲解到复杂的微调技巧,再到实际案例的分析,每一步都紧密相扣。 通过这些课程,学员们可以构建起完整的知识体系,更好地理解和应用AI大模型微调技术。 ├── 0-开营直播1019 ├── 1-开营直播:大语言模型微调的前沿技术与应用 ├── 2-大模型四阶技术总览 ├── 3-…...

本课程专为AI开发者和技术爱好者设计,通过8周的密集训练,深入讲解大语言模型的微调技术、工具应用及实战案例。课程内容包括大模型技术总览、LoRA微调技术、Hugging Face Transformers工具库使用、模型量化技术、ChatGLM3-6B的QLoRA微调、LangChain框架应用、私有化部署聊天机器人、RLHF训练技术及混合专家模型(MoEs)等。通过视频讲解、实战操作和丰富的资料支持,帮助学员快速掌握AI大模型的核心技术,开启AI深度应用之旅。
📢 以下文件由夸克网盘用户于2024-11-28分享(文件数量过多时仅展示部分文件)
V-4843:【极客】AI 大模型微调训练营16.6GB
00 开营直播234.05MB
01 大语言模型微调的前沿技术与应用 .mp4224.14MB
开营直播:大语言模型微调的前沿技术与应用.pdf9.91MB
01 第一周958.27MB
01 AI大模型四阶技术总览 .mp4365.42MB
1-AI大模型四阶技术总览.pdf18.91MB
02 大语言模型技术发展与演进 .mp4546.1MB
2-大语言模型技术发展与演进.pdf17.79MB
20231129评论区记录.xlsx16.46KB
20231203评论区记录.xlsx17.14KB
第一周作业参考答案.pdf55.78KB
论文.zip9.97MB
02 第二周937.32MB
01 大模型微调技术揭秘 .mp4397.78MB
02 大模型微调技术揭秘-LoRA .mp4503.26MB
3-大模型微调技术揭秘-PEFT.pdf11.76MB
4-大模型微调技术揭秘-LoRA.pdf7.54MB
20231206评论区记录.xlsx14.27KB
20231210评论区记录.xlsx16.01KB
Fine-tuning论文.zip16.51MB
UniPELT A Unified Framework for Parameter-Efficient Language Model Tuning.pdf444.46KB
03 第三周3.79GB
01 大模型开发工具库Hugging Face Transformers .mp4485.22MB
02 20231220评论区记录.xlsx15.78KB
02 实战Transformers模型微调.mp43.29GB
大模型开发工具库 HF Transformers.pdf15.75MB
实战Transformers模型微调.pdf10.76MB
04 第四周5.57GB
01 20231224评论区记录.xlsx12.46KB
01 Quantization论文.zip18.35MB
01 实战Transformers模型量化.mp42.79GB
03 20231227评论区记录.xlsx12.81KB
03 大模型高效微调工具HF PEFT.mp42.73GB
7-实战Transformers模型量化.pdf12.76MB
8-大模型高效微调工具HF PEFT.pdf9.18MB
实战Transformers模型量化.pdf12.76MB
05.第05周2.04GB
01 20240103评论区记录.xlsx10.46KB
01 GLM论文.zip26.5MB
01 实战QLoRA微调ChatGLM3-6B.mp41.99GB
9-实战QLoRA 微调 ChatGLM3-6B.pdf20.46MB
06 第五周744.97MB
01 GLM论文27.26MB
GLM论文27.26MB
GLM-130B v1.pdf9.95MB
GLM-130B v2.pdf10.24MB
GLM.pdf7.07MB
01 9-实战QLoRA 微调 ChatGLM3-6B.pdf20.46MB
01 20240103评论区记录.xlsx10.46KB
01 实战QLoRA微调ChatGLM3-6B.mp4389.79MB
02 10-快速入门 LangChain 大模型应用开发框架.pdf16.05MB
02 20240107评论区记录.xlsx12.34KB
02 快速入门 LangChain 大模型应用开发框架(上).mp495.29MB
03 快速入门 LangChain 大模型应用开发框架(下).mp4196.1MB
07 第六周896.17MB
01 11-实战基于LangChain和ChatGLM私有化部署聊天机器人.pdf16.99MB
01 20240110评论区记录.xlsx13.45KB
01 实战基于LangChain和ChatGLM私有化部署聊天机器人.mp4345.07MB
02 12-实战私有数据微调ChatGLM3.pdf16.41MB
02 20240118评论区记录.xlsx14.25KB
02 实战私有数据微调ChatGLM3.mp4517.66MB
08 第七周713.68MB
01 RLHF论文24.86MB
RLHF24.86MB
Learning to summarize from human feedback.pdf7.87MB
Proximal Policy Optimization Algorithms.pdf9.14MB
Training language models to follow instructions with human feedback.pdf7.85MB
02 MoEs论文53.19MB
MoEs53.19MB
Adaptive-mixtures-of-local-experts.pdf6.66MB
GLaM Efficient Scaling of Language Models with Mixture-of-Experts.pdf7.17MB
Learning Factored Representations in a Deep Mixture of Experts.pdf8.21MB
Mixtral AI.pdf8.73MB
Mixture-of-Experts with Expert Choice Routing.pdf7MB
ST-MOE DESIGNING STABLE AND TRANSFERABLE SPARSE EXPERT MODELS.pdf7.94MB
Switch Transformers Scaling to Trillion Parameter Models with Simple and Efficient Sparsity.pdf7.48MB
01 13-ChatGPT大模型训练技术RLHF.pdf12.84MB
01 20240121评论区记录.xlsx13.25KB
01 ChatGPT大模型训练技术RLHF.mp4290.1MB
02 14-混合专家模型(MoEs)技术揭秘.pdf16.79MB
02 20240124评论区记录.xlsx11.35KB
02 混合专家模型(MoEs)技术揭秘.mp4315.87MB
09 第八周842.81MB
01 ZeRO论文22.58MB
ZeRO22.58MB
ZeRO Memory Optimizations Toward Training Trillion Parameter Models.pdf7.11MB
ZeRO-Infinity Breaking the GPU Memory Wall for Extreme Scale Deep Learning.pdf7.62MB
ZeRO-Offload Democratizing Billion-Scale Model Training.pdf7.85MB
03 LLaMAl论文35.71MB
LLaMA35.71MB
A Survey of Large Language Models.pdf9.67MB
Llama 2 Open Foundation and Fine-Tuned Chat Models.pdf19.05MB
LLaMA Open and Efficient Foundation Language Models.pdf6.99MB
01 15-大模型分布式训练框架Microsoft DeepSpeed.pdf14.04MB
01 20240128评论区记录.xlsx12.74KB
01 大模型分布式训练框架Microsoft DeepSpeed.mp4482.66MB
03 16-Meta AI 大模型家族 LLaMA.pdf14.99MB
03 20240131评论区记录.xlsx11.75KB
03 Meta AI 大模型家族 LLaMA.mp4272.81MB
共79个文件,合计:16.6GB


10积分


