《AI大模型微调实战:8周掌握前沿技术,深度应用开发指南》

  • 发布时间:
    2026-02-08 05:19:59
  • 文件大小:
    共计 79 个文件,合计:16.6GB
  • 资源来源:
    夸克网盘夸克网盘
  • 资源售价:
    积分10积分
・本站会员获取资源无需消耗积分。
・获取资源后可以在「个人中心」24 小时内无理由退积分。
为防止资源链接失效,请及时转存文件。
  • 夸克网盘 【极客时间《彭靖田AI大模型微调训练营》- 带课件】

  • 夸克网盘 极客时间《彭靖田AI大模型微调训练营》- 带课件 【68.2GB】

  • 夸克网盘 AI大模型微调训练营 18文件夹68G

  • 夸克网盘 极客时间《彭靖田AI大模型微调训练营》

  • 夸克网盘 2025最新大模型全套资料【6.9GB】

  • 夸克网盘 AI 大模型应用开发模型训练落地

  • 夸克网盘 极客时间-AI 大模型微调训练营 – 带源码课件

  • 夸克网盘 极客时间-AI 大模型微调训练营 – 带源码课件 26GB

  • 夸克网盘 九天菜菜-大模型与Agent开发实战

  • 夸克网盘 极客时间-AI 大模型微调训练营 – 带源码课件

  • 夸克网盘 AI大模型全栈工程师培养计划(第三期)

    AI大模型全栈工程师培养计划(第三期)
    AI大模型全栈工程师培养计划(第三期)
  • 夸克网盘 AI大模型全栈工程师培养计划(第三期)

    AI大模型全栈工程师培养计划(第三期)
    AI大模型全栈工程师培养计划(第三期)
  • 夸克网盘 【AI大模型微调实战训练营】

  • 夸克网盘 AI大模型微调实战训练营 【2.3GB】

  • 夸克网盘 【AI 大模型应用开发模型训练落地】

本课程专为AI开发者和技术爱好者设计,通过8周的密集训练,深入讲解大语言模型的微调技术、工具应用及实战案例。课程内容包括大模型技术总览、LoRA微调技术、Hugging Face Transformers工具库使用、模型量化技术、ChatGLM3-6B的QLoRA微调、LangChain框架应用、私有化部署聊天机器人、RLHF训练技术及混合专家模型(MoEs)等。通过视频讲解、实战操作和丰富的资料支持,帮助学员快速掌握AI大模型的核心技术,开启AI深度应用之旅。

📢 以下文件由夸克网盘用户于2024-11-28分享(文件数量过多时仅展示部分文件)
V-4843:【极客】AI 大模型微调训练营16.6GB
00 开营直播234.05MB
01 大语言模型微调的前沿技术与应用 .mp4224.14MB
开营直播:大语言模型微调的前沿技术与应用.pdf9.91MB
01 第一周958.27MB
01 AI大模型四阶技术总览 .mp4365.42MB
1-AI大模型四阶技术总览.pdf18.91MB
02 大语言模型技术发展与演进 .mp4546.1MB
2-大语言模型技术发展与演进.pdf17.79MB
20231129评论区记录.xlsx16.46KB
20231203评论区记录.xlsx17.14KB
第一周作业参考答案.pdf55.78KB
论文.zip9.97MB
02 第二周937.32MB
01 大模型微调技术揭秘 .mp4397.78MB
02 大模型微调技术揭秘-LoRA .mp4503.26MB
3-大模型微调技术揭秘-PEFT.pdf11.76MB
4-大模型微调技术揭秘-LoRA.pdf7.54MB
20231206评论区记录.xlsx14.27KB
20231210评论区记录.xlsx16.01KB
Fine-tuning论文.zip16.51MB
UniPELT A Unified Framework for Parameter-Efficient Language Model Tuning.pdf444.46KB
03 第三周3.79GB
01 大模型开发工具库Hugging Face Transformers .mp4485.22MB
02 20231220评论区记录.xlsx15.78KB
02 实战Transformers模型微调.mp43.29GB
大模型开发工具库 HF Transformers.pdf15.75MB
实战Transformers模型微调.pdf10.76MB
04 第四周5.57GB
01 20231224评论区记录.xlsx12.46KB
01 Quantization论文.zip18.35MB
01 实战Transformers模型量化.mp42.79GB
03 20231227评论区记录.xlsx12.81KB
03 大模型高效微调工具HF PEFT.mp42.73GB
7-实战Transformers模型量化.pdf12.76MB
8-大模型高效微调工具HF PEFT.pdf9.18MB
实战Transformers模型量化.pdf12.76MB
05.第05周2.04GB
01 20240103评论区记录.xlsx10.46KB
01 GLM论文.zip26.5MB
01 实战QLoRA微调ChatGLM3-6B.mp41.99GB
9-实战QLoRA 微调 ChatGLM3-6B.pdf20.46MB
06 第五周744.97MB
01 GLM论文27.26MB
GLM论文27.26MB
GLM-130B v1.pdf9.95MB
GLM-130B v2.pdf10.24MB
GLM.pdf7.07MB
01 9-实战QLoRA 微调 ChatGLM3-6B.pdf20.46MB
01 20240103评论区记录.xlsx10.46KB
01 实战QLoRA微调ChatGLM3-6B.mp4389.79MB
02 10-快速入门 LangChain 大模型应用开发框架.pdf16.05MB
02 20240107评论区记录.xlsx12.34KB
02 快速入门 LangChain 大模型应用开发框架(上).mp495.29MB
03 快速入门 LangChain 大模型应用开发框架(下).mp4196.1MB
07 第六周896.17MB
01 11-实战基于LangChain和ChatGLM私有化部署聊天机器人.pdf16.99MB
01 20240110评论区记录.xlsx13.45KB
01 实战基于LangChain和ChatGLM私有化部署聊天机器人.mp4345.07MB
02 12-实战私有数据微调ChatGLM3.pdf16.41MB
02 20240118评论区记录.xlsx14.25KB
02 实战私有数据微调ChatGLM3.mp4517.66MB
08 第七周713.68MB
01 RLHF论文24.86MB
RLHF24.86MB
Learning to summarize from human feedback.pdf7.87MB
Proximal Policy Optimization Algorithms.pdf9.14MB
Training language models to follow instructions with human feedback.pdf7.85MB
02 MoEs论文53.19MB
MoEs53.19MB
Adaptive-mixtures-of-local-experts.pdf6.66MB
GLaM Efficient Scaling of Language Models with Mixture-of-Experts.pdf7.17MB
Learning Factored Representations in a Deep Mixture of Experts.pdf8.21MB
Mixtral AI.pdf8.73MB
Mixture-of-Experts with Expert Choice Routing.pdf7MB
ST-MOE DESIGNING STABLE AND TRANSFERABLE SPARSE EXPERT MODELS.pdf7.94MB
Switch Transformers Scaling to Trillion Parameter Models with Simple and Efficient Sparsity.pdf7.48MB
01 13-ChatGPT大模型训练技术RLHF.pdf12.84MB
01 20240121评论区记录.xlsx13.25KB
01 ChatGPT大模型训练技术RLHF.mp4290.1MB
02 14-混合专家模型(MoEs)技术揭秘.pdf16.79MB
02 20240124评论区记录.xlsx11.35KB
02 混合专家模型(MoEs)技术揭秘.mp4315.87MB
09 第八周842.81MB
01 ZeRO论文22.58MB
ZeRO22.58MB
ZeRO Memory Optimizations Toward Training Trillion Parameter Models.pdf7.11MB
ZeRO-Infinity Breaking the GPU Memory Wall for Extreme Scale Deep Learning.pdf7.62MB
ZeRO-Offload Democratizing Billion-Scale Model Training.pdf7.85MB
03 LLaMAl论文35.71MB
LLaMA35.71MB
A Survey of Large Language Models.pdf9.67MB
Llama 2 Open Foundation and Fine-Tuned Chat Models.pdf19.05MB
LLaMA Open and Efficient Foundation Language Models.pdf6.99MB
01 15-大模型分布式训练框架Microsoft DeepSpeed.pdf14.04MB
01 20240128评论区记录.xlsx12.74KB
01 大模型分布式训练框架Microsoft DeepSpeed.mp4482.66MB
03 16-Meta AI 大模型家族 LLaMA.pdf14.99MB
03 20240131评论区记录.xlsx11.75KB
03 Meta AI 大模型家族 LLaMA.mp4272.81MB
共79个文件,合计:16.6GB
夸克网盘
网站声明:
1. 本站链接通过程序自动收集互联网公开分享链接,本站不储存、复制、传播任何网盘文件,也不提供下载服务。
2. 本站遵守相关法律法规,坚决杜绝一切违规不良信息,如您发现任何涉嫌违规的网盘信息,请立即向网盘官方网站举报,并及时反馈给我们进行屏蔽删除。同时您必须了解并同意本站《用户协议》,严禁搜索非法关键词。
3. 本站高度重视知识产权保护和个人隐私保护,如有网盘链接侵犯您的合法权益,请立即向网盘官方网站举报,并参见本站《版权说明》提供书面材料联系我们屏蔽删改。
4. 本站作为非经营性网站,所有服务仅供学习交流使用。
资源评论 AUP主 M管理员
评分
{{ rating }}分