AI大模型微调训练营
8周掌握AI大模型微调:从LoRA到LangChain实战指南

1. 为什么选择这门AI大模型微调课程?
大模型技术已成为AI领域的核心竞争点,但多数开发者仅停留在API调用层面。本课程通过8周系统训练,带你深入掌握LoRA、QLoRA等参数高效微调技术,并完成ChatGLM3-6B私有化部署等企业级实战项目。课程覆盖HuggingFace Transformers、DeepSpeed等工具链,适合希望突破技术瓶颈的中高级开发者。2. 课程核心内容拆解
- 技术演进全景:从Transformer架构到混合专家模型(MoEs)发展脉络
- 微调核心技术:PEFT框架解析、LoRA低秩适配原理、RLHF对齐实战
- 工具链深度应用:HuggingFace生态、LangChain框架集成、模型量化压缩
- 企业级项目实战:私有数据微调、分布式训练(DeepSpeed)、聊天机器人开发3. 与众不同的课程特色
不是泛泛而谈的理论课,而是聚焦工业落地的深度训练营:
- 论文精读+代码复现:配套GLM、LLaMA等20+前沿论文资源包
- 评论区动态答疑:每周更新学员共性问题与解决方案文档
- 渐进式作业设计:从Transformers基础微调到LangChain复杂应用开发4. 适合哪些人群学习?
✔ 已掌握Python和深度学习基础,希望进阶大模型开发的工程师
✔ 需要将AI能力整合到业务系统的技术负责人
✔ 研究NLP方向、需快速复现最新论文的高校团队
注:课程涉及PyTorch和Linux操作,建议提前熟悉相关基础。5. 课程模块价值解析
- 第1-2周建立技术全局观,掌握大模型四阶技术演进路径
- 第3-4周通过HuggingFace实战Transformers微调与量化
- 第5-6周完成ChatGLM3-6B的QLoRA微调与私有化部署
- 第7-8周深入RLHF对齐技术和MoEs架构,掌握分布式训练方案
通过8周高强度训练,你不仅能独立完成大模型定制开发,更将建立应对技术迭代的方法论。课程提供的论文包、工具链模板和项目代码,均可直接迁移至实际工作场景。
资源下载通道
夸克网盘分享
文件大小:16.6 GB
资源目录列表:
├─V-4843:【极客】AI大模型微调训练营│ ├─00开营直播
│ │ ├─01大语言模型微调的前沿技术与应用.mp4
│ │ ├─开营直播:大语言模型微调的前沿技术与应用.pdf
│ ├─01第一周
│ │ ├─01AI大模型四阶技术总览.mp4
│ │ ├─02大语言模型技术发展与演进.mp4
│ │ ├─1-AI大模型四阶技术总览.pdf
│ │ ├─20231129评论区记录.xlsx
│ │ ├─20231203评论区记录.xlsx
│ │ ├─2-大语言模型技术发展与演进.pdf
│ │ ├─第一周作业参考答案.pdf
│ │ ├─论文.zip
│ ├─02第二周
│ │ ├─01大模型微调技术揭秘.mp4
│ │ ├─02大模型微调技术揭秘-LoRA.mp4
│ │ ├─20231206评论区记录.xlsx
│ │ ├─20231210评论区记录.xlsx
│ │ ├─3-大模型微调技术揭秘-PEFT.pdf
│ │ ├─4-大模型微调技术揭秘-LoRA.pdf
│ │ ├─Fine-tuning论文.zip
│ │ ├─UniPELTAUnifiedFrameworkforParameter-EfficientLanguageModelTuning.pdf
│ ├─03第三周
│ │ ├─01大模型开发工具库HuggingFaceTransformers.mp4
│ │ ├─0220231220评论区记录.xlsx
│ │ ├─02实战Transformers模型微调.mp4
│ │ ├─大模型开发工具库HFTransformers.pdf
│ │ ├─实战Transformers模型微调.pdf
│ ├─04第四周
│ │ ├─0120231224评论区记录.xlsx
│ │ ├─01Quantization论文.zip
│ │ ├─01实战Transformers模型量化.mp4
│ │ ├─0320231227评论区记录.xlsx
│ │ ├─03大模型高效微调工具HFPEFT.mp4
│ │ ├─7-实战Transformers模型量化.pdf
│ │ ├─8-大模型高效微调工具HFPEFT.pdf
│ │ ├─实战Transformers模型量化.pdf
│ ├─05.第05周
│ │ ├─0120240103评论区记录.xlsx
│ │ ├─01GLM论文.zip
│ │ ├─01实战QLoRA微调ChatGLM3-6B.mp4
│ │ ├─9-实战QLoRA微调ChatGLM3-6B.pdf
│ ├─06第五周
│ │ ├─01GLM论文
│ │ │ ├─GLM论文
│ │ ├─0120240103评论区记录.xlsx
│ │ ├─019-实战QLoRA微调ChatGLM3-6B.pdf
│ │ ├─01实战QLoRA微调ChatGLM3-6B.mp4
│ │ ├─0210-快速入门LangChain大模型应用开发框架.pdf
│ │ ├─0220240107评论区记录.xlsx
│ │ ├─02快速入门LangChain大模型应用开发框架(上).mp4
│ │ ├─03快速入门LangChain大模型应用开发框架(下).mp4
│ ├─07第六周
│ │ ├─0111-实战基于LangChain和ChatGLM私有化部署聊天机器人.pdf
│ │ ├─0120240110评论区记录.xlsx
│ │ ├─01实战基于LangChain和ChatGLM私有化部署聊天机器人.mp4
│ │ ├─0212-实战私有数据微调ChatGLM3.pdf
│ │ ├─0220240118评论区记录.xlsx
│ │ ├─02实战私有数据微调ChatGLM3.mp4
│ ├─08第七周
│ │ ├─01RLHF论文
│ │ │ ├─RLHF
│ │ ├─02MoEs论文
│ │ │ ├─MoEs
│ │ ├─0113-ChatGPT大模型训练技术RLHF.pdf
│ │ ├─0120240121评论区记录.xlsx
│ │ ├─01ChatGPT大模型训练技术RLHF.mp4
│ │ ├─0214-混合专家模型(MoEs)技术揭秘.pdf
│ │ ├─0220240124评论区记录.xlsx
│ │ ├─02混合专家模型(MoEs)技术揭秘.mp4
│ ├─09第八周
│ │ ├─01ZeRO论文
│ │ │ ├─ZeRO
│ │ ├─03LLaMAl论文
│ │ │ ├─LLaMA
│ │ ├─0115-大模型分布式训练框架MicrosoftDeepSpeed.pdf
│ │ ├─0120240128评论区记录.xlsx
│ │ ├─01大模型分布式训练框架MicrosoftDeepSpeed.mp4
│ │ ├─0316-MetaAI大模型家族LLaMA.pdf
│ │ ├─0320240131评论区记录.xlsx
│ │ ├─03MetaAI大模型家族LLaMA.mp4
































相关资源