AI大模型微调训练营

8周掌握AI大模型微调:从LoRA到LangChain实战指南


8周掌握AI大模型微调:从LoRA到LangChain实战指南

1. 为什么选择这门AI大模型微调课程?

大模型技术已成为AI领域的核心竞争点,但多数开发者仅停留在API调用层面。本课程通过8周系统训练,带你深入掌握LoRA、QLoRA等参数高效微调技术,并完成ChatGLM3-6B私有化部署等企业级实战项目。课程覆盖HuggingFace Transformers、DeepSpeed等工具链,适合希望突破技术瓶颈的中高级开发者。

2. 课程核心内容拆解

- 技术演进全景:从Transformer架构到混合专家模型(MoEs)发展脉络

- 微调核心技术:PEFT框架解析、LoRA低秩适配原理、RLHF对齐实战

- 工具链深度应用:HuggingFace生态、LangChain框架集成、模型量化压缩

- 企业级项目实战:私有数据微调、分布式训练(DeepSpeed)、聊天机器人开发

3. 与众不同的课程特色

不是泛泛而谈的理论课,而是聚焦工业落地的深度训练营:

- 论文精读+代码复现:配套GLM、LLaMA等20+前沿论文资源包

- 评论区动态答疑:每周更新学员共性问题与解决方案文档

- 渐进式作业设计:从Transformers基础微调到LangChain复杂应用开发

4. 适合哪些人群学习?

✔ 已掌握Python和深度学习基础,希望进阶大模型开发的工程师

✔ 需要将AI能力整合到业务系统的技术负责人

✔ 研究NLP方向、需快速复现最新论文的高校团队

:课程涉及PyTorch和Linux操作,建议提前熟悉相关基础。

5. 课程模块价值解析

- 第1-2周建立技术全局观,掌握大模型四阶技术演进路径

- 第3-4周通过HuggingFace实战Transformers微调与量化

- 第5-6周完成ChatGLM3-6B的QLoRA微调与私有化部署

- 第7-8周深入RLHF对齐技术和MoEs架构,掌握分布式训练方案

通过8周高强度训练,你不仅能独立完成大模型定制开发,更将建立应对技术迭代的方法论。课程提供的论文包、工具链模板和项目代码,均可直接迁移至实际工作场景。

资源下载通道

夸克网盘分享
文件大小:16.6 GB

资源目录列表:

├─V-4843:【极客】AI大模型微调训练营
│  ├─00开营直播
│  │  ├─01大语言模型微调的前沿技术与应用.mp4
│  │  ├─开营直播:大语言模型微调的前沿技术与应用.pdf
│  ├─01第一周
│  │  ├─01AI大模型四阶技术总览.mp4
│  │  ├─02大语言模型技术发展与演进.mp4
│  │  ├─1-AI大模型四阶技术总览.pdf
│  │  ├─20231129评论区记录.xlsx
│  │  ├─20231203评论区记录.xlsx
│  │  ├─2-大语言模型技术发展与演进.pdf
│  │  ├─第一周作业参考答案.pdf
│  │  ├─论文.zip
│  ├─02第二周
│  │  ├─01大模型微调技术揭秘.mp4
│  │  ├─02大模型微调技术揭秘-LoRA.mp4
│  │  ├─20231206评论区记录.xlsx
│  │  ├─20231210评论区记录.xlsx
│  │  ├─3-大模型微调技术揭秘-PEFT.pdf
│  │  ├─4-大模型微调技术揭秘-LoRA.pdf
│  │  ├─Fine-tuning论文.zip
│  │  ├─UniPELTAUnifiedFrameworkforParameter-EfficientLanguageModelTuning.pdf
│  ├─03第三周
│  │  ├─01大模型开发工具库HuggingFaceTransformers.mp4
│  │  ├─0220231220评论区记录.xlsx
│  │  ├─02实战Transformers模型微调.mp4
│  │  ├─大模型开发工具库HFTransformers.pdf
│  │  ├─实战Transformers模型微调.pdf
│  ├─04第四周
│  │  ├─0120231224评论区记录.xlsx
│  │  ├─01Quantization论文.zip
│  │  ├─01实战Transformers模型量化.mp4
│  │  ├─0320231227评论区记录.xlsx
│  │  ├─03大模型高效微调工具HFPEFT.mp4
│  │  ├─7-实战Transformers模型量化.pdf
│  │  ├─8-大模型高效微调工具HFPEFT.pdf
│  │  ├─实战Transformers模型量化.pdf
│  ├─05.第05周
│  │  ├─0120240103评论区记录.xlsx
│  │  ├─01GLM论文.zip
│  │  ├─01实战QLoRA微调ChatGLM3-6B.mp4
│  │  ├─9-实战QLoRA微调ChatGLM3-6B.pdf
│  ├─06第五周
│  │  ├─01GLM论文
│  │  │  ├─GLM论文
│  │  ├─0120240103评论区记录.xlsx
│  │  ├─019-实战QLoRA微调ChatGLM3-6B.pdf
│  │  ├─01实战QLoRA微调ChatGLM3-6B.mp4
│  │  ├─0210-快速入门LangChain大模型应用开发框架.pdf
│  │  ├─0220240107评论区记录.xlsx
│  │  ├─02快速入门LangChain大模型应用开发框架(上).mp4
│  │  ├─03快速入门LangChain大模型应用开发框架(下).mp4
│  ├─07第六周
│  │  ├─0111-实战基于LangChain和ChatGLM私有化部署聊天机器人.pdf
│  │  ├─0120240110评论区记录.xlsx
│  │  ├─01实战基于LangChain和ChatGLM私有化部署聊天机器人.mp4
│  │  ├─0212-实战私有数据微调ChatGLM3.pdf
│  │  ├─0220240118评论区记录.xlsx
│  │  ├─02实战私有数据微调ChatGLM3.mp4
│  ├─08第七周
│  │  ├─01RLHF论文
│  │  │  ├─RLHF
│  │  ├─02MoEs论文
│  │  │  ├─MoEs
│  │  ├─0113-ChatGPT大模型训练技术RLHF.pdf
│  │  ├─0120240121评论区记录.xlsx
│  │  ├─01ChatGPT大模型训练技术RLHF.mp4
│  │  ├─0214-混合专家模型(MoEs)技术揭秘.pdf
│  │  ├─0220240124评论区记录.xlsx
│  │  ├─02混合专家模型(MoEs)技术揭秘.mp4
│  ├─09第八周
│  │  ├─01ZeRO论文
│  │  │  ├─ZeRO
│  │  ├─03LLaMAl论文
│  │  │  ├─LLaMA
│  │  ├─0115-大模型分布式训练框架MicrosoftDeepSpeed.pdf
│  │  ├─0120240128评论区记录.xlsx
│  │  ├─01大模型分布式训练框架MicrosoftDeepSpeed.mp4
│  │  ├─0316-MetaAI大模型家族LLaMA.pdf
│  │  ├─0320240131评论区记录.xlsx
│  │  ├─03MetaAI大模型家族LLaMA.mp4
立 即 下 载

相关资源

发表评论

点 击 提 交