深度学习进阶:AI算法实战课
深度学习实战指南:从基础算法到Transformer模型精讲

1. 课程核心价值与特色亮点
本课程系统性地构建了从数学基础到前沿AI模型的知识体系,包含100节实战视频,覆盖PyTorch框架使用、神经网络原理、CNN/RNN实现、Transformer架构等核心内容。特色在于每个理论模块都配套代码实现,如LeNet卷积网络、LSTM时间序列预测、GPT模型构建等23个完整项目案例,真正实现"学完即用"。2. 三大阶段进阶式学习路径
第一阶段夯实基础:线性代数/概率论回顾、CUDA环境配置、PyTorch安装(第1-10课)
第二阶段掌握核心:通过多层感知机实现(第14课)、梯度消失解决方案(第25课)、Adam优化器(第36课)等18个技术难点突破
第三阶段前沿拓展:Transformer代码实现(第72课)、Diffusion模型原理(第83课)、CLIP多模态应用(第97课)等企业级项目实战3. 解决实际开发中的关键问题
课程专门设置工程实践模块(第5/6章),针对过拟合(Dropout实现)、梯度爆炸(BN层应用)、数据增强(第86课)等高频痛点,提供可视化示例(如第21课拟合曲线对比)和解决方案。特别包含模型部署技巧(第26课模型文件读写)和Hugging Face库实战(第93课)。4. 主流框架与最新技术覆盖
不仅详解传统网络结构(AlexNet/ResNet),更包含:
- 自然语言处理:BERT模型原理(第73课)+ 情感分析项目(第95课)
- 计算机视觉:Swin Transformer实现(第77课)+ 猫狗大战实战(第89课)
- 生成模型:GAN与Diffusion对比(第82-83课)+ 图像生成(第84课)
所有案例均提供PyTorch和Jupyter Notebook双版本代码。5. 适合人群与学习建议
适合具备Python基础的开发者进阶,建议按以下顺序学习:
1. 优先掌握环境搭建(第7章)和神经网络基础(第4章)
2. 分方向突破:CV工程师重点学习第7-8章,NLP方向侧重第9-12章
3. 通过项目实战(第14/15章)巩固技能,最终拓展到多模态模型(第16章)
本课程通过"理论推导+代码逐行解析+工业级项目"的三维教学法,帮助学习者系统掌握深度学习核心技能。从数学基础到前沿模型,构建完整的AI知识体系,是迈向算法工程师的优质学习资源。
资源下载通道
夸克网盘分享
文件大小:3.56 GB
资源目录列表:
├─进击算法工程师深度学习课程│ ├─001.1-1 课程内容和理念.mp4
│ ├─002.1-2 初识深度学习.mp4
│ ├─003.1-3 课程使用的技术栈.mp4
│ ├─004.2-1 线性代数.mp4
│ ├─005.2-2 微积分.mp4
│ ├─006.2-3 概率.mp4
│ ├─007.3-1 CUDA+Anaconda深度学习环境搭建.mp4
│ ├─008.3-2 conda实用命令.mp4
│ ├─009.3-3 Jupyter Notebook快速上手.mp4
│ ├─010.3-4 深度学习库PyTorch安装.mp4
│ ├─011.4-1 神经网络原理.mp4
│ ├─012.4-2 多层感知机.mp4
│ ├─013.4-3 前向传播和反向传播.mp4
│ ├─014.4-4 多层感知机代码实现.mp4
│ ├─015.4-5 回归问题.mp4
│ ├─016.4-6 线性回归代码实现.mp4
│ ├─017.4-7 分类问题.mp4
│ ├─018.4-8 多分类问题代码实现.mp4
│ ├─019.5-1 训练的常见问题.mp4
│ ├─020.5-2 过拟合欠拟合应对策略.mp4
│ ├─021.5-3 过拟合和欠拟合示例.mp4
│ ├─022.5-4 正则化.mp4
│ ├─023.5-5 Dropout.mp4
│ ├─024.5-6 Dropout代码实现.mp4
│ ├─025.5-7 梯度消失和梯度爆炸.mp4
│ ├─026.5-8 模型文件的读写.mp4
│ ├─027.6-1 最优化与深度学习.mp4
│ ├─028.6-2 损失函数.mp4
│ ├─029.6-3 损失函数性质.mp4
│ ├─030.6-4 梯度下降.mp4
│ ├─031.6-5 随机梯度下降法.mp4
│ ├─032.6-6 小批量梯度下降法.mp4
│ ├─033.6-7 动量法.mp4
│ ├─034.6-8 AdaGrad算法.mp4
│ ├─035.6-9 RMSProp_Adadelta算法.mp4
│ ├─036.6-10 Adam算法.mp4
│ ├─037.6-11 梯度下降代码实现.mp4
│ ├─038.6-12 学习率调节器.mp4
│ ├─039.7-1 全连接层问题.mp4
│ ├─040.7-2 图像卷积.mp4
│ ├─041.7-3 卷积层.mp4
│ ├─042.7-4 卷积层常见操作.mp4
│ ├─043.7-5 池化层Pooling.mp4
│ ├─044.7-6 卷积神经网络代码实现(LeNet).mp4
│ ├─045.8-1 AlexNet.mp4
│ ├─046.8-2 VGGNet.mp4
│ ├─047.8-3 批量规范化.mp4
│ ├─048.8-4 GoogLeNet.mp4
│ ├─049.8-5 ResNet.mp4
│ ├─050.8-6 DenseNet.mp4
│ ├─051.9-1 序列建模.mp4
│ ├─052.9-2 文本数据预处理.mp4
│ ├─053.9-3 循环神经网络.mp4
│ ├─054.9-4 随时间反向传播算法.mp4
│ ├─055.9-5 循环神经网络代码实现.mp4
│ ├─056.9-6 RNN的长期依赖问题.mp4
│ ├─057.10-1 深度循环神经网络.mp4
│ ├─058.10-2 双向循环神经网络.mp4
│ ├─059.10-3 门控循环单元.mp4
│ ├─060.10-4 长短期记忆网络.mp4
│ ├─061.10-5 复杂循环神经网络代码实现.mp4
│ ├─062.10-6 编码器-解码器网络.mp4
│ ├─063.10-7 序列到序列模型代码实现.mp4
│ ├─064.10-8 束搜索算法.mp4
│ ├─065.10-9 机器翻译简单代码实现.mp4
│ ├─066.11-1 什么是注意力机制.mp4
│ ├─067.11-2 注意力的计算.mp4
│ ├─068.11-3 键值对注意力和多头注意力.mp4
│ ├─069.11-4 自注意力机制.mp4
│ ├─070.11-5 注意力池化及代码实现.mp4
│ ├─071.11-6 Transformer模型.mp4
│ ├─072.11-7 Transformer代码实现.mp4
│ ├─073.12-1BERT模型.mp4
│ ├─074.12-2 GPT系列模型.mp4
│ ├─075.12-3 T5模型.mp4
│ ├─076.12-4 ViT模型.mp4
│ ├─077.12-5 Swin Transformer模型.mp4
│ ├─078.12-6 GPT模型代码实现.mp4
│ ├─079.13-1 蒙特卡洛方法.mp4
│ ├─080.13-2 变分推断.mp4
│ ├─081.13-3 变分自编码器.mp4
│ ├─082.13-4 生成对抗网络.mp4
│ ├─083.13-5 Diffusion扩散模型.mp4
│ ├─084.13-6 图像生成.mp4
│ ├─085.14-1 自定义数据加载.mp4
│ ├─086.14-2 图像数据增强.mp4
│ ├─087.14-3 迁移学习.mp4
│ ├─088.14-4 经典视觉数据集.mp4
│ ├─089.14-5 项目实战:猫狗大战.mp4
│ ├─090.15-1 词嵌入和word2vec.mp4
│ ├─091.15-2 词义搜索和句意表示.mp4
│ ├─092.15-3 预训练模型.mp4
│ ├─093.15-4 Hugging Face库介绍.mp4
│ ├─094.15-5 经典NLP数据集.mp4
│ ├─095.15-6 项目实战:电影评论情感分析.mp4
│ ├─096.16-1 InstructGPT模型.mp4
│ ├─097.16-2 CLIP模型.mp4
│ ├─098.16-3 DALL-E模型.mp4
│ ├─099.16-4 深度学习最新发展趋势分析.mp4
│ ├─100.16-5 下一步学习的建议.mp4
相关资源