序号 年份 标题 集数 时长 来源 完结
1 2021 【李沐|PyTorch】动手学深度学习 76
B站
- [x]

| | 2 | | Tensorflow2.0深度学习入门与实战 | 100 | 18h | B站 |
- [x]

| | 3 | | CNN卷积神经网络入门到实战 | | 3h9m | B站 |
- [x]

| | 4 | | 深度学习神经网络:CNN+RNN+GAN | | 13h | B站 |
- [x]

| | 5 | | 【唐宇迪|PyTorch】深度学习框架 | 100 | 13h | B站 |
- [x]

| | 6 | | 【PyTorch】深度学习从入门到实战 | | 18h | B站 |
- [x]

| | 7 | | Tensorflow 入门深度学习 | 36 | 17h31m | B站 |
- [x]

| | 8 | 2019 | Tensorflow2.0 入门与实战 | 21 | 3h45m | B站 |
- [x]

| | 9 | | Tensorflow2 入门 | 18 | 3h | B站 |
- [x]

| | 10 | 2019 | 深度学习与TensorFlow实战应用开发教程 | | 3h | |
- [x]

| | 11 | | 深度学习理论与Tensorflow Caffe实践 | | 36h | |
- [x]

| | 12 | | PyTorch深度学习零基础 | 31 | 6h56m | |
- [x]

| | 13 | | PyTorch深度学习实战 | 99 | 17h23m | |
- [x]

| | | | 深度学习与计算机视觉 | | 23h | B站 |
- [x]

| | | | 基于TensorFlow2.0搭建神经网络 | | 2h | | | | | | Transformer介绍 | | 1h | B站 | | | | | 【吴恩达】CNN卷积神经网络 | | 7h | B站 | | | | | KMeans聚类分析 | | 3h | B站 | | | | | 【唐宇迪】Transformer在CV领域知识点 | | 2h | B站 | | | | | 模型可视化神器PerceptiLabs | | 28h | B站 | | | | | 麻省理工—Python人工智能和算法数据结构 | | 16h | B站 | | | | 2019 | 【MIT】深度学习导论 | | 6h | B站 | | | | | 【Python】人工智能7小时入门到精通 | | 7h | B站 | | | | | 【PyTorch】动手学深度学习 | | 12h | | | | | | 深度学习遇到优化方法 | | 2h | | | | | | 【吴恩达】Deep Learning Specicalization | | 27h | | | | | 2019 | 【李沐|MXNet】动手学深度学习 | | 25h | | | | | | 深度学习 理论基础 | | 23h | | | | | | 【MIT】Deep Learning | | 16h | | | | | | 【MIT】人工智能-数学基础 | | 9h11m | | | | | | 深度学习框架 TensorFlow 学习与应用 | | 13h | | | | | | | | | | |

1. 【李沐|PyTorch】动手学深度学习

1.1 预告 2.1 深度学习介绍 3.1 自动求导
- 自动求导
- 代码实现
4.1 PyTorch神经网络基础
- 模型构造
- 参数管理
- 自定义层
- 读写文件
5.1 卷基层 6.1 数据赠广 7.1 序列模型 8.1 注意力机制
1.2 课程安排 2.2 安装 3.2 线性回归+基础优化算法
- 线性回归
- 基础优化算法
- 线性回归的从零开始实现
- 线性回归的简洁实现
4.2 使用和购买GPU 5.2 卷积层里的填充和步幅 6.2 微调 7.2 文本预处理 8.2 注意力分数
2.3 数据操作+数据预处理
- 数据操作
- 数据操作实现
- 数据预处理实现
3.3 Softmax回归+损失函数+图片分类数据集
- Softmax回归
- 损失函数
- 图片分类数据集
- Softmax回归从零开始实现
- Softmax回归简洁实现
4.3 深度学习硬件:CPU和GPU 5.3 卷积层里的多输入多输出通道 6.3 物体检测和数据集 7.3 语言模型 8.3 使用注意力机制的Seq2Seq
2.4 线性代数
- 线性代数
- 线性代数实现
- 按特定轴求和
3.4 多层感知机+代码实现
- 感知机
- 多层感知机
- 代码实现
4.4 深度学习硬件:TPU和其他 5.4 池化层 6.4 锚框 7.4 循环神经网络RNN 8.4 自主注意力
2.5 矩阵计算 3.5 模型选择+过拟合求和欠拟合
- 模型选择
- 过拟合和欠拟合
- 代码
4.5 单机多卡并行 5.5 批量归一化 6.5 物体检测算法:R-CNN、SSD、YOLO 7.5 循环神经网络RNN的实现 8.5 Transformer
3.6 权重衰退
- 权重衰退
- 代码实现
4.6 多GPU训练实现 5.6 使用块的网络VGG 6.6 SSD实现 7.6 门控循环单元GRU 8.6 BERT与训练
3.7 丢弃法
- 丢弃法
- 代码实现
4.7 分布式训练 5.7 网络中的网络NiN 6.7 语义分割和数据集 7.7 长短期记忆网路LSTM 8.7 BERT微调
3.8 数值稳定性+模型初始化+激活函数
- 数值稳定性
- 模型初始化和激活函数
5.8 经典卷积网络 LeNet 6.8 转置卷积 7.8 深层循环神经网络 8.8 优化算法
3.9 Kaggle竞赛:预测房价
- 预测房价
- 加州2020年房价预测
5.9 深度卷积网络 AlexNet 6.9 转置卷积是一种卷积 7.9 双向循环神经网络 8.9 课程总结和进阶学习
3.10 预测房价竞赛总结 5.10 含并行连接的网络 GoogleNet / Inception V3 6.10 全连接卷积神经网络FCN 7.10 机器翻译数据集
5.11 残差网络 ResNet 6.11 样式迁移 7.11 编码器/解码器架构
5.12 ResNet 为什么能训练出 1000 层的模型 6.12 课程竞赛:牛仔航头检测 7.12 序列到序列学习Seq2Seq
5.13 Kaggle竞赛:树叶图片分类 6.13 目标检测竞赛总结 7.13 束搜索
5.14 Kaggle竞赛:树叶分类结果 [

](https://www.bilibili.com/video/BV13b4y1m7y8?spm_id_from=333.999.0.0) | | | | | | 5.15 树叶分类竞赛技术总结 | | | | | | | | | 5.16 Kaggle竞赛:图像分类(CIFAR-10) | | | | | | | | | 5.17 Kaggle竞赛:狗的品种识别(ImageNet Dogs) | | | |

5. 【唐宇迪|PyTorch】深度学习框架

1.1 PyTorch实战课程简介 2.1 PyTorch基本操作
1.2 PyTorch框架发展趋势
1.3 框架安装方法

13. PyTorch深度学习实战

2.1 简单回归问题-1