PyTorch深度学习-练习

通过一系列实验深入掌握深度学习相关算法与模型背后的理论。

课程内容
共9个章节 55个实验
1 第1章 PyTorch基础

PyTorch基础

实验1 实验1:数据操作
数据操作
实验2 实验2:自动求梯度
自动求梯度
2 第2章 线性回归

线性回归

实验1 实验3:线性回归基本概念
线性回归基本概念
实验2 实验4:线性回归从零实现
线性回归的从零开始实现
实验3 实验5:线性回归的Pytorch实现
线性回归的Pytorch实现
3 第3章 Softmax回归

Softmax回归

实验1 实验6:Fashion-MNIST图像分类数据集
Fashion-MNIST图像分类数据集
实验2 实验7:Softmax回归从零实现
Softmax回归从零实现
实验3 实验8:Softmax回归的PyTorch实现
Softmax回归的PyTorch实现
4 第4章 多层感知机

多层感知机

实验1 实验9:多层感知机基本概念
多层感知机基本概念
实验2 实验10:多层感知机从零实现
多层感知机从零实现
实验3 实验11:多层感知机的PyTorch实现
多层感知机的PyTorch实现
5 第5章 神经网络模型

神经网络模型

实验1 实验12:模型选择、欠拟合和过拟合
模型选择、欠拟合和过拟合
实验2 实验13:权重衰减
权重衰减
实验3 实验14:丢弃法
丢弃法
实验4 实验15:正向传播、反向传播和计算图
正向传播、反向传播和计算图
实验5 实验16:数值稳定性和模型初始化
数值稳定性和模型初始化
实验6 实验17:房价预测实战
房价预测实战
实验7 实验18:模型构造
模型构造
实验8 实验19:模型参数的访问、初始化和共享
模型参数的访问、初始化和共享
实验9 实验20:自定义层
自定义层
实验10 实验21:模型的读取和存储
模型的读取和存储
6 第6章 PyTorch框架与GPU

PyTorch框架与GPU

实验1 实验22:命令式和符号式混合编程
命令式和符号式混合编程
实验2 实验23:自动并行计算
自动并行计算
实验3 实验24:GPU计算
GPU计算
实验4 实验25:多GPU计算
由于实验教学平台不会为单个学生分配多块GPU卡,因此本实验仅供了解学习。
7 第7章 卷积神经网络

卷积神经网络

实验1 实验26:二维卷积层
二维卷积层
实验2 实验27:填充和步幅
填充和步幅
实验3 实验28:多输入通道和多输出通道
多输入通道和多输出通道
实验4 实验29:池化层
池化层
实验5 实验30:卷积神经网络LeNet
卷积神经网络LeNet
实验6 实验31:深度卷积神经网络AlexNet-GPU
深度卷积神经网络AlexNet-GPU
实验7 实验32:使用重复元素的网络VGG-GPU
使用重复元素的网络VGG-GPU
实验8 实验33:网络中的网络NiN-GPU
5.8 网络中的网络(NiN)
实验9 实验34:含并行连接的网络GoogLeNet-GPU
含并行连接的网络GoogLeNet-GPU
实验10 实验35:批量归一化-GPU
批量归一化-GPU
实验11 实验36:残差网络ResNet-GPU
残差网络ResNet-GPU
实验12 实验37:稠密连接网络DenseNet
稠密连接网络DenseNet
8 第8章 循环神经网络

循环神经网络

实验1 实验38:语言模型
语言模型
实验2 实验39:语言模型数据集
语言模型数据集
实验3 实验40:循环神经网络
循环神经网络
实验4 实验41:循环神经网络从零实现
循环神经网络从零实现
实验5 实验42:循环神经网络的PyTorch实现
循环神经网络的PyTorch实现
实验6 实验43:门控循环单元GRU
门控循环单元GRU
实验7 实验44:长短期记忆网络LSTM
长短期记忆网络LSTM
实验8 实验45:双向循环神经网络
双向循环神经网络
实验9 实验46:深度循环神经网络
深度循环神经网络
实验10 实验47:通过时间反向传播
通过时间反向传播
9 第9章 优化算法

优化算法

实验1 实验48:优化与深度学习
优化与深度学习
实验2 实验49:梯度下降和随机梯度下降
梯度下降和随机梯度下降
实验3 实验50:小批量随机梯度下降
小批量随机梯度下降
实验4 实验51:动量法
动量法
实验5 实验52:AdaGrad算法
AdaGrad算法
实验6 实验53:RMSProp算法
RMSProp算法
实验7 实验54:AdaDelta算法
AdaDelta算法
实验8 实验55:Adam算法
Adam算法
PyTorch深度学习-练习

共55个实验

参加本课程
PyTorch深度学习-练习