适用人群
本课程适合于深度学习和人工智能方向新手,需要零基础、快速、深入学习人工智能的朋友。
课程概述
本课程由前新加坡国立大学(亚洲排名第1)的助理研究员龙龙老师主讲,基于PyTorch框架最新版实战,帮助人工智能、深度学习初学者快速、深刻理解深度学习算法原理与实现。
【莫烦老师】:在教学中,龙龙老师以简短高效的方式,从深度学习的多个角度向我们展开了论述,非常适合想对深度学习有全方位了解的朋友。
【PyTorch中文网】:讲解简单易懂、由浅入深,是一门值得推荐的课程。
2019最新版,150+课时!
目录
章节1:深度学习初见
课时1 深度学习框架简介 09:07
课时2 PyTorch功能演示 11:09
章节2:开发环境安装
课时3 Anaconda-CUDA安装 07:17
课时4 PyTorch-PyCharm安装 12:12
章节3:回归问题
课时5 简单回归问题-1 09:09
课时6 简单回归问题-2 14:44
课时7 回归问题实战 08:43
课时8 分类问题引入-1 07:16
课时9 分类问题引入-2 09:19
课时10 手写数字识别初体验-1 06:09
课时11 手写数字识别初体验-2 06:35
课时12 手写数字识别初体验-3 07:02
课时13 手写数字识别初体验-4 08:05
课时14 手写数字识别初体验-5 08:16
章节4:PyTorch基础教程
课时15 张量数据类型-1 09:56
课时16 张量数据类型-2 14:07
课时17 创建Tensor-1 10:46
课时18 创建Tensor-2 12:59
课时19 索引与切片-1 12:10
课时20 索引与切片-2 11:30
课时21 维度变换-1 07:37
课时22 维度变换-2 10:01
课时23 维度变换-3 07:52
课时24 维度变换-4 10:23
章节5:PyTorch进阶教程
课时25 Broadcasting-1 08:46
课时26 Broadcasting-2 11:35
课时27 Broadcasting-3 06:11
课时28 合并与分割-1 10:43
课时29 合并与分割-2 06:36
课时30 数学运算-1 07:39
课时31 数学运算-2 08:54
课时32 属性统计-1 10:41
课时33 属性统计-2 11:34
课时34 高阶操作 16:05
章节6:随机梯度下降
课时35 什么是梯度-1 10:19
课时36 什么是梯度-2 14:16
课时37 常见函数的梯度 07:18
课时38 激活函数与Loss的梯度-1 13:52
课时39 激活函数与Loss的梯度-2 08:52
课时40 激活函数与Loss的梯度-3 06:46
课时41 激活函数与Loss的梯度-4 11:57
课时42 感知机的梯度推导-1 13:35
课时43 感知机的梯度推导-2 13:16
课时44 链式法则 11:31
课时45 反向传播算法-1 12:44
课时46 反向传播算法-2 07:01
课时47 优化问题实战 08:54
章节7:神经网络与全连接层
课时48 Logistic Regression 14:12
课时49 交叉熵-1 06:42
课时50 交叉熵-2 09:08
课时51 交叉熵-3 04:51
课时52 多分类问题实战 08:26
课时53 全连接层 13:59
课时54 激活函数与GPU加速 11:37
课时55 MNIST测试实战 12:01
课时56 Visdom可视化 13:08
章节8:过拟合
课时57 过拟合与欠拟合 14:24
课时58 交叉验证-1 11:46
课时59 交叉验证-2 07:38
课时60 Regularization 11:21
课时61 动量与学习率衰减 13:57
课时62 Early stopping, dropout等 14:20
章节9:卷积神经网络CNN
课时63 什么是卷积-1 12:58
课时64 什么是卷积-2 08:47
课时65 卷积神经网络-1 11:19
课时66 卷积神经网络-2 11:11
课时67 卷积神经网络-3 08:43
课时68 池化层与采样 10:53
课时69 BatchNorm-1 05:40
课时70 BatchNorm-2 12:32
课时71 BatchNorm-3 07:33
课时72 经典卷积网络 LeNet5,AlexNet, VGG, GoogLeNet-1 09:18
课时73 经典卷积网络 LeNet5,AlexNet, VGG, GoogLeNet-2 09:43
课时74 ResNet与DenseNet-1 12:03
课时75 ResNet与DenseNet-2 10:21
课时76 nn.Module模块-1 10:17
课时77 nn.Module模块-2 08:56
课时78 数据增强 12:53
章节10:CIFAR10与ResNet实战
课时79 CIFAR10数据集介绍 10:07
课时80 卷积神经网络实战-1 10:07
课时81 卷积神经网络实战-2 10:04
课时82 卷积神经网络训练 10:04
课时83 ResNet实战-1 10:11
课时84 ResNet实战-2 10:11
课时85 ResNet实战-3 07:31
课时86 ResNet实战-4 10:07
课时87 实战小结 12:49
章节11:循环神经网络RNN&LSTM
课时88 时间序列表示方法 14:57
课时89 RNN原理-1 09:55
课时90 RNN原理-2 09:39
课时91 RNN Layer使用-1 09:42
课时92 RNN Layer使用-2 09:01
课时93 时间序列预测实战 13:27
课时94 梯度弥散与梯度爆炸 12:50
课时95 LSTM原理-1 09:01
课时96 LSTM原理-2 10:53
课时97 LSTM Layer使用 08:44
课时98 情感分类问题实战 15:15
章节12:迁移学习-实战宝可梦精灵
课时99 Pokemon数据集 12:30
课时100 数据预处理 12:20
课时101 自定义数据集实战-1 06:49
课时102 自定义数据集实战-2 08:42
课时103 自定义数据集实战-3 11:04
课时104 自定义数据集实战-4 09:58
课时105 自定义数据集实战-5 11:28
课时106 自定义网络 09:45
课时107 自定义网络训练与测试 07:37
课时108 自定义网络实战 07:39
课时109 迁移学习 05:35
课时110 迁移学习实战 10:09
章节13:自编码器Auto-Encoders
课时111 无监督学习 10:02
课时112 Auto-Encoder原理 10:12
课时113 Auto-Encoder变种 09:59
课时114 Adversarial Auto-Encoder 10:08
课时115 变分Auto-Encoder引入 10:12
课时116 Reparameterization trick 10:05
课时117 变分自编码器VAE 11:03
课时118 Auto-Encoder实战-1 10:01
课时119 Auto-Encoder实战-2 10:10
课时120 变分Auto-Encoder实战-1 05:55
课时121 变分Auto-Encoder实战-2 06:37
章节14:对抗生成网络GAN
课时122 数据的分布 09:11
课时123 画家的成长历程 13:04
课时124 GAN原理 10:01
课时125 纳什均衡-D 09:57
课时126 纳什均衡-G 13:42
课时127 JS散度的缺陷 16:36
课时128 EM距离 09:57
课时129 WGAN与WGAN-GP 15:43
课时130 GAN实战-GD实现 09:58
课时131 GAN实战-网络训练 17:24
课时132 GAN实战-网络训练鲁棒性 09:46
课时133 WGAN-GP实战 16:17
章节15:选看:Ubuntu开发环境安装
课时134 Ubuntu系统安装 10:01
课时135 Anaconda安装 10:10
课时136 CUDA 10安装 10:10
课时137 环境变量配置 10:05
课时138 cudnn安装 10:14
课时139 PyCharm安装与配置 10:59
章节16:选看:人工智能发展简史
课时140 生物神经元结构 04:06
课时141 感知机的提出 10:07
课时142 BP神经网络 10:07
课时143 CNN和LSTM的发明 10:19
课时144 人工智能的低潮 10:07
课时145 深度学习的诞生 10:13
课时146 深度学习的繁荣 12:13
章节17:选看:Numpy实战BP神经网络
课时147 权值的表示 10:05
课时148 多层感知机的实现 10:18
课时149 多层感知机前向传播 10:06
课时150 多层感知机反向传播 10:10
课时151 多层感知机反向传播-2 10:06
课时152 多层感知机反向传播-3 10:18
课时153 多层感知机的训练 10:24
课时154 多层感知机的测试 12:06
课时155 实战小结 07:03
官方网址