深度学习实战【九天菜菜】-百度云盘下载

 

【九天菜菜】深度学习实战

课程内容:

01_Lesson-0.1-GPU购买与GPU白嫖指南.mp4

02_Lesson-0.2-PyTorch安装与部署(CPU版本).mp4

03_Lesson-0.3-PyTorch安装与配置(GPU版本).mp4

04_Lesson-1-张量的创建与常用方法.mp4

05_Lesson-2-张量的索引、分片、合并及维度调整.mp4

06_Lesson-3-张量的广播和科学运算.mp4

07_Lesson-4-张量的线性代数运算.mp4

08_Lesson-5-基本优化方法与最小二乘法.mp4

09_Lesson-6-动态计算图与梯度下降入门.mp4

100_Lesson-17.11(3)-案例1:提前停止.mp4

101_Lesson-17.11(4)-案例1:一个完整的训练函数.mp4

102_Lesson-17.11(5)-准备训练函数所需的全部参数.mp4

103_Lesson-17.11(6)-GPU内存管理机制、训练函数的GPU版本.mp4

104_Lesson-17.11(7)-初步训练:模型选择.mp4

105_Lesson-17.11(8)-模型调优(1):增加迭代次数,让迭代更稳定.mp4

106_Lesson-17.11(9)-模型调优(2):对抗过拟合,其他可探索的方向.mp4

107_Lesson-18.1-生成对抗网络的基本原理与损失函数.mp4

108_Lesson-18.2.1-(1)-从0实现GAN的反向传播与训练.mp4

109_Lesson-18.2.2-(2)-判别器的反向传播.mp4

10_Lesson-7.1-神经网络的诞生与发展_batch.mp4

110_Lesson-18.2.3-(3)-生成器的反向传播.mp4

111_Lesson-18.3.1-转置卷积层与DCGAN(1):基本原理与实现.mp4

112_Lesson-18.3.2-转置卷积层与DCGAN(2):带步长与填充的转置卷积层(上.mp4

113_Lesson-18.3.2-转置卷积层与DCGAN(2):带步长与填充的转置卷积层(下.mp4

114_Lesson-18.3.2-转置卷积层与DCGAN(3):DCGAN架构复现-(上).mp4

115_Lesson-18.3.2-转置卷积层与DCGAN(3):DCGAN架构复现-(下).mp4

116_Lesson-18.3.2-转置卷积层与DCGAN(4):从DCGAN到pix2pix.mp4

117_Lesson-18.3.3-cGAN与InfoGAN(1):基本运行原理.mp4

118_Lesson-18.3.3-cGAN与InfoGAN(2)-标签输入与Embed技巧.mp4

119_Lesson-18.3.3-cGAN与infoGAN-(3)-从0复现一个cGAN架构.mp4

11_Lesson-7.2-机器学习中的基本概念.mp4

120_Lesson-18.4.1-自动编码器家族(1):认识自动编码器.mp4

121_Lesson-18.4.1-自动编码器家族(2):三大类自动编码器.mp4

122_Lesson-18.4.1-自动编码器家族(3):自动编码器的应用场景.mp4

123_Lesson-18.4.2-变分自动编码器(1):数据流与细节梳理.mp4

124_Lesson-18.4.2-变分自动编码器(2):损失函数详解.mp4

125_Lesson-18.4.2-变分自动编码器(3):重参数化技巧.mp4

126_Lesson-18.5.1-分割架构必备基础.mp4

127_Lesson-18.5.2-Unet架构复现.mp4

128_Lesson-19.1.1-欢迎来到NLP的世界.mp4

129_Lesson-19.1.2-大模型的行业影响与发展.mp4

12_Lesson-7.3-深入理解PyTorch框架.mp4

130_Lesson-19.2.1-深度学习中的时间序列数据.mp4

131_Lesson-19.2.2-文字序列数据---结构与分词操作.mp4

132_Lesson-19.2.3-文字序列数据---Token与编码.mp4

133_Lesson-19.3.1~3.2-RNN的架构与数据流.mp4

134_Lesson-19.3.3-各类NLP任务下循环神经网络的输入与输出.mp4

135_Lesson-19.3.4.1-认识PyTorch中nn.RNN层.mp4

136_Lesson-19.3.4.2-在PyTorch中实现RNN.mp4

137_Lesson-19.3.4.3-深度神经网络的实现.mp4

138_Lesson-19.3.4.4-自定义循环层中的循环数据流.mp4

139_Lesson-19.3.4.5-双向循环神经网络.mp4

13_Lesson-8.1单层回归神经网络-&-Tensor新手避坑指南.mp4

140_Lesson-19.3.4.6【加餐】手动实现RNN执行情感分类任务.mp4

141_Lesson-19.3.4.7【加餐】手动实现RNN执行文本生成任务.mp4

142_Lesson-19.3.5.1-RNN反向传播的数学流程.mp4

143_Lesson-19.3.5.2-RNN各类缺陷的数学本质.mp4

144_Lesson-20.1.0-LSTM开篇与学习路径.mp4

145_Lesson-20.1.1.1-LSTM的起源:权重冲突.mp4

146_Lesson-20.1.1.2-LSTM治理权重冲突问题的基本思路.mp4

147_Lesson-20.1.2.1-LSTM的架构:信息分割与门控单元.mp4

148_Lesson-20.1.2.2-LSTM的架构:解决权重冲突与输出门.mp4

149_Lesson-20.1.2.3-LSTM中的浅层数学讨论.mp4

14_Lesson-8.2-torch.nn.Linear实现单层回归网络的正向传播.mp4

150_Lesson-20.1.3.1-nn.LSTM层的参数群-(上).mp4

151_Lesson-20.1.3.1-nn.LSTM层的参数群-(下):Proj_size.mp4

152_Lesson-20.1.3.2-nn.LSTM层的输入与输出.mp4

153_Lesson-20.1.3.3-在PyTorch中实现完整LSTM网络.mp4

154_Lesson-20.1.4.1-LSTM在单变量数据集上的预测实战(上).mp4

155_Lesson-20.1.4.1-LSTM在单变量数据集上的预测实战(下).mp4

156_Lesson-24.1.1-谷歌邮箱Gmail注册.mp4

157_Lesson-24.1.2-OpenAI账号注册.mp4

158_Lesson-24.1.3-ChatGPT-Plus升级流程.mp4

159_Lesson-24.1.4-ChatGPT防封指南.mp4

15_Lesson-8.3-二分类神经网络的原理与实现.mp4

160_Lesson-24.2.1-大模型技术学习目标和内容规划.mp4

161_Lesson-24.2.2-OpenAI在线大模型生态介绍.mp4

162_Lesson-24.2.3-开源大模型生态与ChatGLM-6B大模型介绍.mp4

163_Lesson-24.3.1-大语言模型的基本深度学习概念补充讲解.mp4

164_Lesson-24.3.2-OpenAI-Fine-tuning-API简介.mp4

165_Lesson-24.3.3-开源微调框架入门介绍.mp4

166_Lesson-24.4-大模型课程硬件要求说明.mp4

167_Lesson-24.5-LangChain入门介绍.mp4

168_Lesson-24.6.1-OpenAI官网使用说明.mp4

169_Lesson-24.6.2-本地调用OpenAI-API方法.mp4

16_Lesson-8.4-torch.nn.functional实现单层二分类网络的正向传播.mp4

170_Lesson-24.7.1-Completion模型与Chat模型介绍.mp4

171_Lesson-24.7.2-Completion.create函数参数详解.mp4

172_Lesson-24.7.3-Completion.create函数调参数实践.mp4

173_Lesson-24.7.4-手动创建可调节对话风格的对话机器人.mp4

174_Lesson-24.8.1-大语言模型原生能力与涌现能力介绍.mp4

175_Lesson-24.8.2-提示工程技术入门.mp4

176_Lesson-24.9.1-One-shot&Few-shot提示方法.mp4

177_Lesson-24.9.2-Zero-shot-CoT提示法.mp4

178_Lesson-24.9.3-Few-shot-CoT提示法.mp4

179_Lesson-24.9.4-LtM提示方法.mp4

17_Lesson-8.5-多分类神经网络.mp4

180_Lesson-24.10.1-SCAN指令翻译项目介绍与数据集准备.mp4

181_Lesson-24.10.2-针对SCAN数据集的Few-shot-LtM提示工程流程.mp4

182_Lesson-24.10.3-SCAN指令翻译项目完整建模流程.mp4

183_Lesson-24.11.1-Chat-Completion模型背景介绍.mp4

184_Lesson-24.11.2-Chat-Completion模型发展现状.mp4

185_Lesson-24.12.1-Chat-Completion模型API详解.mp4

186_Lesson-24.12.2-Messages参数设置技巧.mp4

187_Lesson-24.12.3-基于特定知识的简易问答机器人创建方法.mp4

188_Lesson-20.1.5.1-多变量时序数据与面板数据.mp4

189_Lesson-20.1.5.2-多变量序列的特征滑窗法.mp4

18_Lesson-9.1-从异或门问题认识多层神经网络.mp4

190_Lesson-20.1.5.3-多变量序列的带标签滑窗法.mp4

191_Lesson-20.1.5.4-面板数据的带标签滑窗法.mp4

192_Lesson-20.1.5.5-【Q&A】时序数据滑窗分割的Q&A.mp4

193_Lesson-20.1.5.6-单步预测、多步预测与递归预测.mp4

194_Lesson-20.1.5.7-多步预测的代码实现(上)滑窗与标签的分割.mp4

195_Lesson-20.1.5.8-多步预测的代码实现(下):早停机制与预测值去重.mp4

196_Lesson-20.1.5.9-【Q&A】关于多步预测的Q&A.mp4

197_Lesson-20.1.5.10-时间序列的多步递归预测.mp4

198_Lesson-20.1.5.11【Q&A】多步递归预测的Q&A.mp4

199_Lesson-20.1.5.12-股价数据中影响建模的关键业务特征.mp4

19_Lesson-9.2-黑箱:深度神经网络的不可解释性.mp4

200_Lesson-20.1.5.13-股票业务指导数据预处理(上).mp4

201_Lesson-20.1.5.14-股票业务指导数据预处理(下).mp4

202_Lesson-20.1.5.15-股票数据特征工程-(1)-滞后、差分及其衍生特征.mp4

203_Lesson-20.1.5.16-【Q&A】时序预处理与特征衍生的Q&A.mp4

204_Lesson-20.1.5.17-股票数据特征工程-(2)-窗口统计的基本逻辑.mp4

205_Lesson-20.1.5.18-股票数据特征工程-(3)-窗口统计的代码实现与效果展示.mp4

206_Lesson-20.1.5.19-金融业务指标与业务特征衍生.mp4

207_Lesson-20.1.5.20-简单时间特征与Q&A.mp4

208_Lesson-20.1.5.21-股价数据批量特征衍生函数(1)三层循环逻辑.mp4

209_Lesson-20.1.5.22-股价数据批量特征衍生函数(2)衍生中的陷阱与函数使用.mp4

20_Lesson-9.3-&-9.4-层与激活函数.mp4

210_Lesson-20.1.5.23-股价数据的完整预处理&特征衍生流程.mp4

211_Lesson-20.1.5.24-适用于LSTM的混合模型特征筛选法.mp4

212_Lesson-20.1.5.25-LSTM的建模与股价预测结果分析.mp4

213_LSTM股价预测实战(6)LSTM训练参数全解与调参实战(直播2024.03.21).mp4

214【Transformer】 Transformer与注意力机制入门.mp4

215【Transformer】Attention注意力机制的本质.mp4

216【Transformer】Transformer中的注意力计算流程 & 多头注意力机制.mp4

217【Transformer】 Transformer的基本架构.mp4

218【Transformer】Embedding与位置编码.mp4

219【Transformer】正余弦编码的数学与实用意义.mp4

21_Lesson-9.5-从0实现深度神经网络的正向传播.mp4

220【Transformer】正余弦编码的实际计算与高维空间可视化.mp4

221【Transformer】 编码器结构详解之残差链接.mp4

222【Transformer】 编码器结构详解之Layer Normalization.mp4

223【Transformer】编码器结构详解之前馈神经网络FFN.mp4

224【Transformer】完整Transformer结构下的解码器Decoder.mp4

225【Transformer】Decoder的输入与teacher forcing.mp4

226【Transformer】掩码与掩码注意力机制 v2.mp4

227【Transformer】 填充掩码与前瞻掩码的实现.mp4

228【Transformer】 编码-解码注意力层.mp4

229【Transformer】Decoder-Only结构下的Decoder.mp4

22_Lesson-10.1-SSE与二分类交叉熵损失.mp4

23_Lesson-10.2-二分类交叉熵的原理与实现.mp4

24_Lesson-10.3-多分类交叉熵的原理与实现.mp4

25_Lesson-11.1-梯度下降中的两个关键问题.mp4

26_Lesson-11.2.1-反向传播的原理.mp4

27_Lesson-11.2.2-反向传播的实现.mp4

28_Lesson-11.3-走出第一步:动量法Momentum.mp4

29_Lesson-11.4-开始迭代:batch与epochs.mp4

30_Lesson-11.5.1-在Fashion-MNIST数据集上实现完整的神经网络(上).mp4

31_Lesson-11.5.2-在Fashion-MNIST数据集上实现完整的神经网络(下).mp4

32_Lesson-12.0-深度学习基础网络手动搭建与快速实现.mp4

33_Lesson-12.1-深度学习建模实验中数据集生成函数的创建与使用.mp4

34_Lesson-12.2-可视化工具TensorBoard的安装与使用.mp4

35_Lesson-12.3-线性回归建模实验.mp4

36_Lesson-12.4-逻辑回归建模实验.mp4

37_Lesson-12.5-softmax回归建模实验.mp4

38_Lesson-13.1-深度学习建模目标与性能评估理论.mp4

39_Lesson-13.2.1-模型拟合度概念介绍与欠拟合模型的结构调整策略.mp4

40_Lesson-13.2.2-【加餐】损失函数的随机创建现象详解.mp4

41_Lesson-13.3.1-梯度不平稳性与Glorot条件(1).mp4

42_Lesson-13.3.2-梯度不平稳性与Glorot条件(2).mp4

43_Lesson-13.3.3-梯度不平稳性与Glorot条件(3).mp4

44_Lesson-13.4-Dead-ReLU-Problem与学习率优化.mp4

45_Lesson-13.5-Xavier方法与kaiming方法(HE初始化).mp4

46_Lesson-14.1-数据归一化与Batch-Normalization基础理论.mp4

47_Lesson-14.2-Batch-Normalization在PyTorch中的实现.mp4

48_Lesson-14.3-Batch-Normalization综合调参实战.mp4

49_Lesson-15.1-学习率调度基本概念与手动实现方法.mp4

50_Lesson-15.2-学习率调度在PyTorch中的实现方法.mp4

51_Lesson-16.1-配置环境,计算机视觉行业综述.mp4

52_Lesson-16.2-图像的基本操作.mp4

53_Lesson-16.3-卷积操作与边缘检测.mp4

54_Lesson-16.4-卷积遇见深度学习.mp4

55_Lesson-16.5.1-在Pytorch中实现卷积网络:卷积核、输入通与特征图.mp4

56_Lesson-16.5.2-在PyTorch中实现卷积网络:步长与填充.mp4

57_Lesson-16.5.3-在PyTorch中实现卷积网络:池化层,BN与Dropout.mp4

58_Lesson-16.6.1-复现经典架构(1):LeNet5.mp4

59_Lesson-16.6.2-复现经典架构(2):AlexNet.mp4

60_Lesson-16.7-如何拓展网络深度:VGG架构.mp4

61_Lesson-16.8.1-感受野(上):定义与性质.mp4

62_Lesson-16.8.2-感受野(下):膨胀卷积,计算感受野大小.mp4

63_Lesson-16.9-平移不变性.mp4

64_Lesson-16.10-卷积层的参数量计算,1x1卷积核.mp4

65_Lesson-16.11-分组卷积与深度可分离卷积.mp4

66_Lesson-16.12-全连接层的参数,用nn.Sequential复现VGG16.mp4

67_Lesson-16.13-全局平均池化,NiN网络的复现.mp4

68_Lesson-16.14-GoogLeNet:思想与具体架构.mp4

69_Lesson-16.15-GoogLeNet的复现.mp4

70_Lesson-16.16-残差网络:思想与具体架构.mp4

71_Lesson-16.17.1-ResNet的复现-(1)-:架构中的陷阱.mp4

72_Lesson-16.17.2-ResNet的复现-(2)-:卷积块、残差块、瓶颈架构.mp4

73_Lesson-16.17.3-ResNet的复现-(3):完整的残差网络.mp4

74_Lesson-17.1-计算机视觉中的三种基本任务.mp4

75_Lesson-17.2.1-经典数据集(1):入门数据集,新手读数据踩坑指南.mp4

76_Lesson-17.2.2-经典数据集(2):竞赛数据与其他常用数据.mp4

77_Lesson-17.3.1-使用自己的图像创造数据集.mp4

78_Lesson-17.3.2-将二维表及其他结构转化为四维tensor.mp4

79_Lesson-17.4-图像数据的数据预处理.mp4

80_Lesson-17.5-数据增强.mp4

81_【直播加餐】01-LSTM的原理与基本架构_v.mp4

82_【直播加餐】02-深度原理:LSTM是如何解决梯度问题的?.mp4

83_【直播加餐】03-PyTorch中的LSTM参数简介_v.mp4

84_【直播加餐】04-LSTM在股价数据集上的预测实战_v.mp4

85_【直播加餐】05-时间序列卷积的运算流程与操作v.mp4

86_【直播加餐】06-时序卷积网络TCN架构解析与复现-v.mp4

87_【直播加餐】07-Transformer中的注意力机制_v.mp4

88_【直播加餐】08-Transformer中的Embedding与位置编码v.mp4

89_【直播加餐】09-Transformer在Pytorch中的参数与实现v.mp4

90_【直播加餐】10-Huggingface入门:bert-gpt调用_v.mp4

91_Lesson-17.6.1-更强大的优化算法-(1)-AdaGrad.mp4

92_Lesson-17.6.2-更强大的优化算法(2)-RMSprop与Adam.mp4

93_Lesson-17.7-调用经典架构.mp4

94_Lesson-17.8.1-基于ResNet与VGG16自建架构.mp4

95_Lesson-17.8.2-基于普通卷积层和池化层自建架构.mp4

96_Lesson-17.9-有监督算法的预训练.迁移学习.mp4

97_Lesson-17.10-深度学习中的模型选择.mp4

98_Lesson-17.11(1)-案例1:项目背景.完整流程概述.mp4

99_Lesson-17.11(2)-案例1:数据与架构.mp4

资源下载
下载价格20 资源币
0

评论0

请先
显示验证码
没有账号?注册  忘记密码?