【Python】【w门】人工智能特训营视频
33537文件名称: 【Python】【w门】人工智能特训营视频法_共:20.40GB
文件总数量: 230条
压缩文件数量: 0条
压缩文件比: 0%
疑似加密文件: 0条(需要授权播放的文件)
文件创建时间: 2021-11-17 09:36:15
目录:【【Python】【w门】人工智能特训营】
目录:【【Python】【w门】人工智能特训营/第9讲Resnet残差网络】
9.9如何实例化深度残差网络_.mp4
9.8残差网络的维度变换_.mp4
9.7在网络中引入残差层_.mp4
9.6构建残差网络的每个子模块_.mp4
9.511卷积的含义和效果(二)_.mp4
9.411卷积的含义和效果(一)_.mp4
9.3批标准化的效果展示_.mp4
9.2在pytorch中引入批量正则化_.mp4
9.1如何提取中间变量_.mp4
目录:【【Python】【w门】人工智能特训营/第8讲BatchNormalization】
8.4批量标准化的操作是怎么进行的_.mp4
8.3阈值变换如何应对过拟合_.mp4
8.2为什么批量标准化比标准化好_.mp4
8.1批量标准化怎么做_.mp4
目录:【【Python】【w门】人工智能特训营/第7讲CNN进化】
7.5残差网络的数学原理_.mp4
7.4残差网络的定义_.mp4
7.3深度网络中的梯度消失问题_.mp4
7.2VGG19_.mp4
7.1AlexNet的技术细节_.mp4
目录:【【Python】【w门】人工智能特训营/第6讲PyTorch(下)】
6.9CNN要调节的主要参数(二)_.mp4
6.8CNN要调节的主要参数(一)_.mp4
6.7PyTorch里的图像预处理与可视化_.mp4
6.6PyTorch中的优化器选择_.mp4
6.5Adam算法_.mp4
6.4自适应的梯度下降及流平均改进法_.mp4
6.3两个参数问题下的优化面临的问题_.mp4
6.2动量化梯度下降的原理和实现_.mp4
6.12神经网络的训练与测试及训练的效果展示_.mp4
6.11卷积网络中的全连接层_.mp4
6.10构建卷积网络的代码讲解_.mp4
6.1梯度下降法在PyTorch中的实现_.mp4
目录:【【Python】【w门】人工智能特训营/第5讲PyTorch(上)】
5.8Dropout在神经网络中的应用和实现_.mp4
5.7多层网络的模型构建流程、神经网络的参数初始化_.mp4
5.6用类的方法实现逻辑斯蒂回归_.mp4
5.5逻辑回归的问题介绍_.mp4
5.4PyTorch中的优化器和损失函数_.mp4
5.3网络视角下的线X模型、PyTorch对神经网络的支持包_.mp4
5.2PyTorch中的反向求导_.mp4
5.1PyTorch中的基本概念—变量_.mp4
目录:【【Python】【w门】人工智能特训营/第4讲卷积神经网络】
4.9卷积神经网络的训练方法_.mp4
4.8池化操作与层层抽象_.mp4
4.7引入激活函数以提取非线X特征_.mp4
4.6卷积是如何提取特征的、卷积网络的生物学机理_.mp4
4.5图像识别的传统方法及其问题(二)_.mp4
4.4图像识别的传统方法及其问题(一)_.mp4
4.3卷积操作的代码展示_.mp4
4.2图像识别中的滤镜与卷积_.mp4
4.1卷积神经网络的历史_.mp4
目录:【【Python】【w门】人工智能特训营/第38讲Python进阶(下)】
38.9泰坦尼克数据处理与分析(九)_.mp4
38.8泰坦尼克数据处理与分析(八)_.mp4
38.7泰坦尼克数据处理与分析(七)_.mp4
38.6泰坦尼克数据处理与分析(六)_.mp4
38.5泰坦尼克数据处理与分析(五)_.mp4
38.4泰坦尼克数据处理与分析(四)_.mp4
38.3泰坦尼克数据处理与分析(三)_.mp4
38.2泰坦尼克数据处理与分析(二)_.mp4
38.1泰坦尼克数据处理与分析(一)_.mp4
目录:【【Python】【w门】人工智能特训营/第37讲Python进阶(上)】
37.9Pandas基本操作(三)_.mp4
37.8Pandas基本操作(二)_.mp4
37.7Pandas基本操作(一)_.mp4
37.6NumPy基本操作(六)_.mp4
37.5NumPy基本操作(五)_.mp4
37.4NumPy基本操作(四)_.mp4
37.3NumPy基本操作(三)_.mp4
37.2NumPy基本操作(二)_.mp4
37.14Pandas绘图(四)_.mp4
37.13Pandas绘图(三)_.mp4
37.12Pandas绘图(二)_.mp4
37.11Pandas绘图(一)_.mp4
37.10Pandas基本操作(四)_.mp4
37.1NumPy基本操作(一)_.mp4
目录:【【Python】【w门】人工智能特训营/第36讲Python操作数据库、Python爬虫】
36.9Python操作数据库(一)_.mp4
36.8命令行操作数据库(四)_.mp4
36.7命令行操作数据库(三)_.mp4
36.6命令行操作数据库(二)_.mp4
36.5命令行操作数据库(一)_.mp4
36.4MySQL数据库与Excel的不同_.mp4
36.3认识关系型数据库(二)_.mp4
36.2认识关系型数据库(一)_.mp4
36.17Python爬虫(五)_.mp4
36.16Python爬虫(四)_.mp4
36.15Python爬虫(三)_.mp4
36.14Python爬虫(二)_.mp4
36.13Python爬虫(一)_.mp4
36.12Python操作数据库(四)_.mp4
36.11Python操作数据库(三)_.mp4
36.10Python操作数据库(二)_.mp4
36.1课程介绍_.mp4
目录:【【Python】【w门】人工智能特训营/第35讲Python基础课程(下)】
35.9函数(二)_.mp4
35.8函数(一)_.mp4
35.7循环(四)_.mp4
35.6循环(三)_.mp4
35.5课间答疑_.mp4
35.4循环(二)_.mp4
35.3循环(一)_.mp4
35.2条件判断(二)_.mp4
35.14类(三)_.mp4
35.13类(二)_.mp4
35.12类(一)_.mp4
35.11函数(四)_.mp4
35.10函数(三)_.mp4
35.1条件判断(一)_.mp4
目录:【【Python】【w门】人工智能特训营/第34讲Python基础课程(上)】
34.9变量类型—字符串类型(二)_.mp4
34.8课间答疑_.mp4
34.7变量类型—字符串类型(一)_.mp4
34.6变量类型—bool类型_.mp4
34.5变量类型—数值类型_.mp4
34.4变量—代码规范_.mp4
34.3变量—命名规范_.mp4
34.2Python介绍(二)_.mp4
34.15变量类型—字典类型(二)_.mp4
34.14变量类型—元组类型、字典类型(一)_.mp4
34.13变量类型—列表类型(三)_.mp4
34.12变量类型—列表类型(二)_.mp4
34.11变量类型—列表类型(一)_.mp4
34.10变量类型—字符串类型(三)_.mp4
34.1Python介绍(一)_.mp4
目录:【【Python】【w门】人工智能特训营/第33讲升维大法之SVM】
33.9SVM与其他模型的对比_.mp4
33.8核函数为什么有用(二)_.mp4
33.7核函数为什么有用(一)_.mp4
33.6SVM中的核函数_.mp4
33.5SVM中的软间隔_.mp4
33.4拉格朗日最优问题的解法(二)_.mp4
33.3拉格朗日最优问题的解法(一)_.mp4
33.2SVM要解决什么样的优化问题_.mp4
33.1SVM的目标:如何将间隔最大化_.mp4
目录:【【Python】【w门】人工智能特训营/第32讲升维大法之神经网络】
32.6网页展示_.mp4
32.5神经网络三要素之激活函数、决策层_.mp4
32.4神经网络三要素之一:权重矩阵_.mp4
32.3神经网络的历史发展_.mp4
32.2传统机器学习方法的问题(二)_.mp4
32.1传统机器学习方法的问题(一)_.mp4
目录:【【Python】【w门】人工智能特训营/第31讲PCA】
31.4代码展示(二)_.mp4
31.3代码展示(一)_.mp4
31.2PCA怎么做_.mp4
31.1主成分分析背后的直觉_.mp4
目录:【【Python】【w门】人工智能特训营/第30讲集群模型】
30.6Boosting方法(四)_.mp4
30.5Boosting方法(三)_.mp4
30.4Boosting方法(二)_.mp4
30.3Boosting方法(一)_.mp4
30.2Bagging方法_.mp4
30.1复习决策树_.mp4
目录:【【Python】【w门】人工智能特训营/第3讲BP算法】
3.5反向传播算法在神经网络中的应用代码展示(二)_.mp4
3.4反向传播算法在神经网络中的应用代码展示(一)_.mp4
3.3链式法则_.mp4
3.2反向传播算法的代码实现_.mp4
3.1反向传播算法的数学推导_.mp4
目录:【【Python】【w门】人工智能特训营/第29讲模拟人类理X的决策树】
29.8随机森林在回归问题上的代码演示_.mp4
29.7决策树如何应对过拟合_.mp4
29.6决策树如何应对连续特征_.mp4
29.5决策树的构建何时停下来_.mp4
29.4如何用信息增益在决策树中选择特征(二)_.mp4
29.3如何用信息增益在决策树中选择特征(一)_.mp4
29.2信息熵,如何衡量哪些特征重要_.mp4
29.1决策树是什么_.mp4
目录:【【Python】【w门】人工智能特训营/第28讲加入概率更健康之逻辑斯蒂回归】
28.9代码展示(三)_.mp4
28.8代码展示(二)_.mp4
28.7代码展示(一)_.mp4
28.6如何求解逻辑斯蒂回归模型的优化问题(二)_.mp4
28.5如何求解逻辑斯蒂回归模型的优化问题(一)_.mp4
28.4如何度量模型的目标(二)_.mp4
28.3如何度量模型的目标(一)_.mp4
28.2交叉熵KL散度_.mp4
28.1逻辑斯蒂模型的架构_.mp4
目录:【【Python】【w门】人工智能特训营/第27讲机器学习背后的数学(下)】
27.7代码展示(二)_.mp4
27.6代码展示(一)_.mp4
27.5正则化(二)_.mp4
27.4正则化(一)_.mp4
27.3如何选择好的特征值(三)_.mp4
27.2如何选择好的特征值(二)_.mp4
27.1如何选择好的特征值(一)_.mp4
目录:【【Python】【w门】人工智能特训营/第26讲机器学习背后的数学(上)】
26.9模型误差的两种分类(三)_.mp4
26.8模型误差的两种分类(二)_.mp4
26.7模型误差的两种分类(一)_.mp4
26.6如何用概率论度量模型的不确定X(五)_.mp4
26.5如何用概率论度量模型的不确定X(四)_.mp4
26.4如何用概率论度量模型的不确定X(三)_.mp4
26.3如何用概率论度量模型的不确定X(二)_.mp4
26.2如何用概率论度量模型的不确定X(一)_.mp4
26.10代码展示_.mp4
26.1机器学习什么时候会成功_.mp4
目录:【【Python】【w门】人工智能特训营/第25讲KNN算法】
25.4代码展示及KNN算法的问题_.mp4
25.3过拟合和交叉验证_.mp4
25.2如何选择KNN中的K_.mp4
25.1KNN算法是什么_.mp4
目录:【【Python】【w门】人工智能特训营/第24讲分类问题】
24.8代码展示_.mp4
24.7感知机的缺陷及课程总结_.mp4
24.6随机梯度下降、如何判断分类器的好坏_.mp4
24.5代价函数_.mp4
24.4感知机_.mp4
24.3监督学习中分类、回归及特征是什么_.mp4
24.2机器学习的三大基本范式(二)_.mp4
24.1机器学习的三大基本范式(一)_.mp4
目录:【【Python】【w门】人工智能特训营/第23讲机器学习引入】
23.8代码展示(三)_.mp4
23.7代码展示(二)_.mp4
23.6代码展示(一)_.mp4
23.5数据标注的价值_.mp4
23.4梯度下降_.mp4
23.3监督学习与损失函数_.mp4
23.2什么是模型_.mp4
23.1机器学习是什么_.mp4
目录:【【Python】【w门】人工智能特训营/第22讲深度强化学习实战】
22.1深度强化学习实战_.mp4
目录:【【Python】【w门】人工智能特训营/第21讲强化学习的近似算法】
21.9加入世界模型的好处_.mp4
21.8加入世界模型_.mp4
21.7ActorC日tic算法(二)_.mp4
21.6ActorC日tic算法(一)_.mp4
21.5Reinforce算法_.mp4
21.4策略梯度算法_.mp4
21.3策略近似算法_.mp4
21.2值函数近似算法的局限X_.mp4
21.10MonteCarloTreeSearch_.mp4
21.1值函数近似_.mp4
目录:【【Python】【w门】人工智能特训营/第20讲强化学习的近似算法(下)】
20.9TD算法_.mp4
20.8蒙特卡洛抽样和算法_.mp4
20.7贪婪收敛_.mp4
20.6贴现因子会对最优解产生什么影响?_.mp4
20.5G日dWorldExample_.mp4
20.4CarRentalExample_.mp4
20.3动态优化框架_.mp4
20.2Max贝曼优化方程(二)_.mp4
20.18表格方法_.mp4
20.17Qlearning算法_.mp4
20.16Sarsa算法(二)_.mp4
20.15Sarsa算法(一)_.mp4
20.14策略估计方法总结(二)_.mp4
20.13策略估计方法总结(一)_.mp4
20.12NstepTD算法_.mp4
20.11比较TD和蒙特卡洛方法(二)_.mp4
20.10比较TD和蒙特卡洛方法(一)_.mp4
20.1Max贝曼优化方程(一)_.mp4
页:
[1]