这本书共112页,内容不多,偏向于工程向,有很多不错的细节,在此记录一下。目录:0 书籍获取1 测试集与训练集的比例2 误差分析3 方差与偏差3.1 避免偏差的技术3.2 避免方差的技术4 判断增加数据是否有效4.1 增加数据有效4.2 增加数据无效4.3 其他情况0 书籍获取关注微信公众号“机器学习炼丹术”,回复【MLY】获取pdf1 测试集与训练集的比例2 误差分析误差分析我感觉是一个成熟的A
转载
2021-04-08 16:28:40
177阅读
这本书共112页,内容不多,偏向于工程向,有很多不错的细节,在此记录一下。 误差分析我感觉是一个成熟的AIer必备的能力。俗话说数据决定准确率的上线,模型只是在逼近这个值。模型效果的提升首先是需要去看数据样本的,把分类错误的样本一个一个看一看,然后心中自己会给出判断:是否有可能…
转载
2021-07-06 16:25:25
151阅读
写在前面:文章只是为了记录学习课程的整个过程,方便以后查漏补缺,方便找到对应章节,希望看到这篇文章的同学能够认真的看一遍视频教程,会有很大收获!下一篇:2022吴恩达机器学习课程——第二课(神经网络) 文章目录第一周一、监督学习与无监督学习二、线性回归三、梯度下降第二周一、向量化二、特征缩放第三周一、逻辑回归二、训练逻辑回归模型三、逻辑回归中的梯度下降四、正则化 第一周一、监督学习与无监督学习监督
吴恩达-机器学习系列课程-Matlab作业ex1 Linear RegressionwarmUpExercise.mplotData.mcomputeCostgradientDescentfeature normalizationcomputeCostMultigradientDescentMultinormalEqnex2 Logistic RegressionplotDatasigmoidc
介绍CNN中的经典网络,LeNet-5,AlexNet,VGG。介绍残差网络,并阐述对残差块的理解。讲解1x1卷积、Inception的作用与本质。
作者:szx_spark1. 经典网络LeNet-5AlexNetVGGNg介绍了上述三个在计算机视觉中的经典网络。网络深度逐渐增加,训练的参数数量也骤增。AlexNet大约6000万参数,VGG大约上亿参
转载
2024-01-12 11:59:17
36阅读
目录1 单变量的线性回归1.1 读取数据pd.read_csv()函数创建DataFrame数据帧1.2 数据处理Dataframe.insert()函数变量赋值初始化df.shape()df.iloc[]1.3 梯度下降代价函数公式代价函数公式实现矩阵转置.T和power()梯度下降算法运算结果2 多变量线性回归2.1 数据处理DataFrame.mean()函数2.2 批量梯度下降算法 1
特别说明:图片来源于吴恩达老师视频截图。“深度学习”指的是训练神经网络,有时候规模很大。那么,神经网络究竟是什么呢?先从一个房价预测的例子开始。假设有一个六间房屋的数据集,已知房屋的面积(单位是平方英尺或平方米)、房屋价格,想要找到一个函数,根据房屋面积预测房价的函数。如果你懂线性回归,你可能会说,“好吧,用这些数据来拟合一条直线”,于是你可能会得到下面这样一条直线。但奇怪的是,你可能也知道,价格
转载
2023-08-02 21:45:05
80阅读
特别说明:图片来源于吴恩达老师视频截图。 附文本 欢迎回来,通过本周的视频课程你会学到,如何实现一个神经网络。在我们深入学习技术细节之前,通过本视频,我想带你快速地了解一下,本周课程中你会学习哪些内容。 上周,我们讨论了logistic回归,一起了解了这个模型,和下面这个流程图的联系。这里面,你需要输入特征x,参数w和b【此处w=[■(w
转载
2023-09-27 20:23:08
62阅读
本篇博客主要讲解,吴恩达机器学习第三周的编程作业,作业内容主要是利用逻辑回归算法(正则化)进行二分类。实验的原始版本是用Matlab实现的,本篇博客主要用Python来实现。 目录1.实验包含的文件2.使用逻辑回归算法(不带正则化)进行二分类3.逻辑回归算法(不带正则化)进行二分类完整项目代码4.利用逻辑回归算法(带正则化)进行二分类5.逻辑回归算法(正则化)进行二分类完整项目代码1.实
转载
2023-12-13 16:40:23
668阅读
@多变量线性回归和特征缩放前言 斯坦福大学吴恩达老师的机器学习课程几乎是每位热爱人工智能领域同学的必修课。网上虽然有许多基于python实现的代码,但大多使用python交互模式解释器ipython实例讲解。本人基于自己的理解采用pycharm提供源代码及个人理解,部分代码可能参考他人代码部分,如有侵权请私信我一、问题探讨参考视频4.2-4.3,多变量线性回归需要我们根据多个特征数据,建立模型
转载
2024-01-04 14:13:24
212阅读
文章目录神经网络综述激活函数sigmoid 函数tanh 双曲正切函数ReLu 修正线性单元Leaky ReLu神经网络的梯度下降 Lesson1 Week3 partⅠ-Ⅴ神经网络综述吴老师在课程中,举了一个最简单的神经网络示例,如下图所示:宏观把握 神经网络的层数:2 层,包括中间的隐藏层和输出层,输入层可以视为第 0 层。 输入层:每个数据样本包含有 3 个特征。输入层的数据 隐藏层:有
转载
2023-08-01 21:01:47
203阅读
文章目录1.经典的CNNLeNet-5:AlexNetVGG-162.ResNetsResidual block残差块Residual Network残差网络3.ResNet表现好的原因4. 1x1卷积1x1卷积1x1卷积应用5. Inception NetworkInception Network MotivationInception Network的计算成本问题Inception Netw
PCA求投影的垂直距离,线性回归求y轴距离 ...
转载
2021-07-13 09:08:00
136阅读
2评论
We investigate the use of deep neural networks for the novel task of class generic object detection. We show that neural networks originally designed
原创
2021-07-08 11:29:22
204阅读
大规模机器学习 Large scale machine learning学习大数据集 learning with large datasets随机梯度下降 Stochastic Gradient DescentMini-Batch 梯度下降 Mini-Batch gradient descent随机梯度下降收敛 stochastic gradient descent convergence在线学
转载
2024-01-04 06:04:46
109阅读
机器学习—吴恩达_ 第10周_学习总结21.11.8-21.11.14一、无监督学习在原有的监督学习中,无监督学习和监督学习相比监督学习有标签信息,但是无监督学习是没有标签信息的,我们需要使用特有的函数方法使数据集寻找数据中间的内在关系,如将上图分为两个点集(簇)的算法被称为聚类算法。K-均值算法算法接收没有标记的数据集,然后将数据聚类成不同的组。是一个迭代算法,使用该算法的一般步骤为:
确
文章目录课程摘要What is neural networkSimple neural networkMultiple neural networkSupervised leaning for Nenural NetworkStructured and Unstructured dataWhy is Deep Learning taking off深度学习过程 课程摘要从这门课中我们可以学到:神
转载
2023-09-03 11:45:46
97阅读
大家好!我是louwill。吴恩达老师2022年机器学习专项课(Machine Learning Specialization)上周全新来袭,课程本身并不是新课,与10年前的机器学习专项课相比,编程语言用Python代替了此前的Octave,主要定位于机器学习入门与初学者。Machine Learning Specialization主要包括3门课:监督机器学习:回归与分类高级学习算法无监督学习,
转载
2023-12-13 19:15:29
39阅读
二、改善深层神经网络第一周 深度学习的实用层面知识点总结1. 训练集与测试集分布不匹配问题训练集(train)验证集(dev)测试集(test):test和dev分布相同 2. 偏差(Bias)与方差(Variance)(1)高偏差与高方差 (2)降低偏差/方差的方法 现在可以在降低偏差/方差的同时几乎不影响另一个数值的变化。 3. 正则化(Regularization)减小过拟合,降低高方差,
本周主要讲的是Error Analysis、Mismatched Training and dev/test set,transfer learning,End to end learning几个话题。Error AnalysisCarrying out error analysis 在做错误分析的时候,最好是从错误的分类结果里边拿出100个左右的样本,做一个统计,究竟是那些样本导致了问题,这样
转载
2023-10-01 13:09:22
80阅读