
吴恩达ML
cheney康
中山大学计算机学院研究生
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
吴恩达 机器学习笔记六(lecture 6)(逻辑回归LR)
逻辑回归(Logistic Regression)1、classificationeg.垃圾邮件识别、交易是否是欺诈、肿瘤类别2、Hypothesis Representation很多时候,我们希望我们的预测值输出范围在0~1之间,可以加入一个sigmoid函数(可以称为逻辑函数),类似神经网络的激活函数,输出范围就控制在了0~1之间原创 2017-11-30 23:54:35 · 2634 阅读 · 0 评论 -
吴恩达 机器学习笔记七(lecture 7)(正则化Regularization)
正则化 Regularization1、过拟合 overfittingeg1:线性回归图一:欠拟合,高偏差图三:过拟合,高方差(一般在变量很多的时候发生,这种时候训练出的方程总能很好拟合训练数据,但是对于新的样本数据不能体现出很好的繁华能力)原创 2017-12-01 17:21:12 · 4751 阅读 · 0 评论 -
吴恩达 机器学习笔记八(lecture 8)(神经网络一)
神经网络一(Neural Networks)表层结构1、Non-linear hypotheses用逻辑回归算法来做这个分类的话,首先要构造逻辑回归函数。这个例子只有两个特征值,但是当我们包含多个特征值的时候,这种分类器就很局限。当我们识别一辆车的时候,我们是根据图片每个部位的灰度值来识别的。假设我们有一张50x50像素的图片,那么他就有2500个灰度值,用之前原创 2017-12-02 22:45:50 · 620 阅读 · 0 评论 -
吴恩达 机器学习笔记二(lecture 2)(损失函数、梯度下降)
一、单变量的LR模型二、损失函数(cost function)三、梯度下降(Gradient descent)梯度下降法基础知识原创 2017-11-22 21:54:14 · 3489 阅读 · 0 评论 -
吴恩达 机器学习笔记三(lecture 3)(矩阵和向量)
矩阵和向量(Matrices and vectors)m * n的矩阵就是指m行(横向)n列(纵向),Aij是指第i行,第j个元素。一般用大写来表示矩阵。矩阵的运算也比较简单,矩阵求和就是对应位置求和即可,所以维数不同的矩阵不可以求和,矩阵的倍数就是所有位置乘以相应的倍数。还有矩阵的逆(可以用一些工具来求,如Octave 和Matlab),矩阵的转置这些都比较简单。原创 2017-11-23 16:32:35 · 1233 阅读 · 0 评论 -
吴恩达 机器学习笔记一(lecture 1)(监督、无监督学习)
机器学习概述主流应用:自然语言处理(NLP:Natural Language Processing)、计算机视觉(CV:Computer Vision)机器学习定义:Tom Mitchell(1998):“A computer program is said tolearn from experience E with respect to some task T an原创 2017-11-21 22:00:10 · 826 阅读 · 1 评论 -
吴恩达 机器学习笔记四(lecture 4)(多特征值,梯度下降与Normal equation)
线性回归处理多个特征值(Linear Regression with multiple variables)1、多特征值线性回归的假设函数形式2、梯度下降3、标准方程法(Normal equation)4、梯度下降和Normal equation的比较假设原创 2017-11-25 17:25:41 · 1894 阅读 · 0 评论 -
吴恩达 机器学习笔记五(lecture 5)(Octave 使用)
请移步Octave 入门原创 2017-11-28 11:16:14 · 1684 阅读 · 0 评论