GuoXin Li's Blog

Learn AndrewNg-MachineLearning notes

字数统计: 877阅读时长: 3 min
2020/11/28 Share

Supervised Leaning:

e.g.

  • Housing price prediction. (Regression) 房屋租价预测

  • Breast cancer(maligant, benign). (Classification) 乳腺癌的恶性良性预测

Unsupervised Leaning:

e.g.

  • Google news. 谷歌新闻的分类(采用聚类的方法)

  • DNA Classification. DNA的分类,聚类算法

  • 组织计算机集群(什么样的机器易于协同工作,进而高效)

  • Facebook、Google+ 的圈子分类

  • 大公司大型数据,存储消费者信息进行,市场分类,细分市场

  • cocktail party 鸡尾酒🍸的酒宴中麦克风记录不同的声音,通过机器学习进行分辨出不同的声音(人声,歌声,噪声)

代价函数

image-20201128001043034

image-20201128001208038

image-20201128001331719

image-20201128002225309

代价函数 theta

image-20201128001331719

image-20201128002225309

image-20201128002355980

代价函数的作用

image-20201128002539163

image-20201128002714684

image-20201128002714684

使用等高线来代表代价函数

contour plot 等高线图

image-20201128002952837

想象一下,这个等高线上长出一个碗来

不同的代价函数对应不同的假设函数

梯度下降 Gradient Decent

image-20201128003530397

image-20201128003554240

image-20201128003757283

image-20201128004027942

阿尔法是一个学习率,来控制梯度下降的速度

image-20201128004409451

左边的是正确的 simultaneous 同步更新

右边更新在更新时使用了更新的值,无同步

image-20201128005531564

image-20201128005730763

如果步伐过大,将会越过最小值点

image-20201128005854145

如果已经在最低点了,那么梯度下降算法将不会做任何事情

image-20201128010156987

线性回归的梯度下降算法

image-20201128010407579

image-20201128010902400

将梯度下降算法应用到线性回归函数中后:

image-20201128011023572

当代价值越来越小时,将会最终到达最符合的拟合曲线

image-20201128011404831

因为在每次计算代价函数的时候,都进行了对于m个数据集的计算,所以称之为batch,批处理

image-20201128011618967

除了梯度下降算法来求解代价函数的最小值,还有一个交做正规方程组方法可以使用。

梯度下降算法更适合于数据量大的计算。

矩阵乘法的妙用

image-20201128233000407

python 中有关矩阵的乘法和转置

image-20201128233000407

image-20201129005158320

求逆时,如果为奇异矩阵-singular matrix ,将会有提示:

image-20201129010025788

image-20201129010226792

python中可以使用 pinv 的来计算奇异矩阵的伪逆矩阵

image-20201204103320335

Multivariate linear regression 多元线性回归

image-20201129110527040

New Hypothesis:

image-20201129110633901

image-20201129111023093

Gradient descent多元梯度下降方法

image-20201129111307808

image-20201129111744934

image-20201129111744934

多元梯度下降 feature scaling

divide max 除以最大值方法

image-20201201170055672

feature scaling 之后更容易梯度下降至找到一个局部最小值

feature scaling 条件

image-20201201170317073

除以平均值方法

image-20201201171035772

多元梯度下降中的学习率 ——阿尔法

image-20201201171819775

代价函数逐渐收敛

image-20201201172029595

学习率 阿尔法 的选择:

通常情况下是选择一个较小的学习率,但太小也会导致收敛速度变慢。

image-20201201172322418

选取学习率的方法

特征和多项式回归

image-20201203100047476

将 frontage 和 depth 重新定义为 area

image-20201203100412974

更好二特征模型:

image-20201203100603941

正规方程

通常使用梯度下降的方法来求代价函数的最小值

image-20201203101955873

image-20201203102336345

例如:

image-20201204111655518

正规方程求代价函数最小值点

image-20201203102908070

如果使用正规方程发就不需要进行缩放操作。

正规方程解与梯度下降方法的对比:

image-20201203103213877

特征n数量多时,通常会选择梯度下降算法。

When matrix is non-invertible

image-20201203124741104

看特征里是否有相关特征,对应到线性代数即为是否为线性相关的

Logistic Regression Classification 逻辑回归分类

image-20201205111311855

线性回归应用于分类问题,通常不能永远的到一个好的结果。所以才有了后面的逻辑回归,得出一个永远的 h(theta) 函数的值在 0 ~ 1 之间。

Logistic Regression Hypothesis Representation 假设逻辑回归

image-20201205111805487

sigmod function == logistic function

image-20201205112012525

image-20201205112347863

CATALOG
  1. 1. Supervised Leaning:
  2. 2. Unsupervised Leaning:
  3. 3. 代价函数
  4. 4. 梯度下降 Gradient Decent
  5. 5. 线性回归的梯度下降算法
  6. 6. 矩阵乘法的妙用
  7. 7. Multivariate linear regression 多元线性回归
  8. 8. Gradient descent多元梯度下降方法
  9. 9. 多元梯度下降 feature scaling
  10. 10. 多元梯度下降中的学习率 ——阿尔法
  11. 11. 特征和多项式回归
  12. 12. 正规方程
  13. 13. When matrix is non-invertible
  14. 14. Logistic Regression Classification 逻辑回归分类
  15. 15. Logistic Regression Hypothesis Representation 假设逻辑回归