Supervised Leaning:
e.g.
Housing price prediction. (Regression) 房屋租价预测
Breast cancer(maligant, benign). (Classification) 乳腺癌的恶性良性预测
Unsupervised Leaning:
e.g.
Google news. 谷歌新闻的分类(采用聚类的方法)
DNA Classification. DNA的分类,聚类算法
组织计算机集群(什么样的机器易于协同工作,进而高效)
Facebook、Google+ 的圈子分类
大公司大型数据,存储消费者信息进行,市场分类,细分市场
cocktail party 鸡尾酒🍸的酒宴中麦克风记录不同的声音,通过机器学习进行分辨出不同的声音(人声,歌声,噪声)
代价函数




代价函数 theta



代价函数的作用



使用等高线来代表代价函数
contour plot 等高线图

想象一下,这个等高线上长出一个碗来
不同的代价函数对应不同的假设函数
梯度下降 Gradient Decent




阿尔法是一个学习率,来控制梯度下降的速度

左边的是正确的 simultaneous 同步更新
右边更新在更新时使用了更新的值,无同步


如果步伐过大,将会越过最小值点

如果已经在最低点了,那么梯度下降算法将不会做任何事情

线性回归的梯度下降算法


将梯度下降算法应用到线性回归函数中后:

当代价值越来越小时,将会最终到达最符合的拟合曲线

因为在每次计算代价函数的时候,都进行了对于m个数据集的计算,所以称之为batch,批处理

除了梯度下降算法来求解代价函数的最小值,还有一个交做正规方程组方法可以使用。
梯度下降算法更适合于数据量大的计算。
矩阵乘法的妙用

python 中有关矩阵的乘法和转置


求逆时,如果为奇异矩阵-singular matrix ,将会有提示:


python中可以使用 pinv 的来计算奇异矩阵的伪逆矩阵

Multivariate linear regression 多元线性回归

New Hypothesis:


Gradient descent多元梯度下降方法



多元梯度下降 feature scaling
divide max 除以最大值方法

feature scaling 之后更容易梯度下降至找到一个局部最小值
feature scaling 条件

除以平均值方法

多元梯度下降中的学习率 ——阿尔法

代价函数逐渐收敛

学习率 阿尔法 的选择:
通常情况下是选择一个较小的学习率,但太小也会导致收敛速度变慢。

选取学习率的方法
特征和多项式回归

将 frontage 和 depth 重新定义为 area

更好二特征模型:

正规方程
通常使用梯度下降的方法来求代价函数的最小值


例如:

正规方程求代价函数最小值点

如果使用正规方程发就不需要进行缩放操作。
正规方程解与梯度下降方法的对比:

特征n数量多时,通常会选择梯度下降算法。
When matrix is non-invertible

看特征里是否有相关特征,对应到线性代数即为是否为线性相关的
Logistic Regression Classification 逻辑回归分类

线性回归应用于分类问题,通常不能永远的到一个好的结果。所以才有了后面的逻辑回归,得出一个永远的 h(theta) 函数的值在 0 ~ 1 之间。
Logistic Regression Hypothesis Representation 假设逻辑回归

sigmod function == logistic function

