Supervised Leaning:
e.g.
Housing price prediction. (Regression) 房屋租价预测
Breast cancer(maligant, benign). (Classification) 乳腺癌的恶性良性预测
Unsupervised Leaning:
e.g.
Google news. 谷歌新闻的分类(采用聚类的方法)
DNA Classification. DNA的分类,聚类算法
组织计算机集群(什么样的机器易于协同工作,进而高效)
Facebook、Google+ 的圈子分类
大公司大型数据,存储消费者信息进行,市场分类,细分市场
cocktail party 鸡尾酒🍸的酒宴中麦克风记录不同的声音,通过机器学习进行分辨出不同的声音(人声,歌声,噪声)
代价函数
代价函数 theta
代价函数的作用
使用等高线来代表代价函数
contour plot 等高线图
想象一下,这个等高线上长出一个碗来
不同的代价函数对应不同的假设函数
梯度下降 Gradient Decent
阿尔法是一个学习率,来控制梯度下降的速度
左边的是正确的 simultaneous 同步更新
右边更新在更新时使用了更新的值,无同步
如果步伐过大,将会越过最小值点
如果已经在最低点了,那么梯度下降算法将不会做任何事情
线性回归的梯度下降算法
将梯度下降算法应用到线性回归函数中后:
当代价值越来越小时,将会最终到达最符合的拟合曲线
因为在每次计算代价函数的时候,都进行了对于m个数据集的计算,所以称之为batch,批处理
除了梯度下降算法来求解代价函数的最小值,还有一个交做正规方程组方法可以使用。
梯度下降算法更适合于数据量大的计算。
矩阵乘法的妙用
python 中有关矩阵的乘法和转置
求逆时,如果为奇异矩阵-singular matrix ,将会有提示:
python中可以使用 pinv 的来计算奇异矩阵的伪逆矩阵
Multivariate linear regression 多元线性回归
New Hypothesis:
Gradient descent多元梯度下降方法
多元梯度下降 feature scaling
divide max 除以最大值方法
feature scaling 之后更容易梯度下降至找到一个局部最小值
feature scaling 条件
除以平均值方法
多元梯度下降中的学习率 ——阿尔法
代价函数逐渐收敛
学习率 阿尔法 的选择:
通常情况下是选择一个较小的学习率,但太小也会导致收敛速度变慢。
选取学习率的方法
特征和多项式回归
将 frontage 和 depth 重新定义为 area
更好二特征模型:
正规方程
通常使用梯度下降的方法来求代价函数的最小值
例如:
正规方程求代价函数最小值点
如果使用正规方程发就不需要进行缩放操作。
正规方程解与梯度下降方法的对比:
特征n数量多时,通常会选择梯度下降算法。
When matrix is non-invertible
看特征里是否有相关特征,对应到线性代数即为是否为线性相关的
Logistic Regression Classification 逻辑回归分类
线性回归应用于分类问题,通常不能永远的到一个好的结果。所以才有了后面的逻辑回归,得出一个永远的 h(theta) 函数的值在 0 ~ 1 之间。
Logistic Regression Hypothesis Representation 假设逻辑回归
sigmod function == logistic function