huzhikai 请看下图,函数h是假设的目标函数(一元线性函数,θ0是截距,θ1是斜率),函数j(θ0,θ1)是代价函数。线性回归本身是求代价函数的最小值时对应的目标函数θ0和θ1。下图红框部分为什么要分别求代价函数j=0时的j对θ0的偏导数和j=1时j对θ1的偏导数呢?关键j=0或j=1是代价函数的局部最小值么?而且从等号右侧也看不出这是在j=0和j=1时得到的表达式 ### 下方是老师andrew ng讲解时给出的理由
Cloud2016 标题和你想表达的意思完全不匹配,容易误导他人,不要再发这种东西了。多元函数求极值需要计算每个分量的导数(也就是偏导数)是非常基础的点,高等数学、微积分都会教的,任意一本相关教材都会介绍,没必要挨个发帖。如果是你自己最近在学习机器学习基础知识,不妨积攒积攒,形成完成的一篇文章发出来或者在自己的个人博客 、Github 上记流水帐。
huzhikai Cloud2016 谢谢回复! 1、你说“标题和我想表达的意思完全不匹配”,请问具体哪里不匹配,可否指出。主要我没看出不匹配的点。 2、你说“容易误导他人”。主要这是一个“提问”的。我没有观点输出。所以怎么会误导他人。可否明示?这样我以后发帖时加以注意。 3、“多元函数求极值需要计算每个分量的导数”-------------你说的我知道。但是我看的教科书在介绍有关线性回归的都介绍过有关“通过对均方误差求偏导来确定斜率和截距”的内容。但是我看过的书中没有介绍过先要对均方误差函数指定某一个常数值,再去求偏导。如果你看过的书有这样的内容,可否推荐一下书的名字。 所以为什么要先令j=1 再去求偏j/偏θ1 的原因可以很容易说清么?如果不容易说清楚,我就去看你推荐的书。
s609078902 huzhikai 看标题我以为是很新颖、没见过的东西,结果是最小二乘法; 这个小写的 j 是下标啊,大写的 J 才是函数,你是不是把两者搞错了?这里的意思不就是分别对 θ0 和 θ1 求偏导吗...