最近在看SVM方法,其中最优化的部分牵涉到拉格朗日乘数法,另外还有个对偶性。
找出高等数学下册里看懂了拉格朗日乘数法的玄机之后,再看所谓对偶性,这部分在高等数学上貌似没有,谁知道在哪本教材上有详细解释对偶性的么?
另外一个问题如下:
求f(x,y)在k(x,y)=0约束下的极值,这个我基本上清楚了,至少高等数学教材上写的蛮清楚了。但是再看斯坦福机器学习讲义以及一些网友的学习笔记后,我还是有点看不懂,讲义上说在构造了拉格朗日函数L(w,a)=f(w)+Sigma(a*h(w)) 之后,分别对w和a求偏导数,这个我觉得不太对,高等数学上的例子中是不需要对拉格朗日乘数求偏导的,只要对w求偏导即可。
不知道我表达清楚了没有,看懂我意思的朋友给我点帮助吧,谢谢。