实现逻辑函数式简化过程,求过程

第三周课程中逻辑回归代价函數的求导过程没有具体展开,在此推导并记录:

逻辑回归的代价函数可以统一写成如下一个等式:

为了避免求导过程太冗长复杂我们做┅些显示的简化:

OK,下面开始我们的推导过程:如果要求$J(\theta)$对某一个参数$\theta$的偏导数则:

(1)根据求导公式,可以先把常数项$-\frac{1}{m}\sum_{i=1}^{m}$提取出来这樣就只需要对求和符号内部的表达式求导,即:

(4)把步骤3的结果带入步骤2化简后可得:

再把上面结果带入步骤1,化简后可得:

(1)找一个合适的预测函数(Andrew Ng的公开课中称为hypothesis)一般表示为h函数,该函数就是我们需要找的分类函数它用来预测输入数据的判断结果。这个过程时非常关键的需要對数据有一定的了解或分析,知道或者猜测预测函数的“大概”形式比如是线性函数还是非线性函数。

(2)构造一个Cost函数(损失函数)该函数表示预测的输出(h)与训练数据类别(y)之间的偏差,可以是二者之间的差(h-y)或者是其他的形式综合考虑所有训练数据的“損失”,将Cost求和或者求平均记为J(θ)函数,表示所有训练数据预测值与实际类别的偏差

(3)显然,J(θ)函数的值越小表示预测函数越准确(即h函数越准确)所以这一步需要做的是找到J(θ)函数的最小值。找函数的最小值有不同的方法Logistic Regression实现时有的是梯度下降法(Gradient Descent)。



我要回帖

更多关于 逻辑函数式简化过程 的文章

 

随机推荐