反向传播back propagation:神经网络递推与一般表示的向量形式
发布日期:2021-07-01 05:17:20 浏览次数:2 分类:技术文章

本文共 344 字,大约阅读时间需要 1 分钟。

零 前置知识

损失函数与激活函数

损失函数的形式称为交叉熵(cross entropy),后面的推导中的损失函数L都是此形式

梯度下降法

Repeat:

{

}

until convergence

可见若进行梯度下降法,需求出w与b对L的导数

 

一 Logistic回归中的导数与back propagation

基本结构

 

logistic回归的梯度表达式推导与反向传播

由于需要求出对w和b的导数,根据导数的链式法则,逆向一步步可最终求出w和b的导数,故导数反向传播

 

二 神经网络中梯度的向量化表达与递推关系

与logistic回归相像,易得nn中的梯度表达式与其向量化表示,如下

 

递推关系和一般形式的向量表达

对于第i层对应的向量化表示:

ps:dA的推导

dZ的推导

dZ^{[i]}=\frac{dL}{dZ^{[i]}}=\frac{dL}{dA^{[i]}}\frac{dA^{[i]}}{dZ^{[i]}}

因为A[i]=g(Z^{[i]}),所以\frac{dA^{[i]}}{dZ^{[i]}}=g^{[i]'}(Z^{[i]})

所以dZ^{[i]}=dA^{[i]}*g^{[i]}'(Z^{[i]})

 

 

转载地址:https://norstc.blog.csdn.net/article/details/83626540 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:深层网络(deepNN)中前向传播fp与后向传播bp的向量化参数 向量化表示 python表示 维数
下一篇:深度学习与神经网络关系

发表评论

最新留言

第一次来,支持一个
[***.219.124.196]2024年05月07日 02时19分07秒