首页 资料正文

神经网络-全连接层(2)

woniu 资料 2020-03-22 23:13:00 54251 0 | 文章出自:用户投稿

apple-system, BlinkMacSystemFont, "Helvetica Neue", "PingFang SC", "Microsoft YaHei", "Source Han Sans SC", "Noto Sans CJK SC", "WenQuanYi Micro Hei", sans-serif; font-size: medium;">神经网络-全连接层(2)

apple-system, BlinkMacSystemFont, "Helvetica Neue", "PingFang SC", "Microsoft YaHei", "Source Han Sans SC", "Noto Sans CJK SC", "WenQuanYi Micro Hei", sans-serif; font-size: medium;">神经网络-全连接层(2)  , 同层的其他参数不再赘述

神经网络-全连接层(2)

      到这歇一下,我们已经顺利求出第二层的所有参数的导数了,具体的求导过程在这就不说了。下面是第一层

神经网络-全连接层(2)  , 同层的其他参数不再赘述

神经网络-全连接层(2)  ,同层的其他参数不再赘述

神经网络-全连接层(2)

神经网络-全连接层(2)  ,同层的其他参数不再赘述

神经网络-全连接层(2)  ,同层的其他参数不再赘述

      到这里,我们实际上已经完成了基本运算,后面的事情就是把这些小的部分组合起来,比方说:

神经网络-全连接层(2)

      看着十分复杂是吧?可是实际上其中每一个部分都已经被我们计算了,我们只需要把数据全部代入就可以了。当然,实际上如果严格按照公式进行计算,梯度的公式会比这个更复杂,但是其中一部分梯度实际上等于0,所以在此略去。

      而且,随着我们从高层网络向低层计算的过程中,很多中间结果可以用于计算高层参数的梯度了。所以经过整理,全部的计算过程可以如下表示:

神经网络-全连接层(2)

神经网络-全连接层(2)

  1. 神经网络-全连接层(2)  , 同层的其他参数不再赘述

神经网络-全连接层(2)

  1. 神经网络-全连接层(2)  , 同层的其他参数不再赘述
  2. 神经网络-全连接层(2)  ,同层的其他参数不再赘述
  3. 神经网络-全连接层(2) , 同层的其他参数不再赘述
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

本文链接:https://www.chinaai.com/ziliao/571.html

评论