欢迎访问 生活随笔!

凯发k8官方网

当前位置: 凯发k8官方网 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

卷积神经网络(卷积层,激活函数relu,池化层,计算公式及api解释) -凯发k8官方网

发布时间:2024/9/30 卷积神经网络 9 豆豆
凯发k8官方网 收集整理的这篇文章主要介绍了 卷积神经网络(卷积层,激活函数relu,池化层,计算公式及api解释) 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

1. 卷积神经网络 (卷积层,激活函数,池化层,全连接层)

    (1)  把神经网络的隐藏层分为卷积层和池化层(又叫下采样层)

          · 卷积层 :  通过在原始图像上平移来提取特征

           ·  池化层 : 通过特征后稀疏参数来减少学习的参数,降低网络的复杂度。

2. 卷积层:(定义过滤器)

     (1)大小 (观察窗口)、一般都是奇数(1*1、3*3、5*5)

     (2)步长(窗口移动的步长),每次移动的像素大小,一般为一个像素

          移动的步长太大,导致移动越过图片大小:

              · 不越过,直接停止观察

              ·  就直接越过,越过之后,进行零填充,填充零的大小根据越过的大小进行填充

      (3)带着权重 ,  如果大小为3*3,即有9个权重

     (4) 计算公式:                                                  

                             

       (5)   卷积网络的api:

             

             input :  即:你输入了【多少张图片,图片的长,图片的宽,图片的通道数】,注意形状是4-d

              filter: 过滤器,【过滤器的长,过滤器的宽,过滤器的输入通道,过滤器的输出通道】              

3.新的激活函数-relu    (f(x) = max(0,u))

     (1) 增加激活函数: 增加网络的非线性分割能力

       (2) 为什么不使用sigmoid等其他的激活函数,而采用relu

                 ·  在反向传播求误差梯度时间,计算量相对大

                  · 对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度爆炸的情况。

       (3)  把卷积后的值输入到激活函数里面。

           

 4. 池化层  (池化pooling计算)

        (1)池化层主要的作用是特征提取(即删掉一些特征),通过去掉feature map(特征图)中不重要的样本,进一步减少参数数量     

         (2)   池化层的计算,    按照2*2,2的步长,取出最大的值

              

      (3) 池化层计算的api

 5. 全连接层  (full connected 层) 

     前面的卷积和池化相当于做特征工程,后面的全连接层相当于做特征加权。

              最后的全连接层在整个卷积神经网络中起到 “分类器” 的作用。

 

 

总结

以上是凯发k8官方网为你收集整理的卷积神经网络(卷积层,激活函数relu,池化层,计算公式及api解释)的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得凯发k8官方网网站内容还不错,欢迎将凯发k8官方网推荐给好友。

  • 上一篇:
  • 下一篇:
网站地图