博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
【深度学习笔记】卷积层,全连接层,池化层的相关输出参数计算
阅读量:2135 次
发布时间:2019-04-30

本文共 1003 字,大约阅读时间需要 3 分钟。

目录

1 说明

kernel  == filterfeature map ×n == outputDepth == channel
符号 参数说明
Wi / Hi / Ci Width / Height / Depth of input
W Width of feature map
H Height of feature map
D Depth of feature map
F Szie of filters
K Number of th filters
S Stride of filter

2 全连接层FC,全连接NN

全连接 :每个神经元与前后相邻层的每一个神经元都有连接关系,输入是特征,输出为预测的结果。

参数个数: FC前层 × FC后层

计算量/乘法计算次数/times : FC前层 × FC后层

待优化的参数过多, 容易导致模型过拟合。 为避免这种现象, 实际应用中一般不会将原始图片直接喂入全连接网络,将会产生大量的参数,是整个网络最大的累赘。

3 卷积Convolutional

在这里插入图片描述

卷积,是提取特征的过程,也可以说成是压缩数据。有三个参数,卷积核/卷积层中神经元感知域大小kernel,滑动步长strip,填充方法padding:same/valid。

例: 输入是 7×7,滤波器是 3×3,步长为 1,填充为 0,那么就能得到一个 5×5的输出。如果输入量是 32x32x3,核是 5x5x3,不用全零填充,输出是(32-5+1)/1=28。如果要让输出量保持在 32x32x3, 可以对该层加一个大小为 2 的零填充。 可以根据需求计算出需要填充几层零。 32=(32-5+2P) /1 +1, 计算出 P=2, 即需填充 2。

  • 卷积核的个数 : 卷积核的个数=最终的featuremap的个数 = D 通过上图可以看出来,他是作者自己订的。
  • 参数的个数/Space: 卷积核的尺寸 x 卷积的深度x输出深度 = F x F x D x K 输出尺寸 :(
  • 输入数据体尺寸-卷积核+2*零填充的数量)/步长+1 = (Wi - W + 1)/S + 1 计算量/乘法计算次数/times :
  • 输入图像的尺寸x 卷卷积的尺寸 x 输入深度 x 输出深度= Wi x Hi x F x F x Di x D

普通的cnn来说 卷积的深度 == 输入数据的深度

4 参考

[1] .

转载地址:http://ruugf.baihongyu.com/

你可能感兴趣的文章
数的范围(二分查找上下界)
查看>>
算法导论阅读顺序
查看>>
Windows程序设计:直线绘制
查看>>
linux之CentOS下文件解压方式
查看>>
Django字段的创建并连接MYSQL
查看>>
div标签布局的使用
查看>>
HTML中表格的使用
查看>>
(模板 重要)Tarjan算法解决LCA问题(PAT 1151 LCA in a Binary Tree)
查看>>
(PAT 1154) Vertex Coloring (图的广度优先遍历)
查看>>
(PAT 1115) Counting Nodes in a BST (二叉查找树-统计指定层元素个数)
查看>>
(PAT 1143) Lowest Common Ancestor (二叉查找树的LCA)
查看>>
(PAT 1061) Dating (字符串处理)
查看>>
(PAT 1118) Birds in Forest (并查集)
查看>>
数据结构 拓扑排序
查看>>
(PAT 1040) Longest Symmetric String (DP-最长回文子串)
查看>>
(PAT 1145) Hashing - Average Search Time (哈希表冲突处理)
查看>>
(1129) Recommendation System 排序
查看>>
PAT1090 Highest Price in Supply Chain 树DFS
查看>>
(PAT 1096) Consecutive Factors (质因子分解)
查看>>
(PAT 1019) General Palindromic Number (进制转换)
查看>>