卷积核是卷积神经网络(Convolutional Neural Network,CNN)中的重要组成部分,用于提取输入数据的特征。卷积核的参数量是指卷积核中需要学习的参数的数量。在CNN中,卷积核的参数量与卷积核的大小、输入数据的通道数以及输出数据的通道数有关。
首先,我们来看一维卷积核的参数量。一维卷积核通常用于处理序列数据,如文本和音频。假设输入数据的通道数为C_in,输出数据的通道数为C_out,卷积核的大小为K,那么一维卷积核的参数量为C_in * C_out * K。
2025年09月20日
卷积核是卷积神经网络(Convolutional Neural Network,CNN)中的重要组成部分,用于提取输入数据的特征。卷积核的参数量是指卷积核中需要学习的参数的数量。在CNN中,卷积核的参数量与卷积核的大小、输入数据的通道数以及输出数据的通道数有关。
首先,我们来看一维卷积核的参数量。一维卷积核通常用于处理序列数据,如文本和音频。假设输入数据的通道数为C_in,输出数据的通道数为C_out,卷积核的大小为K,那么一维卷积核的参数量为C_in * C_out * K。
2025年09月20日
BN层,即所谓的Batch Normalization,现已经成为神经网络种的标配,它有什么样的魅力以致人们对它如此青睐呢?就让我们一起来看看BN的前因后世吧。欢迎大家一起交流~~~
提出的背景:
随机梯度下降法训练网络的缺点:
1、需要人为的去选择合适的参数,比如学习率、参数初始化、权重衰减系数、Dropout等
2、网络在训练时,存在梯度消失和梯度爆炸的问题:
梯度消失:以sigmoid函数为例