卷积神经网络的学习是不是就是学习卷积核?

2025年03月13日 04:14
有3个网友回答
网友(1):

在单纯的CNN网络中,或者说在某层CNN网络中,是的。
卷积核的目的,就是为了重复利用普通神经网络(比如,全连接网络)的权重参数,达到减少全局参数数量,减少训练的计算量的目的。

网友(2):

CNN的卷积层 学习参数就是卷积核,但cnn还包含了全连接层,Dense层的参数w,b也是cnn要学习的对象

网友(3):

卷积神经网络包括 卷积 池化 和 激活函数,因此,卷积核仅仅是卷积操作中的一个组件。