cnn是什么(神经网络cnn详解)

CNN广泛应用于图像处理和视频处理领域。让我们了解CNN它是如何工作的。

在本文中,我将介绍如何演变卷积神经网络的详细信息以及为什么它们如此优秀。我们还将进行实际操作,我们将使用它Keras构建卷积神经网络。

卷积神经网类似于普通神经网。它们还由神经元组成,学习重量和偏差。它们输入图像,然后编码系统结构中的某些属性。

卷积神经网络(convolutional neural network)表示网络使用一种称为卷积的数学操作。

卷积是实值参数两个函数的运算。

在卷积神经网络术语中,卷积的第一个参数通常称为输入,第二个参数称为核,其输出称为特征映射。

现在我将展示如何在我们身上CNN这个数学术语卷积在中间应用。

因此,您可以看到绿色矩阵是输入(由输入图像的像素组成的矩阵),黄色矩阵是核。所以在这里你可以看到核矩阵如何与输入矩阵卷积,给我们一个特征映射。您可以看到特征图的尺寸发生了一些变化。不用担心一段时间后会详细介绍。让我们继续下一个主题Pooling。

池化层主要用于连续卷积层之间。为了减少参数的数量和网络的计算,用于减少表示的空间大小。池化层独立应用于输入的每一个深片,降低输入的空间维度。主要用于减少过度拟合。如果我们应用于输入应用MAX POOLING,filter大小为2X2.如果步幅为2,则在宽度和高度上采样输入尺寸,以保持深度不受影响,这意味着它丢弃了75%的激活。以下是如何实现池化层的图像。

现在我们将讨论用于计算输出层尺寸的公式。

在这个公式中,p和s分别是padding 和striding。我们将逐一了解它的细节。

padding 在边缘周围添加额外的像素。实际上,Padding所做的就是确保角落里的像素得到所需的关注。请注意,我的意思是,当输入矩阵旋转时,中间像素在卷积操作中不止一次获得更多的权重,而角像素只涉及一个卷积操作。因此,padding 考虑角点像素,在原始矩阵周围提供额外的一层或多层。

在卷积神经网络中Striding非常重要。在这里,我将讨论如何在两个图像的帮助下实现它Striding使其清晰。

所以在这张照片中,我们可以看到,一步,我们跳两个网格,而不是发送红色的框架。使用更大Striding主要原因之一是减少输出特征图中的参数。

现在我们要设计自己了CNN模型了。

在这一部分,我们将设计自己的卷积神经网络。CNN由卷积层、池化层和全连接层组成(最后可以添加)softmax解决多种问题)。

如下图所示,我们将使用的架构。我将使用Keras实现。现在,让我们进入架构。因此,我们将实现一个两层卷积神经网络,我使用它ReLU激活函数和最大池化技术。最后有两个全连接层softmax激活。

Python实现如下:

model=Sequential()

model.add(Conv2D(32,kernel_size=(5,5),strides=(1,1),
activation='relu',
input_shape=input_shape))
model.add(MaxPooling2D(pool_size=(2,2),strides=(2,2)))
model.add(Conv2D(64,(5,5),activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Flatten())
model.add(Dense(1000,activation='relu'))
model.add(Dense(num_classes,activation='softmax'))

model.compile(loss=keras.losses.categorical_crossentropy,
optimizer=keras.optimizers.SGD(lr=0.01),
metrics=['accuracy'])

model.fit(x_train,y_train,
batch_size=batch_size,
epochs=epochs,
verbose=1,
validation_data=(x_test,y_test),
callbacks=[history])

在第一层,我们用了32个大小5X5的filter,具有步幅1和ReLU激活函数。接下来,我们增加了最大池进行池化。接下来,我们添加了最大池进行池化。在这个层中,我们使用了64个大小为5X5过滤器,然后是最大的池化层。然后我们用了一个flattened 层。之后,我们分别使用了它ReLU和softmax激活的两个dense 层。然后我们使用交叉熵作为我们的损失函数和随机梯度下降(SGD)减少损失。然后我们根据我们的用例训练模型。

所以你看到了使用Keras编写CNN很容易。请尝试使用自己的数据集。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

留言与评论(共有 0 条评论)
   
验证码:
微信号已复制,请打开微信添加咨询详情!