欢迎访问 生活随笔!

凯发k8官方网

当前位置: 凯发k8官方网 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

经典卷积神经网络-凯发k8官方网

发布时间:2024/9/21 卷积神经网络 18 豆豆
凯发k8官方网 收集整理的这篇文章主要介绍了 经典卷积神经网络--lenet-5的详解 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

lenet由yann lecun 创建,并将该网络用于邮局的邮政的邮政编码识别,有着良好的学习和识别能力。lenet又称lenet-5,具有一个输入层,两个卷积层,两个池化层,3个全连接层(其中最后一个全连接层为输出层。lenet网络结构图如下:

lenet-5共有7层(不包含输入),每层都包含可训练参数。

输入图像大小为32*32,比mnist数据集的图片要大一些,这么做的原因是希望潜在的明显特征如笔画断点或角能够出现在最高层特征检测子感受野(receptive field)的中心。因此在训练整个网络之前,需要对28*28的图像加上paddings(即周围填充0)。

c1层:该层是一个卷积层。使用6个大小为5*5的卷积核,步长为1,对输入层进行卷积运算,特征图尺寸为32-5 1=28,因此产生6个大小为28*28的特征图。这么做够防止原图像输入的信息掉到卷积核边界之外。

s2层:该层是一个池化层(pooling,也称为下采样层)。这里采用max_pool(最大池化),池化的size定为2*2,经池化后得到6个14*14的特征图,作为下一层神经元的输入。

c3层:该层仍为一个卷积层,我们选用大小为5*5的16种不同的卷积核。这里需要注意:c3中的每个特征图,都是s2中的所有6个或其中几个特征图进行加权组合得到的。输出为16个10*10的特征图。

s4层:该层仍为一个池化层,size为2*2,仍采用max_pool。最后输出16个5*5的特征图,神经元个数也减少至16*5*5=400。

c5层:该层我们继续用5*5的卷积核对s4层的输出进行卷积,卷积核数量增加至120。这样c5层的输出图片大小为5-5 1=1。最终输出120个1*1的特征图。这里实际上是与s4全连接了,但仍将其标为卷积层,原因是如果lenet-5的输入图片尺寸变大,其他保持不变,那该层特征图的维数也会大于1*1。

f6层:该层与c5层全连接,输出84张特征图。为什么是84?下面有论文的解释(感谢翻译)。

输出层:该层与f6层全连接,输出长度为10的张量,代表所抽取的特征属于哪个类别。(例如[0,0,0,1,0,0,0,0,0,0]的张量,1在index=3的位置,故该张量代表的图片属于第三类)

该代码是用搭建好的lenet-5网络来实现mnist手写体数字的识别

from keras.datasets import mnist from keras.utils import np_utils from keras.layers.core import dense,activation ,dropout from keras.models import sequential from keras.layers import convolution2d from keras.layers import maxpool2d,flatten from keras.utils.vis_utils import plot_model from matplotlib import pyplot as plt #图像数据预处理 (x_train,y_train),(x_test,y_test)=mnist.load_data() x_test1=x_test #备份未经处理的测试数据,为最后预测阶段做准备 y_test1=y_test #备份未经处理的测试标签,为最后预测阶段做准备x_train=x_train.reshape(-1,28,28,1).astype("float32")/255.0 #四维张量 x_test=x_test.reshape(-1,28,28,1).astype("float32")/255.0#标签预处理 nb_classes=10 y_train=np_utils.to_categorical(y_train,nb_classes) y_test=np_utils.to_categorical(y_test,nb_classes)#简单cnn的搭建(一个输入层,两个隐藏层,一个全连接层,一个输出层) #是基于序惯式sequential()搭建网络模型的 model=sequential() #第一层卷积层,搭建层c1层,卷积核大小5*5,个数为6 model.add(convolution2d(filters=6, #卷积核个数kernel_size=(5,5), #卷积核大小5*5strides=1,padding="same",#像素填充方式选择sameactivation="tanh",input_shape=(28, 28, 1)#输入数据28*28*1 )) #model.add(activation("relu")) #第一层池化层,搭建s2层,池化池化窗口大小2*2 model.add(maxpool2d(pool_size=(2,2),#池化窗口大小2*2strides=1,#池化步长为2padding="same" #像素填充方式为same ))#第二层隐藏层,搭建c3层,卷积核大小5*5,个数为16 model.add(convolution2d(filters=16, #卷积核的个数kernel_size=(5,5),#卷积核的大小padding="same",#填充方式activation="tanh" )) #第二层池化层,搭建s4层,池化窗口大小为2*2 model.add(maxpool2d(pool_size=(2,2),#池化窗口大小strides=1,#池化步长padding="same"))#将卷积层输出为二维数组,全连接层输入为一维数组,flatten默认按行降维,返回一个一维数组 model.add(flatten()) #全连接层 model.add(dense(120)) #全连接层,该层有120个神经元,一般都是1024,2048,4096个神经元 model.add(activation("tanh")) #激活函数 #model.add(dropout(0.2)) #设置为0.2,该层会随机忽略百分之20的神经元 model.add(dense(84)) #全连接层,该层有84个神经元,一般都是1024,2048,4096个神经元 model.add(activation("tanh")) #激活函数 #输出层 model.add(dense(nb_classes)) #输出层,神经元个数为10,对mnist数据集时分类 model.add(activation("softmax")) #激活函数 #显示模型摘要 model.summary() #plot_model(model=model, to_file="model_cnn.png", show_shapes=true)#编译 model.compile(optimizer="adam",loss="categorical_crossentropy",metrics=["accuracy"] )#训练 nb_epoch=10 batchsize=1024 training =model.fit(x=x_train,y=y_train,epochs=nb_epoch,batch_size=batchsize,verbose=2,validation_split=0.2 )#画出训练过程随着时期(epoc)准确率的变化图 def show_accuracy1(train_history,train,validation):plt.plot(training.history[train],linestyle="-",color="b") #训练数据结果,“-”代表实线,“b“代表蓝色plt.plot(training.history[validation],linestyle="--",color="r")#训练数据结果,“--”代表虚线,“r“代表红色plt.title("training_accurancy")plt.xlabel("epoch") #显示x轴标签epocplt.ylabel("train") #显示y轴标签trainplt.legend(["train","validation"],loc="lower right")plt.show() show_accuracy1(training,"accuracy","val_accuracy")#画出训练过程中随着时期(epoch)误差的变化图 def show_accuracy2(train_history,train,validation):plt.plot(training.history[train],linestyle="-",color="b") #训练数据结果,“-”代表实线,“b“代表蓝色plt.plot(training.history[validation],linestyle="--",color="r")#训练数据结果,“--”代表虚线,“r“代表红色plt.title("training_loss")plt.xlabel("epoch") #显示x轴标签epocplt.ylabel("train") #显示y轴标签trainplt.legend(["train","validation"],loc="upper right")plt.show() show_accuracy2(training,"loss","val_loss")#模型评估 test=model.evaluate(x_test,y_test,verbose=1) print("误差:",test[0]) print("准确率:",test[1])#预测 prediction=model.predict_classes(x_test) #将预测结果存到prediction def plot_image(image): #输入为原始图像fig=plt.gcf() #获取当前的图像fig.set_size_inches(2,2)#设置图像大小plt.imshow(image,cmap="binary") #使用plt.inshow显示图像plt.show() #开始绘图 #查看图像,真是标签及与测值 def pre_result(i):plot_image(x_test1[i])print("真实值:",y_test1[i])print("预测值:",prediction[i]) pre_result(4) #即第五项测试项预测

 

总结

以上是凯发k8官方网为你收集整理的经典卷积神经网络--lenet-5的详解的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得凯发k8官方网网站内容还不错,欢迎将凯发k8官方网推荐给好友。

网站地图