文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

TensorFlow神经网络创建多层感知机MNIST数据集的方法是什么

2023-06-25 12:31

关注

这篇文章主要讲解了“TensorFlow神经网络创建多层感知机MNIST数据集的方法是什么”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“TensorFlow神经网络创建多层感知机MNIST数据集的方法是什么”吧!

前面使用TensorFlow实现一个完整的Softmax Regression,并在MNIST数据及上取得了约92%的正确率。

前文传送门: TensorFlow教程Softmax逻辑回归识别手写数字MNIST数据集

现在建含一个隐层的神经网络模型(多层感知机)。

import tensorflow as tfimport numpy as npimport input_datamnist = input_data.read_data_sets('data/', one_hot=True)n_hidden_1 = 256n_input    = 784n_classes  = 10# INPUTS AND OUTPUTSx = tf.placeholder(tf.float32, [None, n_input]) # 用placeholder先占地方,样本个数不确定为Noney = tf.placeholder(tf.float32, [None, n_classes]) # 用placeholder先占地方,样本个数不确定为None# NETWORK PARAMETERSweights = {    'w1': tf.Variable(tf.random_normal([n_input, n_hidden_1], stddev=0.1)),    'out': tf.Variable(tf.zeros([n_hidden_1, n_classes]))}biases = {    'b1': tf.Variable(tf.zeros([n_hidden_1])),    'out': tf.Variable(tf.zeros([n_classes]))}print("NETWORK READY")def multilayer_perceptron(_X, _weights, _biases): # 前向传播,l1、l2每一层后面加relu激活函数    layer_1 = tf.nn.relu(tf.add(tf.matmul(_X, _weights['w1']), _biases['b1'])) # 隐层    return (tf.matmul(layer_1, _weights['out']) + _biases['out']) # 返回输出层的结果,得到十个类别的得分值pred = multilayer_perceptron(x, weights, biases) # 前向传播的预测值cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) # 交叉熵损失函数,参数分别为预测值pred和实际label值y,reduce_mean为求平均lossoptm = tf.train.GradientDescentOptimizer(0.01).minimize(cost) # 梯度下降优化器corr = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) # tf.equal()对比预测值的索引和实际label的索引是否一样,一样返回True,不一样返回Falseaccr = tf.reduce_mean(tf.cast(corr, tf.float32)) # 将pred即True或False转换为1或0,并对所有的判断结果求均值init = tf.global_variables_initializer()print("FUNCTIONS READY")# 上面神经网络结构定义好之后,下面定义一些超参数training_epochs = 100 # 所有样本迭代100次batch_size = 100 # 每进行一次迭代选择100个样本display_step = 5# LAUNCH THE GRAPHsess = tf.Session() # 定义一个Sessionsess.run(init) # 在sess里run一下初始化操作# OPTIMIZEfor epoch in range(training_epochs):    avg_cost = 0.    total_batch = int(mnist.train.num_examples/batch_size)    # Loop over all batches    for i in range(total_batch):        batch_xs, batch_ys = mnist.train.next_batch(batch_size) # 逐个batch的去取数据        sess.run(optm, feed_dict={x: batch_xs, y: batch_ys})        avg_cost += sess.run(cost, feed_dict={x: batch_xs, y: batch_ys})/total_batch    # Display logs per epoch step    if epoch % display_step == 0:        train_acc = sess.run(accr, feed_dict={x: batch_xs, y: batch_ys})        test_acc = sess.run(accr, feed_dict={x: mnist.test.images, y: mnist.test.labels})        print("Epoch: %03d/%03d cost: %.9f TRAIN ACCURACY: %.3f TEST ACCURACY: %.3f"              % (epoch, training_epochs, avg_cost, train_acc, test_acc))print("DONE")

迭代100次看下效果,程序运行结果如下:

Epoch: 095/100 cost: 0.076462782 TRAIN ACCURACY: 0.990 TEST ACCURACY: 0.970

最终,在测试集上准确率达到97%,随着迭代次数增加,准确率还会上升。相比之前的Softmax,训练迭代100次我们的误差率由8%降到了3%,对识别银行账单这种精确度要求很高的场景,可以说是飞跃性的提高。而这个提升仅靠增加一个隐层就实现了,可见多层神经网络的效果有多显著。

没有隐含层的Softmax Regression只能直接从图像的像素点推断是哪个数字,而没有特征抽象的过程。多层神经网络依靠隐含层,则可以组合出高阶特征,比如横线、竖线、圆圈等,之后可以将这些高阶特征或者说组件再组合成数字,就能实现精准的匹配和分类。

不过,使用全连接神经网络也是有局限的,即使我们使用很深的网络,很多的隐藏节点,很大的迭代次数,也很难在MNIST数据集上达到99%以上的准确率。

感谢各位的阅读,以上就是“TensorFlow神经网络创建多层感知机MNIST数据集的方法是什么”的内容了,经过本文的学习后,相信大家对TensorFlow神经网络创建多层感知机MNIST数据集的方法是什么这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     807人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     351人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     314人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     433人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     221人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯