iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >基于Tensorflow如何搭建一个神经网络
  • 508
分享到

基于Tensorflow如何搭建一个神经网络

2023-06-15 02:06:41 508人浏览 独家记忆
摘要

小编给大家分享一下基于Tensorflow如何搭建一个神经网络,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!一、Tensorlow结构import te

小编给大家分享一下基于Tensorflow如何搭建一个神经网络,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

一、Tensorlow结构

import tensorflow as tfimport numpy as np #创建数据x_data = np.random.rand(100).astype(np.float32)y_data = x_data*0.1+0.3 #创建一个 tensorlow 结构weights = tf.Variable(tf.random_unifORM([1], -1.0, 1.0))#一维,范围[-1,1]biases = tf.Variable(tf.zeros([1])) y = weights*x_data + biases loss = tf.reduce_mean(tf.square(y - y_data))#均方差函数 #建立优化器,减少误差,提高参数准确度,每次迭代都会优化optimizer = tf.train.GradientDescentOptimizer(0.5)#学习率为0.5(<1)train = optimizer.minimize(loss)#最小化损失函数 #初始化不变量init = tf.global_variables_initializer() with tf.Session() as sess:    sess.run(init)    #train    for step in range(201):        sess.run(train)        if step % 20 == 0:            print(step, sess.run(weights), sess.run(biases))

二、session的使用

import tensorflow as tf matrix1 = tf.constant([[3, 3]])matrix2 = tf.constant([[2], [2]]) product = tf.matmul(matrix1, matrix2) #method1sess = tf.Session()result2 = sess.run(product)print(result2) #method2# with tf.Session() as sess:#     result2 = sess.run(product)#     print(result2)

三、Variable的使用

import tensorflow as tf state = tf.Variable(0, name = 'counter')#变量初始化# print(state.name)one = tf.constant(1)new_value = tf.add(state, one)#将state用new_value代替updata = tf.assign(state, new_value) #变量激活init = tf.global_variables_initializer() with tf.Session() as sess:    sess.run(init)    for _ in range(3):        sess.run(updata)        print(sess.run(state))

四、placeholder的使用

#给定type,tf大部分只能处理float32数据input1 = tf.placeholder(tf.float32)input2 = tf.placeholder(tf.float32) output = tf.multiply(input1, input2) with tf.Session() as sess:    print(sess.run(output, feed_dict={input1:[7.], input2:[2.]}))

五、激活函数 六、添加层

import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt def add_layer(inputs, in_size, out_size, activation_function = None):    Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正态分布    biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推荐为0,所以加上0.1    Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值     #激活     if activation_function is None:        #如果没有设置激活函数,,则直接把当前信号原封不动的传递出去        outputs = Wx_plus_b    else:        #如果设置了激活函数,则由此激活函数对信号进行传递或抑制        outputs = activation_function(Wx_plus_b)    return outputs

七、创建一个神经网络

import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt def add_layer(inputs, in_size, out_size, activation_function = None):    Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正态分布    biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推荐为0,所以加上0.1    Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值     #激活     if activation_function is None:        #如果没有设置激活函数,,则直接把当前信号原封不动的传递出去        outputs = Wx_plus_b    else:        #如果设置了激活函数,则由此激活函数对信号进行传递或抑制        outputs = activation_function(Wx_plus_b)    return outputs """定义数据形式"""#创建一列(相当于只有一个属性值),(-1,1)之间,有300个单位,后面是维度,x_data是有300行x_data = np.linspace(-1, 1, 300)[:, np.newaxis]#np.linspace在指定间隔内返回均匀间隔数字#加入噪声,均值为0,方差为0.05,形状和x_data一样noise = np.random.normal(0, 0.05, x_data.shape)#定义y的函数为二次曲线函数,同时增加一些噪声数据y_data = np.square(x_data) - 0.5 + noise #定义输入值,输入结构的输入行数不固定,但列就是1列的值xs = tf.placeholder(tf.float32, [None, 1])ys = tf.placeholder(tf.float32, [None, 1]) """建立网络"""#定义隐藏层,输入为xs,输入size为1列,因为x_data只有一个属性值,输出size假定有10个神经元的隐藏层,激活函数relul1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)#定义输出层,输出为l1输入size为10列,也就是l1的列数,输出size为1,这里的输出类似y_data,因此为1列prediction = add_layer(l1, 10, 1,activation_function=None) """预测"""#定义损失函数为差值平方和的平均值loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) """训练"""#进行逐步优化的梯度下降优化器,学习率为0.1,以最小化损失函数进行优化train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#初始化模型所有参数init = tf.global_variables_initializer() #可视化with tf.Session() as sess:    sess.run(init)     for i in range(1000):#学习1000次        sess.run(train_step, feed_dict={xs:x_data, ys:y_data})        if i%50==0:            print(sess.run(loss, feed_dict={xs:x_data, ys:y_data}))

八、可视化

import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt def add_layer(inputs, in_size, out_size, activation_function = None):    Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正态分布    biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推荐为0,所以加上0.1    Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值     #激活     if activation_function is None:        #如果没有设置激活函数,,则直接把当前信号原封不动的传递出去        outputs = Wx_plus_b    else:        #如果设置了激活函数,则由此激活函数对信号进行传递或抑制        outputs = activation_function(Wx_plus_b)    return outputs """定义数据形式"""#创建一列(相当于只有一个属性值),(-1,1)之间,有300个单位,后面是维度,x_data是有300行x_data = np.linspace(-1, 1, 300)[:, np.newaxis]#np.linspace在指定间隔内返回均匀间隔数字#加入噪声,均值为0,方差为0.05,形状和x_data一样noise = np.random.normal(0, 0.05, x_data.shape)#定义y的函数为二次曲线函数,同时增加一些噪声数据y_data = np.square(x_data) - 0.5 + noise #定义输入值,输入结构的输入行数不固定,但列就是1列的值xs = tf.placeholder(tf.float32, [None, 1])ys = tf.placeholder(tf.float32, [None, 1]) """建立网络"""#定义隐藏层,输入为xs,输入size为1列,因为x_data只有一个属性值,输出size假定有10个神经元的隐藏层,激活函数relul1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)#定义输出层,输出为l1输入size为10列,也就是l1的列数,输出size为1,这里的输出类似y_data,因此为1列prediction = add_layer(l1, 10, 1,activation_function=None) """预测"""#定义损失函数为差值平方和的平均值loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) """训练"""#进行逐步优化的梯度下降优化器,学习率为0.1,以最小化损失函数进行优化train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#初始化模型所有参数init = tf.global_variables_initializer() #可视化with tf.Session() as sess:    sess.run(init)     fig = plt.figure()#先生成一个图片框    #连续性画图    ax = fig.add_subplot(1, 1, 1)#编号为1,1,1    ax.scatter(x_data, y_data)#画散点图    #不暂停    plt.ion()#打开互交模式    # plt.show()    #plt.show绘制一次就暂停了    for i in range(1000):#学习1000次        sess.run(train_step, feed_dict={xs:x_data, ys:y_data})        if i%50==0:              try:                #画出一条后,抹除掉,去除第一个线段,但是只有一个相当于抹除当前线段                ax.lines.remove(lines[0])            except Exception:                pass            prediction_value = sess.run(prediction, feed_dict={xs:x_data})            lines = ax.plot(x_data,prediction_value,'r-',lw=5)#lw线宽             #暂停            plt.pause(0.5)

可视化结果:

基于Tensorflow如何搭建一个神经网络

基于Tensorflow如何搭建一个神经网络

动图效果如下所示:

基于Tensorflow如何搭建一个神经网络

以上是“基于Tensorflow如何搭建一个神经网络”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网精选频道!

--结束END--

本文标题: 基于Tensorflow如何搭建一个神经网络

本文链接: https://www.lsjlt.com/news/276879.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 基于Tensorflow如何搭建一个神经网络
    小编给大家分享一下基于Tensorflow如何搭建一个神经网络,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!一、Tensorlow结构import te...
    99+
    2023-06-15
  • 基于Tensorflow搭建一个神经网络的实现
    一、Tensorlow结构 import tensorflow as tf import numpy as np #创建数据 x_data = np.random.rand(...
    99+
    2024-04-02
  • 如何用tensorflow搭建卷积神经网络
    要用TensorFlow搭建卷积神经网络(CNN),首先需要导入TensorFlow库并定义网络的结构。以下是一个简单的示例代码,展...
    99+
    2024-04-03
    tensorflow
  • pytorch如何搭建卷积神经网络
    在PyTorch中搭建卷积神经网络通常涉及以下步骤: 导入必要的库和模块: import torch import torch....
    99+
    2024-04-08
    pytorch
  • 单层的基础神经网络基于TensorFlow如何实现手写字识别
    本篇文章为大家展示了单层的基础神经网络基于TensorFlow如何实现手写字识别,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。先上代码import tensorflow &nbs...
    99+
    2023-06-17
  • 如何在TensorFlow中训练一个简单的神经网络模型
    在TensorFlow中训练一个简单的神经网络模型通常需要以下步骤: 数据准备:准备好训练数据和测试数据,并对数据进行预处理和标...
    99+
    2024-03-01
    TensorFlow
  • R语言基于Keras的MLP神经网络及环境搭建
    目录Intro环境搭建本机电脑配置安装TensorFlow以及Keras安装R以及Rstudio基于R语言的深度学习MLP在Rstudio中安装Tensorflow和KerasMNI...
    99+
    2024-04-02
  • pytorch如何搭建自己的神经网络
    在Pytorch中搭建神经网络通常需要遵循以下步骤: 定义神经网络的结构:通过创建一个继承自torch.nn.Module的类来定...
    99+
    2024-04-02
  • 如何利用tensorflow搭建一个两层CNN网络
    本篇内容介绍了“如何利用tensorflow搭建一个两层CNN网络”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!简单说明一下CNN的特点:(...
    99+
    2023-06-19
  • Python神经网络TensorFlow基于CNN卷积识别手写数字
    目录基础理论一、训练CNN卷积神经网络1、载入数据2、改变数据维度3、归一化4、独热编码5、搭建CNN卷积神经网络5-1、第一层:第一个卷积层5-2、第二层:第二个卷积层5-3、扁平...
    99+
    2024-04-02
  • 基于Pytorch的神经网络如何实现Regression
    这篇文章将为大家详细讲解有关基于Pytorch的神经网络如何实现Regression,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1.引言我们之前已经介绍了神经网络的基本知识,神经网络的主要作用就是预测与...
    99+
    2023-06-29
  • 如何在PyTorch中创建一个神经网络模型
    在PyTorch中创建神经网络模型通常需要定义一个继承自torch.nn.Module类的自定义类。下面是一个简单的示例: impo...
    99+
    2024-03-05
    PyTorch
  • 基于Python3 神经网络的实现
    本次学习是Denny Britz(作者)的Python2神经网络项目修改为基于Python3实现的神经网络(本篇博文代码完整)。重在理解原理和实现方法,部分翻译不够准确,可查看Python2版的原文。原文英文地址(基于Python2)安装P...
    99+
    2023-01-31
    神经网络
  • Python基于TensorFlow接口实现深度学习神经网络回归
    目录1 写在前面2 代码分解介绍2.1 准备工作2.2 参数配置2.3 原有模型删除2.4 数据导入与数据划分2.5 Feature Columns定义2.6 模型优化方法构建与模型...
    99+
    2023-02-17
    Python TensorFlow深度学习神经网络回归 Python TensorFlow Python 神经网络回归
  • R语言基于Keras的MLP神经网络及环境怎么搭建
    这篇文章主要为大家分析了R语言基于Keras的MLP神经网络及环境怎么搭建的相关知识点,内容详细易懂,操作细节合理,具有一定参考价值。如果感兴趣的话,不妨跟着跟随小编一起来看看,下面跟着小编一起深入学习“R语言基于Keras的MLP神经网络...
    99+
    2023-06-26
  • Python深度学习TensorFlow神经网络基础概括
    目录一、基础理论1、TensorFlow2、TensorFlow过程1、构建图阶段2、执行图阶段(会话)二、TensorFlow实例(执行加法)1、构造静态图1-1、创建数据(张量)...
    99+
    2024-04-02
  • keras怎么搭建卷积神经网络
    在Keras中搭建卷积神经网络(CNN)可以通过Sequential模型或Functional API来实现。下面分别介绍这两种方法...
    99+
    2024-04-02
  • pytorch怎么搭建卷积神经网络
    在PyTorch中搭建卷积神经网络(Convolutional Neural Network,CNN)通常需要使用torch.nn模...
    99+
    2024-04-02
  • 基于Matlab如何实现人工神经网络回归
    这篇文章主要介绍了基于Matlab如何实现人工神经网络回归的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇基于Matlab如何实现人工神经网络回归文章都会有所收获,下面我们一起来看看吧。首先需要注明的是,在MAT...
    99+
    2023-07-05
  • tensorflow基于Anaconda环境如何搭建
    本篇内容主要讲解“tensorflow基于Anaconda环境如何搭建”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“tensorflow基于Anaconda环境如何搭建”吧!1.简介Tensor...
    99+
    2023-07-05
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作