时间:2021-05-22
本文实例为大家分享了Tensorflow实现神经网络拟合线性回归的具体代码,供大家参考,具体内容如下
一、利用简单的一层神经网络拟合一个函数 y = x^2 ,其中加入部分噪声作为偏置值防止拟合曲线过拟合
import tensorflow as tfimport numpy as npimport matplotlib.pyplot as plt # 生成-0.5到0.5间均匀发布的200个点,将数据变为二维,200行一列的数据x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis] # 生成一些噪音数据noise = np.random.normal(0, 0.02, x_data.shape) # 定义y与x的关系y_data = np.square(x_data) + noise # 定义两个占位符x = tf.placeholder(tf.float32, [None, 1]) # 形状为n行1列,同x_data的shapey = tf.placeholder(tf.float32, [None, 1]) # 定义神经网络 # 定义中间层,因为每个x是一维,所以只需1个神经元,定义中间层的连接神经元是10# 矩阵:[a, b]×[b, c] = [a, c] L1_weights = tf.Variable(tf.random_normal([1, 10])) L1_bias = tf.Variable(tf.zeros([1, 10]))L1_weights_bias = tf.matmul(x, L1_weights) + L1_biasL1 = tf.nn.tanh(L1_weights_bias) # 定义输出层,每个x只有一个神经元L2_weights = tf.Variable(tf.random_normal([10, 1]))L2_bias = tf.Variable(tf.zeros([1, 1]))L2_weights_bias = tf.matmul(L1, L2_weights) + L2_biasL2 = tf.nn.tanh(L2_weights_bias) # 定义损失函数loss = tf.reduce_mean(tf.square(y - L2)) # 梯度下降最小化损失函数optimizer = tf.train.GradientDescentOptimizer(0.1) train_step = optimizer.minimize(loss) # 全局变量初始化init = tf.global_variables_initializer() # 定义会话with tf.Session() as sess: sess.run(init) for _ in range(2000): sess.run(train_step, feed_dict={x:x_data, y:y_data}) # 获取预测值 predict = sess.run(L2, feed_dict={x:x_data}) # 画图 plt.figure() # 画出散点 plt.scatter(x_data, y_data) # 画出拟合的曲线 plt.plot(x_data, predict) plt.show()二、代码运行效果如下:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
用Python实现出来的机器学习算法都是什么样子呢?前两期线性回归及逻辑回归项目已发布(见文末链接),今天来讲讲BP神经网络。BP神经网络全部代码https:/
本文实例讲述了Python利用神经网络解决非线性回归问题。分享给大家供大家参考,具体如下:问题描述现在我们通常使用神经网络进行分类,但是有时我们也会进行回归分析
本笔记目的是通过tensorflow实现一个两层的神经网络。目的是实现一个二次函数的拟合。如何添加一层网络代码如下:defadd_layer(inputs,in
本文使用TensorFlow实现最简单的线性回归模型,供大家参考,具体内容如下线性拟合y=2.7x+0.6,代码如下:importtensorflowastfi
逻辑回归是机器学习中很简答的一个栗子,这篇文章就是要介绍如何使用tensorflow实现一个简单的逻辑回归算法。逻辑回归可以看作只有一层网络的前向神经网络,并且