时间:2021-05-22
我就废话不多说了,大家还是直接看代码吧~
import kerasimport numpy as npimport matplotlib.pyplot as plt#Sequential 按顺序构成的模型from keras.models import Sequential#Sequential是模型结构,输入层,隐藏层,输出层#Dense 全连接层,Activation激活函数from keras.layers import Dense,Activationfrom keras.optimizers import SGD x_data=np.linspace(-0.5,0.5,200)#从-0.5到0.5范围内生成200个随机点noise=np.random.normal(0,0.02,x_data.shape)#生成和x_data形状一样的噪声y_data=np.square(x_data)+noise #显示随机点#plt.scatter(x_data,y_data)#plt.show() #构建一个顺序模型model=Sequential() #1-10-1,添加一个隐藏层model.add(Dense(units=10,input_dim=1,activation='relu'))#units是隐藏层,输出维度,输出y,input_dim是输入维度,输入x#model.add(Activation('tanh'))#给这一层添加一个双曲正切激活函数tanh函数model.add(Dense(units=1,input_dim=10,activation='relu'))#input_dim可以不写,它可以识别到上一句的输出是10维#model.add(Activation('tanh'))#给这一层添加一个双曲正切激活函数tanh函数#定义优化器sgd=SGD(lr=0.3)#学习率提高到0.3,训练速度会加快 model.compile(optimizer=sgd,loss='mse')#编译这个模型,sgd是随机梯度下降法,优化器.mse是均方误差 #训练模型for step in range(5001): #每次训练一个批次 cost=model.train_on_batch(x_data,y_data)#代价函数的值,其实就是loss #每500个batch打印一次cost值 if step %500==0: print('cost:',cost) #打印权值和偏置值W,b=model.layers[0].get_weights()#线性回归,只有一层print('W:',W,'b:',b) #x_data输入网络中,得到预测值y_predy_pred=model.predict(x_data) #显示随机点splt.scatter(x_data,y_data)#显示预测结果plt.plot(x_data,y_pred,'r-',lw=3)#r-表示红色的线,lw表示线宽plt.show()结果:
cost: 0.0077051604cost: 0.0004980223cost: 0.00047812634cost: 0.00047762066cost: 0.00047761563cost: 0.00047761557cost: 0.0004776156cost: 0.0004776156cost: 0.0004776156cost: 0.00047761566cost: 0.0004776156W: [[ 0.37828678 0.37509003 0.1847014 -0.46519393 -0.6347979 -0.70865685 0.55382997 -0.66780925 0.08229994 0.5980157 ]] b: [-0.00412499 -0.01216194 0.01939214 -0.03005166 -0.00475936 -0.00794064 -0.00015427 -0.01620528 0.08056344 -0.01741577]以上这篇使用keras实现非线性回归(两种加激活函数的方式)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
一、背景:现在项目上有一个用python实现非线性规划的需求。非线性规划可以简单分两种,目标函数为凸函数or非凸函数。凸函数的非线性规划,比如fun=x^2+y
神经网络只是由两个或多个线性网络层叠加,并不能学到新的东西,简单地堆叠网络层,不经过非线性激活函数激活,学到的仍然是线性关系。但是加入激活函数可以学到非线性的关
本文实例讲述了Python利用神经网络解决非线性回归问题。分享给大家供大家参考,具体如下:问题描述现在我们通常使用神经网络进行分类,但是有时我们也会进行回归分析
本文主要研究的是Python机器学习logistic回归的相关内容,同时介绍了一些机器学习中的概念,具体如下。Logistic回归的主要目的:寻找一个非线性函数
也有些正则方法可以限制回归算法输出结果中系数的影响,其中最常用的两种正则方法是lasso回归和岭回归。lasso回归和岭回归算法跟常规线性回归算法极其相似,有一