时间:2021-05-22
用Python实现出来的机器学习算法都是什么样子呢? 前两期线性回归及逻辑回归项目已发布(见文末链接),今天来讲讲BP神经网络。
BP神经网络
全部代码
https://github.com/lawlite19/MachineLearning_Python/blob/master/NeuralNetwok/NeuralNetwork.py
神经网络model
先介绍个三层的神经网络,如下图所示
输入层(input layer)有三个units(
为补上的bias,通常设为1)
表示第j层的第i个激励,也称为为单元unit
为第j层到第j+1层映射的权重矩阵,就是每条边的权重
所以可以得到:
隐含层:
输出层
,
其中,S型函数
,也成为激励函数
可以看出
为3x4的矩阵,
为1x4的矩阵
==》j+1的单元数x(j层的单元数+1)
代价函数
假设最后输出的
,即代表输出层有K个单元
,
其中,
代表第i个单元输出与逻辑回归的代价函数
差不多,就是累加上每个输出(共有K个输出)
正则化
L-->所有层的个数
-->第l层unit的个数
正则化后的代价函数为
共有L-1层,然后是累加对应每一层的theta矩阵,注意不包含加上偏置项对应的theta(0)
正则化后的代价函数实现代码:
# 代价函数def nnCostFunction(nn_params,input_layer_size,hidden_layer_size,num_labels,X,y,Lambda):length = nn_params.shape[0] # theta的中长度# 还原theta1和theta2Theta1 = nn_params[0:hidden_layer_size*(input_layer_size+1)].reshape(hidden_layer_size,input_layer_size+1)Theta2 = nn_params[hidden_layer_size*(input_layer_size+1):length].reshape(num_labels,hidden_layer_size+1)# np.savetxt("Theta1.csv",Theta1,delimiter=',')m = X.shape[0]class_y = np.zeros((m,num_labels)) # 数据的y对应0-9,需要映射为0/1的关系# 映射yfor i in range(num_labels):class_y[:,i] = np.int32(y==i).reshape(1,-1) # 注意reshape(1,-1)才可以赋值'''去掉theta1和theta2的第一列,因为正则化时从1开始'''Theta1_colCount = Theta1.shape[1]Theta1_x = Theta1[:,1:Theta1_colCount]Theta2_colCount = Theta2.shape[1]Theta2_x = Theta2[:,1:Theta2_colCount]# 正则化向theta^2term = np.dot(np.transpose(np.vstack((Theta1_x.reshape(-1,1),Theta2_x.reshape(-1,1)))),np.vstack((Theta1_x.reshape(-1,1),Theta2_x.reshape(-1,1))))'''正向传播,每次需要补上一列1的偏置bias'''a1 = np.hstack((np.ones((m,1)),X))z2 = np.dot(a1,np.transpose(Theta1))a2 = sigmoid(z2)a2 = np.hstack((np.ones((m,1)),a2))z3 = np.dot(a2,np.transpose(Theta2))h = sigmoid(z3)'''代价'''J = -(np.dot(np.transpose(class_y.reshape(-1,1)),np.log(h.reshape(-1,1)))+np.dot(np.transpose(1-class_y.reshape(-1,1)),np.log(1-h.reshape(-1,1)))-Lambda*term/2)/mreturn np.ravel(J)反向传播BP
上面正向传播可以计算得到J(θ),使用梯度下降法还需要求它的梯度
BP反向传播的目的就是求代价函数的梯度
假设4层的神经网络,
记为-->l层第j个单元的误差
《===》
(向量化)
没有
,因为对于输入没有误差
因为S型函数
的倒数为:
,
所以上面的
和
可以在前向传播中计算出来
反向传播计算梯度的过程为:
(
是大写的
)
for i=1-m:-
-正向传播计算
(l=2,3,4...L)
-反向计算
、
...
;
-
-
最后
,即得到代价函数的梯度
实现代码:
# 梯度def nnGradient(nn_params,input_layer_size,hidden_layer_size,num_labels,X,y,Lambda):length = nn_params.shape[0]Theta1 = nn_params[0:hidden_layer_size*(input_layer_size+1)].reshape(hidden_layer_size,input_layer_size+1)Theta2 = nn_params[hidden_layer_size*(input_layer_size+1):length].reshape(num_labels,hidden_layer_size+1)m = X.shape[0]class_y = np.zeros((m,num_labels)) # 数据的y对应0-9,需要映射为0/1的关系# 映射yfor i in range(num_labels):class_y[:,i] = np.int32(y==i).reshape(1,-1) # 注意reshape(1,-1)才可以赋值'''去掉theta1和theta2的第一列,因为正则化时从1开始'''Theta1_colCount = Theta1.shape[1]Theta1_x = Theta1[:,1:Theta1_colCount]Theta2_colCount = Theta2.shape[1]Theta2_x = Theta2[:,1:Theta2_colCount]Theta1_grad = np.zeros((Theta1.shape)) #第一层到第二层的权重Theta2_grad = np.zeros((Theta2.shape)) #第二层到第三层的权重Theta1[:,0] = 0;Theta2[:,0] = 0;'''正向传播,每次需要补上一列1的偏置bias'''a1 = np.hstack((np.ones((m,1)),X))z2 = np.dot(a1,np.transpose(Theta1))a2 = sigmoid(z2)a2 = np.hstack((np.ones((m,1)),a2))z3 = np.dot(a2,np.transpose(Theta2))h = sigmoid(z3)'''反向传播,delta为误差,'''delta3 = np.zeros((m,num_labels))delta2 = np.zeros((m,hidden_layer_size))for i in range(m):delta3[i,:] = h[i,:]-class_y[i,:]Theta2_grad = Theta2_grad+np.dot(np.transpose(delta3[i,:].reshape(1,-1)),a2[i,:].reshape(1,-1))delta2[i,:] = np.dot(delta3[i,:].reshape(1,-1),Theta2_x)*sigmoidGradient(z2[i,:])Theta1_grad = Theta1_grad+np.dot(np.transpose(delta2[i,:].reshape(1,-1)),a1[i,:].reshape(1,-1))'''梯度'''grad = (np.vstack((Theta1_grad.reshape(-1,1),Theta2_grad.reshape(-1,1)))+Lambda*np.vstack((Theta1.reshape(-1,1),Theta2.reshape(-1,1))))/mreturn np.ravel(grad)BP可以求梯度的原因
实际是利用了链式求导法则
因为下一层的单元利用上一层的单元作为输入进行计算
大体的推导过程如下,最终我们是想预测函数与已知的y非常接近,求均方差的梯度沿着此梯度方向可使代价函数最小化。可对照上面求梯度的过程。
求误差更详细的推导过程:
梯度检查
检查利用BP求的梯度是否正确
利用导数的定义验证:
求出来的数值梯度应该与BP求出的梯度非常接近
验证BP正确后就不需要再执行验证梯度的算法了
实现代码:
# 检验梯度是否计算正确# 检验梯度是否计算正确def checkGradient(Lambda = 0):'''构造一个小型的神经网络验证,因为数值法计算梯度很浪费时间,而且验证正确后之后就不再需要验证了'''input_layer_size = 3hidden_layer_size = 5num_labels = 3m = 5initial_Theta1 = debugInitializeWeights(input_layer_size,hidden_layer_size);initial_Theta2 = debugInitializeWeights(hidden_layer_size,num_labels)X = debugInitializeWeights(input_layer_size-1,m)y = 1+np.transpose(np.mod(np.arange(1,m+1), num_labels))# 初始化yy = y.reshape(-1,1)nn_params = np.vstack((initial_Theta1.reshape(-1,1),initial_Theta2.reshape(-1,1))) #展开theta'''BP求出梯度'''grad = nnGradient(nn_params, input_layer_size, hidden_layer_size,num_labels, X, y, Lambda)'''使用数值法计算梯度'''num_grad = np.zeros((nn_params.shape[0]))step = np.zeros((nn_params.shape[0]))e = 1e-4for i in range(nn_params.shape[0]):step[i] = eloss1 = nnCostFunction(nn_params-step.reshape(-1,1), input_layer_size, hidden_layer_size,num_labels, X, y,Lambda)loss2 = nnCostFunction(nn_params+step.reshape(-1,1), input_layer_size, hidden_layer_size,num_labels, X, y,Lambda)num_grad[i] = (loss2-loss1)/(2*e)step[i]=0# 显示两列比较res = np.hstack((num_grad.reshape(-1,1),grad.reshape(-1,1)))print res权重的随机初始化
神经网络不能像逻辑回归那样初始化theta为0,因为若是每条边的权重都为0,每个神经元都是相同的输出,在反向传播中也会得到同样的梯度,最终只会预测一种结果。
所以应该初始化为接近0的数
实现代码
# 随机初始化权重thetadef randInitializeWeights(L_in,L_out):W = np.zeros((L_out,1+L_in)) # 对应theta的权重epsilon_init = (6.0/(L_out+L_in))**0.5W = np.random.rand(L_out,1+L_in)*2*epsilon_init-epsilon_init # np.random.rand(L_out,1+L_in)产生L_out*(1+L_in)大小的随机矩阵return W预测
正向传播预测结果
实现代码
# 预测def predict(Theta1,Theta2,X):m = X.shape[0]num_labels = Theta2.shape[0]#p = np.zeros((m,1))'''正向传播,预测结果'''X = np.hstack((np.ones((m,1)),X))h1 = sigmoid(np.dot(X,np.transpose(Theta1)))h1 = np.hstack((np.ones((m,1)),h1))h2 = sigmoid(np.dot(h1,np.transpose(Theta2)))'''返回h中每一行最大值所在的列号- np.max(h, axis=1)返回h中每一行的最大值(是某个数字的最大概率)- 最后where找到的最大概率所在的列号(列号即是对应的数字)'''#np.savetxt("h2.csv",h2,delimiter=',')p = np.array(np.where(h2[0,:] == np.max(h2, axis=1)[0]))for i in np.arange(1, m):t = np.array(np.where(h2[i,:] == np.max(h2, axis=1)[i]))p = np.vstack((p,t))return p输出结果
梯度检查:
随机显示100个手写数字
显示theta1权重
训练集预测准确度
归一化后训练集预测准确度
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例为大家分享了C++实现神经BP神经网络的具体代码,供大家参考,具体内容如下BP.h#pragmaonce#include#include#include
本文实例讲述了Python实现的三层BP神经网络算法。分享给大家供大家参考,具体如下:这是一个非常漂亮的三层反向传播神经网络的python实现,下一步我准备试着
本文实例为大家分享了C++实现简单BP神经网络的具体代码,供大家参考,具体内容如下实现了一个简单的BP神经网络使用EasyX图形化显示训练过程和训练结果使用了2
python实现简单神经网络算法,供大家参考,具体内容如下python实现二层神经网络包括输入层和输出层importnumpyasnp#sigmoidfunct
本文实例为大家分享了python实现ANN的具体代码,供大家参考,具体内容如下1.简要介绍神经网络神经网络是具有适应性的简单单元组成的广泛并行互联的网络。它的组