pytorch-神经网络拟合曲线实例
代码已经调通,跑出来的效果如下:
#coding=gbk importtorch importmatplotlib.pyplotasplt fromtorch.autogradimportVariable importtorch.nn.functionalasF ''' Pytorch是一个拥有强力GPU加速的张量和动态构建网络的库,其主要构建是张量,所以可以把PyTorch当做Numpy 来用,Pytorch的很多操作好比Numpy都是类似的,但是其能够在GPU上运行,所以有着比Numpy快很多倍的速度。 训练完了,发现隐层越大,拟合的速度越是快,拟合的效果越是好 ''' deftrain(): print('------构建数据集------') #torch.linspace是为了生成连续间断的数据,第一个参数表示起点,第二个参数表示终点,第三个参数表示将这个区间分成平均几份,即生成几个数据 x=torch.unsqueeze(torch.linspace(-1,1,100),dim=1) #torch.rand返回的是[0,1]之间的均匀分布这里是使用一个计算式子来构造出一个关联结果,当然后期要学的也就是这个式子 y=x.pow(2)+0.2*torch.rand(x.size()) #Variable是将tensor封装了下,用于自动求导使用 x,y=Variable(x),Variable(y) #绘图展示 plt.scatter(x.data.numpy(),y.data.numpy()) #plt.show() print('------搭建网络------') #使用固定的方式继承并重写init和forword两个类 classNet(torch.nn.Module): def__init__(self,n_feature,n_hidden,n_output): #初始网络的内部结构 super(Net,self).__init__() self.hidden=torch.nn.Linear(n_feature,n_hidden) self.predict=torch.nn.Linear(n_hidden,n_output) defforward(self,x): #一次正向行走过程 x=F.relu(self.hidden(x)) x=self.predict(x) returnx net=Net(n_feature=1,n_hidden=1000,n_output=1) print('网络结构为:',net) print('------启动训练------') loss_func=F.mse_loss optimizer=torch.optim.SGD(net.parameters(),lr=0.001) #使用数据进行正向训练,并对Variable变量进行反向梯度传播启动100次训练 fortinrange(10000): #使用全量数据进行正向行走 prediction=net(x) loss=loss_func(prediction,y) optimizer.zero_grad()#清除上一梯度 loss.backward()#反向传播计算梯度 optimizer.step()#应用梯度 #间隔一段,对训练过程进行可视化展示 ift%5==0: plt.cla() plt.scatter(x.data.numpy(),y.data.numpy())#绘制真是曲线 plt.plot(x.data.numpy(),prediction.data.numpy(),'r-',lw=5) plt.text(0.5,0,'Loss='+str(loss.data[0]),fontdict={'size':20,'color':'red'}) plt.pause(0.1) plt.ioff() plt.show() print('------预测和可视化------') if__name__=='__main__': train()
以上这篇pytorch-神经网络拟合曲线实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。