博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
深度学习入门笔记系列 ( 四 )
阅读量:6880 次
发布时间:2019-06-26

本文共 932 字,大约阅读时间需要 3 分钟。

基于 tensorflow 的回归代码实现

本系列将分为 8 篇 。今天是第四篇 。总是理论有些枯燥 ,今天来动手基于 TF 框架实现两个简单的案例 ,以小搏大熟悉一下整个过程 。整体来说 ,训练神经网络分为 3 个步骤 :

  1. 定义神经网络的结构和前向传播的输出结果
  2. 定义损失函数以及选择反向传播优化的算法
  3. 生成会话(tf.Session) 并在训练数据上反复运行反向传播优化算法

现以直线拟合和回归拟合两个简单案例来熟悉以上 3 个步骤 。

1.直线的拟合

比如我们现在要用 y = k x + b (其中 k ,b为参数)通过多次的训练来拟合直线 y = 5 x + 1 。

根据上述 3 个步骤 ,首先构造线性模型 y = k * x + b ,我们目的就是通过训练 ,使得参数 k ,b 去逼近真实值 5 ,1 。之后定义损失函数 ,这里我们用的是二次代价函数 ;选用梯度下降法进行优化 。最后在会话(tf.Session)中进行反复的优化 。具体代码和注释如下 :

image

运行结果如下 ,经过 100 轮的训练优化 ,参数的训练值已经很逼近真实值了 。

image

2.线性回归

回归问题和分类问题不太一样 ,分类是得到结果为 label ,表示类别 ,比如二分类问题等 ,是离散的 ,有限个类别 。回归则是连续的 ,具体看下面例子 。

本例中 ,我们用 y = x*x +noise 随机生成200个散点 ,用神经网络训练 ,拟合出较为理想的回归结果 。

同上述 3 个步骤 ,第一步是定义网络结构和基本信息 ,这部分代码造了一个 10 个节点的中间层 ,之后直接连接一个节点的输出 。输入散点则是利用 numpy 在区间(-0.5,0.5)间生成 200 个散点 ,并在输出中添加了 noise 信息 。具体如下。

image

这里选用的代价函数为二次代价函数 ,优化算法也是梯度下降法 。之后执行对应的训练 ,并将结果以绘图形式输出 。代码如下 :

image

运行该代码 ,得到的结果如下 。

image

本篇两个案例都比较简单 ,主要目的在于用两个简单实例熟悉神将网络训练的基本步骤 。

原文发布时间为:2018-08-01

本文作者:小詹同学
本文来自云栖社区合作伙伴“”,了解相关信息可以关注“”

转载地址:http://vtgfl.baihongyu.com/

你可能感兴趣的文章
[Flume][Kafka]Flume 与 Kakfa结合例子(Kakfa 作为flume 的sink 输出到 Kafka topic)
查看>>
OpenGL入门笔记(十一)
查看>>
kill命令
查看>>
python3爬虫(二)实战- 爬糗事百科
查看>>
windowsXP用户被禁用导致不能网站登录
查看>>
第 8 章 TokyoCabinet/Tyrant
查看>>
PowerShell中进行文件读取,信息排序,分类计数。
查看>>
JAVA 之 继承
查看>>
使用fiddler模拟http请求
查看>>
利用caffe生成 lmdb 格式的文件,并对网络进行FineTuning
查看>>
一看就懂的ReactJs入门教程-精华版
查看>>
阿里巴巴1682亿背后的“企业级”高效持续交付
查看>>
(转) ICML2016 TUTORIAL参会分享
查看>>
如何实现跨 Docker 主机存储?- 每天5分钟玩转 Docker 容器技术(73)
查看>>
迁移式升级的测试
查看>>
美国大规模“断网”暴露哪些问题
查看>>
苹果旗下为何没有独立风投部门 一切为了保密
查看>>
缩小信息技术部门与业务部门间的脱节 国外CIO是这样做的
查看>>
37.5亿美元估值 终端安全厂商Tanium再融资1亿美元
查看>>
标杆电价下调致光伏产业难别寒冬 高效组件仍稀缺
查看>>