tensorflow线性回归2.0线性回归求X值

版权声明:凡原创系列文章均筆者的辛勤于中,如转载请文章顶部注明来源。谢谢配合 /smilejiasmile/article/details/

一、单变量线性模型方程

  • 一元线性回归就是寻找一条直线使得所有点到这条直线的距离总和最短。经典的线性方程可表示为如下 :

    0

  • 0 0 )样本点通过最小化以下函数,找到β0 0

0 0 0

  • 由于线性回歸的损失函数既是凸函数又是可微分(偏导存在),故可以通过求其偏导数令其为零,求解我们通过矩阵形式来计算最小方差的解:

  • J 是损失函数,求解后参数如下:

  • 训练或者参数优化是机器学习中重要的组成部分

  • 优化器类用来计算损失函数的梯度。并将它们应用于同一模型的不同变量常用的方法有梯度下降(gradient descent)、Adam、和 Adagrad 等方法。
  • 注意Optimizer 这个类本身不能被初始化,只能初始化咜的子类
  • 使用 Optimzer 一般要遵循以下步骤:

    1、为需要优化的参数,创建一个 Optimizer (这里为梯度下降)

2、创建一个操作调用 minimize 方法,最小化损失函数

3、minimize 函数要遵循以下的格式:

  • loss: 存放损失函数每轮迭代后的数值、

3.1 单变量线性模型

 
 
 
 
 

 
 
 
 
 
 
 
 此处省略部分结果 ······ 
 
 
 
 
  • 在保存日誌的目录 运行下面的命令,然后再浏览器中输入 localhost:6006 便可以看到损失函数图形以及结构图像
 

3.2 多变量线性回归

 
 
 
 
 

我要回帖

更多关于 tensorflow线性回归 的文章

 

随机推荐