网络编程
位置:首页>> 网络编程>> 网络编程>> 如何通过神经网络实现线性回归的拟合

如何通过神经网络实现线性回归的拟合

作者:逍遥John  发布时间:2023-04-24 06:15:07 

标签:神经网络,线性回归,拟合

通过神经网络实现线性回归的拟合

训练过程

只训练一轮的算法是:

for 循环,直到所有样本数据使用完毕:

读取一个样本数据
前向计算
反向传播
更新梯度

Python 代码实现

# -*- coding: utf-8 -*-
import numpy as np
import matplotlib.pyplot as plt
class SimpleDataReader(object):
   def __init__(self, data_file):
       self.train_file_name = data_file
       self.num_train = 0
       self.XTrain = None
       self.YTrain = None
    # read data from file
   def ReadData(self):
       data = np.load(self.train_file_name)
       self.XTrain = data["data"]
       self.YTrain = data["label"]
       self.num_train = self.XTrain.shape[0]
       #end if
   # get batch training data
   def GetSingleTrainSample(self, iteration):
       x = self.XTrain[iteration]
       y = self.YTrain[iteration]
       return x, y
   def GetWholeTrainSamples(self):
       return self.XTrain, self.YTrain
class NeuralNet(object):
   def __init__(self, eta):
       self.eta = eta
       self.w = 0
       self.b = 0
   def __forward(self, x):
       z = x * self.w + self.b
       return z
   def __backward(self, x,y,z):
       dz = z - y
       db = dz
       dw = x * dz
       return dw, db
   def __update(self, dw, db):
       self.w = self.w - self.eta * dw
       self.b = self.b - self.eta * db
   def train(self, dataReader):
       for i in range(dataReader.num_train):
           # get x and y value for one sample
           x,y = dataReader.GetSingleTrainSample(i)
           # get z from x,y
           z = self.__forward(x)
           # calculate gradient of w and b
           dw, db = self.__backward(x, y, z)
           # update w,b
           self.__update(dw, db)
           # end for
   def inference(self, x):
       return self.__forward(x)
if __name__ == '__main__':
   # read data
   sdr = SimpleDataReader('ch04.npz')
   sdr.ReadData()
   # create net
   eta = 0.1
   net = NeuralNet(eta)
   net.train(sdr)
   # result
   print("w=%f,b=%f" %(net.w, net.b))
   # 绘图部分
   trainX,trainY = sdr.GetWholeTrainSamples()
   fig = plt.figure()
   ax = fig.add_subplot(111)
   # 绘制散点图
   ax.scatter(trainX,trainY)
   # 绘制线性回归
   x = np.arange(0, 1, 0.01)
   f = np.vectorize(net.inference, excluded=['x'])
   plt.plot(x,f(x),color='red')
   # 显示图表
   plt.show()

如何通过神经网络实现线性回归的拟合

TensorFlow实现简单的线性回归

线性回归原理       

根据数据建立回归模型,w1x1+w2x2+…..+b = y,通过真实值与预测值之间建立误差,使用梯度下降优化得到损失最小对应的权重和偏置。最终确定模型的权重和偏置参数。最后可以用这些参数进行预测。

案例:实现线性回归的训练

1 .案例确定

  • 假设随机指定100个点,只有一个特征

  • 数据本身的分布为 y = 0.7 * x + 0.8

  • 这里将数据分布的规律确定,是为了使我们训练出的参数跟真实的参数(即0.7和0.8)比较是否训练准确

2.API

运算

  • 矩阵运算

tf.matmul(x, w)
  • 平方

tf.square(error)
  • 均值

tf.reduce_mean(error)
  • 梯度下降优化

tf.train.GradientDescentOptimizer(learning_rate)

梯度下降优化

  • learning_rate:学习率,一般为0~1之间比较小的值

  • method:

  • minimize(loss)

  • return:梯度下降op

3.步骤分析

1 准备好数据集:y = 0.8x + 0.7 100个样本

2 建立线性模型

  • 随机初始化W1和b1

  • y = W·X + b,目标:求出权重W和偏置b

3 确定损失函数(预测值与真实值之间的误差)-均方误差

4 梯度下降优化损失:需要指定学习率(超参数)

4.实现完整功能

import tensorflow as tf
import os
def linear_regression():
    """
    自实现线性回归
    :return: None
    """
    # 1)准备好数据集:y = 0.8x + 0.7 100个样本
    # 特征值X, 目标值y_true
    X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)
    # y_true [100, 1]
    # 矩阵运算 X(100, 1)* (1, 1)= y_true(100, 1)
    y_true = tf.matmul(X, [[0.8]]) + 0.7
    # 2)建立线性模型:
    # y = W·X + b,目标:求出权重W和偏置b
    # 3)随机初始化W1和b1
    weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)))
    bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)))
    y_predict = tf.matmul(X, weights) + bias
    # 4)确定损失函数(预测值与真实值之间的误差)-均方误差
    error = tf.reduce_mean(tf.square(y_predict - y_true))
    # 5)梯度下降优化损失:需要指定学习率(超参数)
    # W2 = W1 - 学习率*(方向)
    # b2 = b1 - 学习率*(方向)
    optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(error)
    # 初始化变量
    init = tf.global_variables_initializer()
    # 开启会话进行训练
    with tf.Session() as sess:
        # 运行初始化变量Op
        sess.run(init)
        print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))
        # 训练模型
        for i in range(100):
            sess.run(optimizer)
            print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))
    return None

5.学习率的设置、步数的设置与梯度 *

学习率越大,训练到较好结果的步数越小;学习率越小,训练到较好结果的步数越大。

但是学习过大会出现梯度 * 现象。关于梯度 * /梯度消失 ?

在极端情况下,权重的值变得非常大,以至于溢出,导致 NaN 值
如何解决梯度 * 问题(深度神经网络当中更容易出现)
1、重新设计网络
2、调整学习率
3、使用梯度截断(在训练过程中检查和限制梯度的大小)
4、使用激活函数

6.变量的trainable设置观察

trainable的参数作用,指定是否训练

weight = tf.Variable(tf.random_normal([1, 1], mean=0.0, stddev=1.0), name="weights", trainable=False)

增加其他功能

  • 增加命名空间

  • 变量Tensorboard显示

  • 模型保存与加载

  • 命令行参数设置

1.增加命名空间

是代码结构更加清晰,Tensorboard图结构清楚

with tf.variable_scope("lr_model"):

2.增加变量显示

目的:在TensorBoard当中观察模型的参数、损失值等变量值的变化

1.收集变量

  • tf.summary.scalar(name=’’,tensor) 收集对于损失函数和准确率等单值变量,name为变量的名字,tensor为值

  • tf.summary.histogram(name=‘’,tensor) 收集高维度的变量参数

  • tf.summary.image(name=‘’,tensor) 收集输入的图片张量能显示图片

2.合并变量写入事件文件

  • merged = tf.summary.merge_all()

  • 运行合并:summary = sess.run(merged),每次迭代都需运行

  • 添加:FileWriter.add_summary(summary,i),i表示第几次的值

def linear_regression():
   # 1)准备好数据集:y = 0.8x + 0.7 100个样本
   # 特征值X, 目标值y_true
   with tf.variable_scope("original_data"):
       X = tf.random_normal(shape=(100, 1), mean=2, stddev=2, name="original_data_x")
       # y_true [100, 1]
       # 矩阵运算 X(100, 1)* (1, 1)= y_true(100, 1)
       y_true = tf.matmul(X, [[0.8]], name="original_matmul") + 0.7
   # 2)建立线性模型:
   # y = W·X + b,目标:求出权重W和偏置b
   # 3)随机初始化W1和b1
   with tf.variable_scope("linear_model"):
       weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)), name="weights")
       bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)), name="bias")
       y_predict = tf.matmul(X, weights, name="model_matmul") + bias
   # 4)确定损失函数(预测值与真实值之间的误差)-均方误差
   with tf.variable_scope("loss"):
       error = tf.reduce_mean(tf.square(y_predict - y_true), name="error_op")
   # 5)梯度下降优化损失:需要指定学习率(超参数)
   # W2 = W1 - 学习率*(方向)
   # b2 = b1 - 学习率*(方向)
   with tf.variable_scope("gd_optimizer"):
       optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01, name="optimizer").minimize(error)
   # 2)收集变量
   tf.summary.scalar("error", error)
   tf.summary.histogram("weights", weights)
   tf.summary.histogram("bias", bias)
   # 3)合并变量
   merge = tf.summary.merge_all()
   # 初始化变量
   init = tf.global_variables_initializer()
   # 开启会话进行训练
   with tf.Session() as sess:
       # 运行初始化变量Op
       sess.run(init)
       print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))
       # 1)创建事件文件
       file_writer = tf.summary.FileWriter(logdir="./summary", graph=sess.graph)
       # 训练模型
       for i in range(100):
           sess.run(optimizer)
           print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))
           # 4)运行合并变量op
           summary = sess.run(merge)
           file_writer.add_summary(summary, i)
   return None

3.模型的保存与加载

tf.train.Saver(var_list=None,max_to_keep=5)
  • 保存和加载模型(保存文件格式:checkpoint文件)

  • var_list:指定将要保存和还原的变量。它可以作为一个dict或一个列表传递.

  • max_to_keep:指示要保留的最近检查点文件的最大数量。创建新文件时,会删除较旧的文件。如果无或0,则保留所有检查点文件。默认为5(即保留最新的5个检查点文件。)

使用

例如:

指定目录+模型名字

saver.save(sess, '/tmp/ckpt/test/myregression.ckpt')
saver.restore(sess, '/tmp/ckpt/test/myregression.ckpt')

如要判断模型是否存在,直接指定目录

checkpoint = tf.train.latest_checkpoint("./tmp/model/")
saver.restore(sess, checkpoint)

4.命令行参数使用

如何通过神经网络实现线性回归的拟合

tf.app.flags.,在flags有一个FLAGS标志,它在程序中可以调用到我们

前面具体定义的flag_name

通过tf.app.run()启动main(argv)函数

# 定义一些常用的命令行参数
# 训练步数
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
# 定义模型的路径
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")
# 定义获取命令行参数
FLAGS = tf.app.flags.FLAGS
# 开启训练
# 训练的步数(依据模型大小而定)
for i in range(FLAGS.max_step):
    sess.run(train_op)

完整代码

import tensorflow as tf
import os
tf.app.flags.DEFINE_string("model_path", "./linear_regression/", "模型保存的路径和文件名")
FLAGS = tf.app.flags.FLAGS
def linear_regression():
    # 1)准备好数据集:y = 0.8x + 0.7 100个样本
    # 特征值X, 目标值y_true
    with tf.variable_scope("original_data"):
        X = tf.random_normal(shape=(100, 1), mean=2, stddev=2, name="original_data_x")
        # y_true [100, 1]
        # 矩阵运算 X(100, 1)* (1, 1)= y_true(100, 1)
        y_true = tf.matmul(X, [[0.8]], name="original_matmul") + 0.7
    # 2)建立线性模型:
    # y = W·X + b,目标:求出权重W和偏置b
    # 3)随机初始化W1和b1
    with tf.variable_scope("linear_model"):
        weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)), name="weights")
        bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)), name="bias")
        y_predict = tf.matmul(X, weights, name="model_matmul") + bias
    # 4)确定损失函数(预测值与真实值之间的误差)-均方误差
    with tf.variable_scope("loss"):
        error = tf.reduce_mean(tf.square(y_predict - y_true), name="error_op")
    # 5)梯度下降优化损失:需要指定学习率(超参数)
    # W2 = W1 - 学习率*(方向)
    # b2 = b1 - 学习率*(方向)
    with tf.variable_scope("gd_optimizer"):
        optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01, name="optimizer").minimize(error)
    # 2)收集变量
    tf.summary.scalar("error", error)
    tf.summary.histogram("weights", weights)
    tf.summary.histogram("bias", bias)
    # 3)合并变量
    merge = tf.summary.merge_all()
    # 初始化变量
    init = tf.global_variables_initializer()
    # 创建saver对象
    saver = tf.train.Saver()
    # 开启会话进行训练
    with tf.Session() as sess:
        # 运行初始化变量Op
        sess.run(init)
        # 未经训练的权重和偏置
        print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))
        # 当存在checkpoint文件,就加载模型
        if os.path.exists("./linear_regression/checkpoint"):
            saver.restore(sess, FLAGS.model_path)
        # 1)创建事件文件
        file_writer = tf.summary.FileWriter(logdir="./summary", graph=sess.graph)
        # 训练模型
        for i in range(100):
            sess.run(optimizer)
            print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))
            # 4)运行合并变量op
            summary = sess.run(merge)
            file_writer.add_summary(summary, i)
            if i % 10 == 0:
                saver.save(sess, FLAGS.model_path)
    return None
def main(argv):
    print("这是main函数")
    print(argv)
    print(FLAGS.model_path)
    linear_regression()
if __name__ == "__main__":
    tf.app.run()

作业:将面向过程改为面向对象

参考代码

# 用tensorflow自实现一个线性回归案例
# 定义一些常用的命令行参数
# 训练步数
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
# 定义模型的路径
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")
FLAGS = tf.app.flags.FLAGS
class MyLinearRegression(object):
    """
    自实现线性回归
    """
    def __init__(self):
        pass
    def inputs(self):
        """
        获取特征值目标值数据数据
        :return:
        """
        x_data = tf.random_normal([100, 1], mean=1.0, stddev=1.0, name="x_data")
        y_true = tf.matmul(x_data, [[0.7]]) + 0.8
        return x_data, y_true
    def inference(self, feature):
        """
        根据输入数据建立模型
        :param feature:
        :param label:
        :return:
        """
        with tf.variable_scope("linea_model"):
            # 2、建立回归模型,分析别人的数据的特征数量--->权重数量, 偏置b
            # 由于有梯度下降算法优化,所以一开始给随机的参数,权重和偏置
            # 被优化的参数,必须得使用变量op去定义
            # 变量初始化权重和偏置
            # weight 2维[1, 1]    bias [1]
            # 变量op当中会有trainable参数决定是否训练
            self.weight = tf.Variable(tf.random_normal([1, 1], mean=0.0, stddev=1.0),
                                 name="weights")
            self.bias = tf.Variable(0.0, name='biases')
            # 建立回归公式去得出预测结果
            y_predict = tf.matmul(feature, self.weight) + self.bias
        return y_predict
    def loss(self, y_true, y_predict):
        """
        目标值和真实值计算损失
        :return: loss
        """
        # 3、求出我们模型跟真实数据之间的损失
        # 均方误差公式
        loss = tf.reduce_mean(tf.square(y_true - y_predict))
        return loss
    def merge_summary(self, loss):
        # 1、收集张量的值
        tf.summary.scalar("losses", loss)
        tf.summary.histogram("w", self.weight)
        tf.summary.histogram('b', self.bias)
        # 2、合并变量
        merged = tf.summary.merge_all()
        return merged
    def sgd_op(self, loss):
        """
        获取训练OP
        :return:
        """
        # 4、使用梯度下降优化器优化
        # 填充学习率:0 ~ 1    学习率是非常小,
        # 学习率大小决定你到达损失一个步数多少
        # 最小化损失
        train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
        return train_op
    def train(self):
        """
        训练模型
        :param loss:
        :return:
        """
        g = tf.get_default_graph()
        with g.as_default():
            x_data, y_true = self.inputs()
            y_predict = self.inference(x_data)
            loss = self.loss(y_true, y_predict)
            train_op = self.sgd_op(loss)
            # 收集观察的结果值
            merged = self.merge_summary(loss)
            saver = tf.train.Saver()
            with tf.Session() as sess:
                sess.run(tf.global_variables_initializer())
                # 在没训练,模型的参数值
                print("初始化的权重:%f, 偏置:%f" % (self.weight.eval(), self.bias.eval()))
                # 加载模型
                checkpoint = tf.train.latest_checkpoint("./tmp/model/")
                # print(checkpoint)
                if checkpoint:
                    print('Restoring', checkpoint)
                    saver.restore(sess, checkpoint)
                # 开启训练
                # 训练的步数(依据模型大小而定)
                for i in range(FLAGS.max_step):
                    sess.run(train_op)
                    # 生成事件文件,观察图结构
                    file_writer = tf.summary.FileWriter("./tmp/summary/", graph=sess.graph)
                    print("训练第%d步之后的损失:%f, 权重:%f, 偏置:%f" % (
                        i,
                        loss.eval(),
                        self.weight.eval(),
                        self.bias.eval()))
                    # 运行收集变量的结果
                    summary = sess.run(merged)
                    # 添加到文件
                    file_writer.add_summary(summary, i)
                    if i % 100 == 0:
                        # 保存的是会话当中的变量op值,其他op定义的值不保存
                        saver.save(sess, FLAGS.model_dir)
if __name__ == '__main__':
    lr = MyLinearRegression()
    lr.train()

来源:https://blog.csdn.net/lujianfeiccie2009/article/details/104337146

0
投稿

猜你喜欢

手机版 网络编程 asp之家 www.aspxhome.com