介绍使用飞桨完成波士顿房价预测模型构建的流程和操作方法,让读者体验一下飞桨的使用!
飞桨深度学习平台设计之“道”
当读者习惯使用飞桨框架后会发现程序呈现出“八股文”的形态,即不同的程序员、使用不同模型、解决不同任务的时候,他们编写的建模程序是极其相似的。虽然这些设计在某些“极客”的眼里缺乏精彩,但从实用性的角度,我们更期望建模者聚焦需要解决的任务,而不是将精力投入在框架的学习上。因此使用飞桨编写模型是有标准的套路设计的,只要通过一个示例程序掌握使用飞桨的方法,编写不同任务的多种建模程序将变得十分容易。
这点与Python的设计思想一致:对于某个特定功能,并不是实现方式越灵活、越多样越好,最好只有一种符合“道”的最佳实现。此处“道”指的是如何更加匹配人的思维习惯。当程序员第一次看到Python的多种应用方式时,感觉程序天然就应该如此实现。但相信我,不是所有的编程语言都具备这样合“道”的设计,很多编程语言的设计思路是人需要去理解机器的运作原理,而不能以人类习惯的方式设计程序。同时,灵活意味着复杂,会增加程序员之间的沟通难度,也不适合现代工业化生产软件的趋势。
飞桨设计的初衷不仅要易于学习,还期望使用者能够体会到它的美感和哲学,与人类最自然的认知和使用习惯契合。
使用飞桨构建波士顿房价预测模型
本书中的案例覆盖预测任务、推荐系统、计算机视觉和自然语言处理等主流应用场景,所有案例的代码结构完全一致,如 图1 所示。
图1:使用飞桨框架构建神经 络过程
在之前的章节中,我们学习了使用Python和Numpy构建波士顿房价预测模型的方法,本节课我们将尝试使用飞桨重写房价预测模型,大家可以体会一下二者的异同。在数据处理之前,需要先加载飞桨框架的相关类库。
In[ ]
代码中参数含义如下:
- paddle/fluid:飞桨的主库,目前大部分的实用函数均在paddle.fluid包内。
- dygraph:动态图的类库。
- FC:神经 络的全连接层函数,即包含所有输入权重相加和激活函数的基本神经元结构。在房价预测任务中,使用只有一层的神经 络(全连接层)来实现线性回归模型。
说明:
飞桨支持两种深度学习建模编写方式,更方便调试的动态图模式和性能更好并便于部署的静态图模式。
- 静态图模式(声明式编程范式,类比C++):先编译后执行的方式。用户需预先定义完整的 络结构,再对 络结构进行编译优化后,才能执行获得计算结果。
- 动态图模式(命令式编程范式,类比Python):解析式的执行方式。用户无需预先定义完整的 络结构,每写一行 络代码,即可同时获得计算结果。
为了学习模型和调试的方便,本教程均使用动态图模式编写模型。在后续的资深教程中,会详细介绍静态图以及将动态图模型转成静态图的方法。仅在部分场景下需要模型转换,并且是相对容易的。
数据处理
数据处理的代码不依赖框架实现,与使用Python构建房价预测任务的代码相同(详细解读请参考1-2章),这里不再赘述。
In[ ]
模型设计
模型定义的实质是定义线性回归的 络结构,飞桨建议通过创建Python类的方式完成模型 络的定义,即定义函数和函数。函数是框架指定实现前向计算逻辑的函数,程序在调用模型实例时会自动执行forward方法。在函数中使用的 络层需要在函数中声明。
实现过程分如下两步:
- 定义init函数:在类的初始化函数中声明每一层 络的实现函数。在房价预测模型中,只需要定义一层全连接层FC,模型结构和1-2 节模型保持一致。
- 定义forward函数:构建神经 络结构,实现前向计算过程,并返回预测结果,在本任务中返回的是房价预测结果。
说明:
变量用于调试模型时追踪多个模型的变量,在此忽略即可,飞桨1.7及之后版本不强制用户设置。
In[ ]
训练配置
训练配置过程包含四步,如 图2 所示:
图2:训练配置流程示意图
- 以函数指定运行训练的机器资源,表明在作用域下的程序均执行在本机的CPU资源上。表示在作用域下的程序会以飞桨动态图的模式执行(实时执行)。
- 声明定义好的回归模型Regressor实例,并将模型的状态设置为训练。
- 使用load_data函数加载训练数据和测试数据。
- 设置优化算法和学习率,优化算法采用随机梯度下降SGD,学习率设置为0.01。
训练配置代码如下所示:
In[ ]
说明:
- 默认本案例运行在读者的笔记本上,因此模型训练的机器资源为CPU。
- 模型实例有两种状态:训练状态和预测状态。训练时要执行正向计算和反向传播梯度两个过程,而预测时只需要执行正向计算。为模型指定运行状态,有两点原因:
(1)部分高级的算子(例如Drop out和Batch Normalization,在计算机视觉的章节会详细介绍)在两个状态执行的逻辑不同。
(2)从性能和存储空间的考虑,预测状态时更节省内存,性能更好。
- 在上述代码中可以发现声明模型、定义优化器等操作都在创建的 fluid.dygraph.guard()上下文环境中进行,可以理解为创建了飞桨动态图的工作环境,在该环境下完成模型声明、数据转换及模型训练等操作。
在基于Python实现神经 络模型的案例中,我们为实现梯度下降编写了大量代码,而使用飞桨框架只需要定义SDG就可以实现优化器设置,大大简化了这个过程。
训练过程
训练过程采用二层循环嵌套方式:
-
内层循环: 负责整个数据集的一次遍历,采用分批次方式(batch)。假设数据集样本数量为1000,一个批次有10个样本,则遍历一次数据集的批次数量是1000/10=100,即内层循环需要执行100次。
-
外层循环: 定义遍历数据集的次数,通过参数EPOCH_NUM设置。
说明:
batch的取值会影响模型训练效果。batch过大,会增大内存消耗和计算时间,且效果并不会明显提升;batch过小,每个batch的样本数据将没有统计意义。由于房价预测模型的训练数据集较小,我们将batch为设置10。
每次内层循环都需要执行如下四个步骤,如 图3 所示,计算过程与使用Python编写模型完全一致。
图3:内循环计算过程
- 数据准备:将一个批次的数据转变成np.array和内置格式。
- 前向计算:将一个批次的样本数据灌入 络中,计算输出结果。
- 计算损失函数:以前向计算结果和真实房价作为输入,通过损失函数计算出损失函数值(Loss),API可参考square_error_cost。飞桨所有的API接口都有完整的说明和使用案例,在后续的资深教程中我们会详细介绍API的查阅方法。
- 反向传播:执行梯度反向传播函数,即从后到前逐层计算每一层的梯度,并根据设置的优化算法更新参数。
In[ ]
- with dygraph.guard(fluid.CPUPlace()):
- EPOCH_NUM = 10 # 设置外层循环次数
- BATCH_SIZE = 10 # 设置batch大小
-
- # 定义外层循环
- for epoch_id in range(EPOCH_NUM):
- # 在每轮迭代开始之前,将训练数据的顺序随机的打乱
- np.random.shuffle(training_data)
- # 将训练数据进行拆分,每个batch包含10条数据
- mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
- # 定义内层循环
- for iter_id, mini_batch in enumerate(mini_batches):
- x = np.array(mini_batch[:, :-1]).astype('float32') # 获得当前批次训练数据
- y = np.array(mini_batch[:, -1:]).astype('float32') # 获得当前批次训练标签(真实房价)
- # 将numpy数据转为飞桨动态图variable形式
- house_features = dygraph.to_variable(x)
- prices = dygraph.to_variable(y)
-
- # 前向计算
- predicts = model(house_features)
-
- # 计算损失
- loss = fluid.layers.square_error_cost(predicts, label=prices)
- avg_loss = fluid.layers.mean(loss)
- if iter_id%20==0:
-
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!