刘光聪 中生代技术
祝大家在2017年有新的收获。非常感谢大家在春节前夕依然还坚持参加中生代技术的分享活动,也感谢中生代提供的强大的分享平台。我是刘光聪,来自于中兴通讯技术规划部,关注敏捷软件开发,从事机器学习算法研究,目前负责AI平台架构与设计。今天我给大家分享的题目是:剖析TensorFlow架构与设计之编程模型。其目标是对深度学习有一个初步的了解,了解TensorFlow的基本编程模型,及其掌握TensorFlow的几个重要概念。
今天我的分享主要包括3个部分,简单介绍TensorFlow的架构;理解计算图的工作原理;通过Mnist实战,了解TensorFlow编程模型。
TensorFlow在跨平台,通用性,分布式, 可扩展性,可视化等方面优势非常明显。
TensorFlow是一种典型的基于符号编程的数值计算框架,从总架构上分为两层:
- 1. 前端:负责计算图的构造,支持多语言,其中Python提供的 API最为成熟;
- 2. 后端:负责计算图的执行,使用C++实现,直接操作分布式的CPU/GPU环境。
计算图是TensorFlow最重要的领域概念,OP代表节点,Tensor代表边; 数据从节点流入,通过OP运算,从节点流出,并做为下一节点的输入,TensorFlow的命名由此而来。
OP用于表示计算图的一个节点,完成某种抽象的计算。
TensorFlow支持丰富的OP集合,并且支持OP的扩展。
OP通过OP构造器(OP Constructor)生成OP实例,该工厂具有副作用,它将该OP实例注册到计算图中。此时用户对图实例无感知,因为其上下文存在一个默认的图实例。
OP的输入和输出以Tensor的形式传递,支持三种基本类型。
描述OP可以通过三个维度描述:
- 1. 类型
- 2. Tensor的Shape:维度,及其每一维度的大小
- 3. 约束:例如默认值,允许的值列表
以placeholder的OP为例,该OP是一个特殊的OP,它没有输入,只有输出。而且,他的类型为确定,待用户在构造OP是确定,可以看成一个「泛型编程」的过程。
这是placeholder OP的构造器(constructor),或称为工厂。调用OP时,指定OP的属性,从而确定OP的基本规格。该过程类似于C++模板实例化,但还未生成对象实例(直至执行计算图阶段)。
Operation描述了OP的接口(类型,约束,属性,设备等),Kernel是针对具体设备类型,或者数据类型,Tensor的维度及大小的某种具体实现。典型地,OP会有GPU实现的Kernel,及其CPU实现的Kernel 。这是一种典型的多态设计(区别于编程语言的多态)。
Tensor表示计算图的边实例,表示OP之间的数据流方向。
Tensor可以通过三元组描述:(Type, Rank, Shape)。
查看源代码(简化之后),其Protobuf是如此描述Tensor的,其很好地形式化描述了Tensor的本质。
在计算图中,存在两种类型的边:
- 1. 正常的边:用于传递Tensor;
- 2. 特殊的边:用于控制依赖。
控制依赖是一种构建复杂网络模型的重要工具,它表示OP之间执行的依赖关系。
当前上下文,维护了一个指向default graph的指针;也就是说,在任何一个时刻,在上下文中都存在一个默认的图实例。图实例包括两类:
- 1. 隐式的图实例
- 2. 显式的图实例
前者的OP注册到隐式的图实例,后者的OP注册到显式的图实例中。
OP命名的层次化是一种搭建复杂网络的重要工具。例如,将OP看成西安市,那么如何从地球中找到它呢? 首先,通过世界地图,先找到亚洲,然后找到中国,然后再找到陕西,最后才找到西安。当搭建复杂的网络模型时,OP命名的层次化,对于OP定位是非常有用的。
可以指定OP的设备类型,当执行计算图时,该OP会被分配到指定的设备上执行运算。
默认图实例(Default Graph),OP命名的层次化(Name Scope),指派设备(device)等机制,实际是由Context Manager管理,保证在某一个时刻,存在唯一的默认图实例,及其当前的Scope,及其当前的Device等等。
总结一下,TensorFlow是一种基于符号的编程模式,前端完成计算图的构造,后端完成计算图的执行。
这里举一个简单的例子,x表示模型的输入,y_表示模型的输出(Labels);定义了W, b两个训练参数,然后使用matmul的OP,及其add的OP完成权重的线性求和,最后使用ReLU的激活函数,搭建了第一层网络模型。其中C代表后续的网络层次。
上述代码实现,构造了如上图所示的计算图实例。
通过建立一个Session,使用Mini-Batch算法实现该模型的训练。很显然,计算图被构造依次,但被执行了多次(一次一个Batch)。
这是使用Protobuf描述计算图的领域模型。
这是前端(Python)的领域模型。
这是后端的领域模型。
Session是Client与计算服务的桥梁,是一种资源,使用完成后保证被关闭;session.run建立了一个瞬时的闭包,该闭包针对于该次Batch,依次传递Tensor,完成整个计算的过程,然后再将梯度反传,最后完成参数的更新。每个子图只会构造依次,但可能被执行多次。Tensor在OP之间传递,其生命周期仅对当前批次有效,对下一个Mini-Batch无效。
其中,Feed代表模型的输入,Fetch代表模型的输出。
变量是一种特殊的OP,它维持一个Tensor的句柄,变相地延长了该Tensor的生命周期。
变量在使用之前,都需要使用初始化的OP进行初始化。例如,W使用tf.zeros的初始化OP进行初始化为0值。
存在一些语法糖,可以方便地对变量进行初始化(组合模式)。
犹如C++全局变量初始化的依赖关系,TensorFlow变量之间的初始化依赖关系需要特殊的处理。
可以使用Stateful的OP操作变量,完成变量状态的变更。
通过变量分组,可以方便对变量进行分组管理。例如,可以快速获取出所有训练参数的集合。
接下来,通过Mnist的实战,加深 理解TensorFlow的编程模型。实战包括两种网络模型的实践:
- 1. 单层网络(Softmax)
-
2. 多层网络(2层网络)
特征提取,因为只是Demo示例,这里简单地按照像素进行特征的提取。
训练样本集的示意图,它是一个二维的Tensor。
这是训练样本的标签集合(Labels),采用One-hot形式的特征描述 。
首先描述模型的输入和输出,其中None表示batch_size,待seesion.run的Feed提供。
然后定义模型的训练参数集合,并定义变量初始化OP,用于在执行阶段完成变量的初始化。
这里定义了Mnist的Softmax单层网络模型。
然后定义交叉熵的损失函数,并使用随机梯度下降算法优化该损失函数,使得损失函数最小化。
然后建立一个会话,使用Mini-Batch算法,完成模型的训练。」
当完成模型的驯良后,可以使用测试数据集对模型进行测试,输出模型的精度。
接下来,通过搭建两层网络模型实现Mnist。其中,通过计算图的4个基本子图,显式地增强模型设计的可理解性。
- – Inference:仅完成推理,仅仅包括前向计算过程;
- – Loss:构建损失函数,计算损失;
- – Training:根据损失,反向传递梯度,然后更新权重,直到模型收敛;
-
– Evaluation:评估模型的精度
这里搭建了两层的网络模型:第一层:ReLU第二层:Softmax
这是推理的主要逻辑,定义了两层网络。
使用交叉熵定义损失函数。
使用随机梯度下降算法最小化损失函数 。
使用evaluation评估网络模型的精度。
感谢大家的耐心阅读,如果您对TensorFlow的架构与设计感兴趣,请持续关注我后续关于TensorFlow源代码的剖析,谢谢。
参考资料,网络上已经很丰富了,在此不在重述了。当然,阅读源代码,是获取最权威的知识的最佳途径。
最后,欢迎大家关注我的「简书」,直接搜索「刘光聪」,我主要关注敏捷软件开发,机器学习算法,也欢迎大家给我更多的指点,谢谢。