教程▍一步步上手TensorFlow——基础知识

教程▍一步步上手TensorFlow——基础知识
www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

作者|blackblog  编辑| 布袋熊 AI基础技能学习 一步步上手TensorFlow

TensorFlow 是一个用于人工智能的开源神器。作为常用的机器学习框架,可被用于语音识别或图像识别等多项机器学习和深度学习领域,且上手简单,教材丰富。


本篇文章将带领大家一步一步上手TensorFlow,小伙伴们学起来呀~


TensorFlow从名字上,我们就可以对他有一定的理解。


Tensor:张量,表示N维数组。

Flow:流,表示给予数据流图的计算。

TensorFlow一句话:一个采用数据流图,用于数值计算的开源软件库。节点在图中表示数学操作,图中的线则表示在节点间相互联系的多维数据数组,即张量。

www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

本文重点在于TensorFlow基础知识的讲解,包括安装,Graph,Session,Variable,Feed,Fetch的讲解。


更多关于TensorFlow的知识,可以登陆其官网进行查询:

https://www.tensorflow.org


TensorFlow的安装


工欲善其事 必先利其器,安装tf自然是第一步。

首先安装好python,我使用的是python3.6,确认自己是否安装有pip。
使用这两句话可以查询自己的pip是否安装正确

 
      
1
2
 
      
$ pip -V # for Python 2.7
$ pip3 -V # for Python 3.n

安装TensorFlow

 
      
1
2
 
      
$ pip -V # for Python 2.7
$ pip3 -V # for Python 3.n

如果上一句代码执行失败,执行如下代码

 
      
1
2
 
      
$ sudo pip install --upgrade tfBinaryURL # Python 2.7
$ sudo pip3 install --upgrade tfBinaryURL # Python 3.n

如果想要安装其他版本的tf,执行如下代码,自行修改URL就可以安装不同版本的tf了

 
      
1
2
 
      
$ sudo pip3 install --upgrade \
https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.6.0-py3-none-any.whl

安装好后进入python

 
      
1
2
3
4
 
      
import tensorflow as tf
hello = tf.constant( 'Hello, TensorFlow!')
sess = tf.Session()
print(sess.run(hello))

正确输出如下内容,表示安装成功

 
      
1
 
      
Hello, TensorFlow!

TensorFlow的基本概念


TensorFlow就是一个采用数据流图,用于数值计算的开源软件库。节点在图中表示数学操作,图中的线则表示在节点间相互联系的多维数据数组,即张量。

www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

此图来自于TensorFlow中文社区

图(Graph):表示计算任务。

会话(Session):建立会话,此时会生成一张空图;在会话中添加节点和边,形成一张图,一个会话可以有多个图,通过执行这些图得到结果。

张量(Tensor):一个N维数组,用来表示数据。

变量(Variable):用来记录一些数据和状态。

feed和fetch:用于对数据进行操作 创建图


TensorFlow 是一个编程系统, 使用图来表示计算任务。 图中的节点被称之为 op (operation 的缩写)。一个 op 获得 0 个或多个 Tensor, 执行计算, 产生 0 个或多个 Tensor。

每个 Tensor 是一个类型化的多维数组. 例如, 你可以将一小组图像集表示为一个四维浮点数数组, 这四个维度分别是 [batch, height, width, channels]。

构建图的第一步, 是创建源op。

源op不需要任何输入, 例如 常量 (Constant)。源 op 的输出被传递给其它 op 做运算.

创建一个图

 
      
1
2
3
4
5
6
7
8
 
      
import tensorflow as tf
# 创建一个常量 op, 产生一个 1x2 矩阵. 这个 op 被作为一个节点加到默认图中.
t1 = tf.constant([[ 3., 3.]])
#创建另外一个常量 op, 产生一个 2x1 矩阵.
t2 = tf.constant([[ 4.],[ 4.]])
#创建一个矩阵乘法 matmul op , 把 'matrix1' 和 'matrix2' 作为输入
# 返回值 'product' 代表矩阵乘法的结果.
product = tf.matmul(t1,t2)

用到的两个函数:

 
      
1
2
3
 
      
tf.constant(value, dtype= None, shape= None, name= 'Const') #用于创建一个内容为value,类型为dtype,大小为shape的常量Tensor。
tf.matmul(a, b, transpose_a= False, transpose_b= False, a_is_sparse= False, b_is_sparse= False, name= None) #将矩阵a与矩阵b相乘,返回a*b的结果

启动图


上一步中完成后,默认图中现有三个节点,两个constant op,一个matmul op。但这仅仅是完成了图的创建,如果要得到最终的结果,我们必须要启动这个图。

启动图的第一步就是构造一个会话(Sess),创建一个Session对象。调用 sess 的 run() 方法来执行矩阵乘法 op, 传入 product 作为该方法的参数。函数调用 ‘run(product)’ 触发了图中三个 op (两个常量 op 和一个矩阵乘法 op) 的执行。最终任务结束,关闭会话。

 
      
1
2
3
4
5
6
7
 
      
# 启动默认图.
sess = tf.Session()
# 调用 sess 的 'run()' 方法来执行矩阵乘法 op, 传入 'product' 作为该方法的参数.
result = sess.run(product)
print (result)
# 任务完成, 关闭会话.
sess.close()

最终的输出结果为:

 
      
1
 
      
[[ 24.]] #没问题,算对了

我们也可以使用with代码块来实现对话的自动关闭,在离开with代码块时,会话会自动关闭。

 
      
1
2
3
 
      
with tf.Session() as sess:
result = sess.run(product)
print(result)

最终的输出结果为:

 
      
1
 
      
[[ 24.]]

交互式对话


使用上述方法,会出现一个对话被绑定在一个变量上的情况,有的时候我们并不想这么做,所以我们可以使用交互式对话的方式避免这样的情况。

使用 Tensor.eval() 和 Operation.run() 方法代替 Session.run()

 
      
1
2
3
4
5
6
7
8
 
      
sess = tf.InteractiveSession()
x = tf.Variable([ 1.0, 2.0]) #后面会讲到Variable
a = tf.constant([ 5.0, 3.0])
# 使用初始化器 initializer op 的 run() 方法初始化 'x',由于x是一个Variable,所以我们要对其进行初始化。
x.initializer.run()
# 增加一个减法 subtract op, 从 'x' 减去 'a'. 运行减法 op, 输出结果
sub = tf.subtract(x,a)
print (sub.eval())

最终的输出结果为:

 
      
1
 
      
[ -4. -1.] #没错,又算对了

张量(Tensor)


TensorFlow的名字中第一个单词就是Tensor,可见Tensor在TensorFlow中的重要性。





Tensor可以理解为是一个数据结构,其实就是一个N维数组。TensorFlow用tensor表示所有的数据。


在计算图中,操作间传递的数据都是tensor。



一个 tensor包含一个静态类型rank,和一个shape。


阶(Rank)


阶(Rank)用于描述张量的维数

一阶Tensor可以理解为数学上的向量,二阶Tensor可以理解为数学上的矩阵。

对于一个二阶张量你可以用语句t[i, j]来访问其中的任何元素。而对于三阶张量你可以用’t[i, j, k]’来访问其中的任何元素。

 
      
1
2
3
4
5
6
7
8
 
      
with tf.Session() as sess:
t1 = tf.constant([ 1.0, 2.0, 3.0])
t2 = tf.constant([[ 1.0, 2.0],[ 3.0, 4.0]])
t3 = tf.constant([[[ 2.0, 4.0],[ 6.0, 8.0]],[[ 1.0, 2.0],[ 3.0, 4.0]]])
print(t1[ 0].eval())
print(t2[ 1].eval())
print(t2[ 1, 0].eval())
print(t3[ 1, 0].eval())

输出结果如下:

 
      
1
2
3
4
 
      
1.0
[ 3. 4.]
3.0
[ 1. 2.]

不同阶的数学表示

www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

形状(Shape)


这个属性与nparray的shape属性基本一致,因为一个Tensor可以理解为是一个N维数组,所以Shape属性就是获取数组的大小。

 
      
1
2
3
4
5
6
7
 
      
with tf.Session() as sess:
t1 = tf.constant([ 1.0, 2.0, 3.0])
t2 = tf.constant([[ 1.0, 2.0],[ 3.0, 4.0]])
t3 = tf.constant([[[ 2.0, 4.0],[ 6.0, 8.0]],[[ 1.0, 2.0],[ 3.0, 4.0]]])
print(t1.shape)
print(t2.shape)
print(t3.shape)

输出结果如下:

 
      
1
2
3
 
      
( 3,)
( 2, 2)
( 2, 2, 2)

数据类型(dtype)


不同的数据类型

www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

变量


变量用来记录一些数据和状态,维护图执行过程中的状态信息。


当训练模型时,用变量来存储和更新参数。变量包含张量 (Tensor)存放于内存的缓存区。建模时它们需要被明确地初始化,模型训练后它们必须被存储到磁盘。这些变量的值可在之后模型训练和分析是被加载。


变量的创建


当创建一个变量时,可以一个张量作为初始值传入构造函数Variable()。初始值可以是常量也可以是随机值。

但注意,初始化变量时,都需要指定传入张量的Shape,Tensor的Shape会自动成为变量的Shape。

 
      
1
2
3
 
      
#创建两个变量
weights = tf.Variable(tf.random_normal([ 784, 20], stddev= 0.35),name= "weights")
biases = tf.Variable(tf.zeros([ 20]), name= "biases")

变量的初始化


变量的初始化必须在模型的其它操作运行之前先明确地完成。最简单的方法就是添加一个给所有变量初始化的操作,并在使用模型之前首先运行那个操作。
除此之外,也可以从检查点文件中重新获取变量值。
使用tf.initialize_all_variables()初始化所有变量

 
      
1
 
      
init = tf.global_variables_initializer()

使用tf.initialize_all_variables()将所有的变量并行的初始化。
我们也可以使用一个变量的initialized_value()方法初始化另一个变量的值。

 
      
1
2
 
      
#使用weights初始化w2
w2 = tf.Variable(w1.initialized_value(), name= "w2")

最后我们整体执行一下

 
      
1
2
3
4
5
6
7
8
9
10
11
12
 
      
#创建两个变量
w1 = tf.Variable(tf.random_normal([ 784, 20], stddev= 0.35),name= "weights")
b1 = tf.Variable(tf.zeros([ 20]), name= "biases")
#初始化所有变量
init = tf.global_variables_initializer()
#使用weights初始化w2
w2 = tf.Variable(w1.initialized_value(), name= "w2")
with tf.Session() as sess:
sess.run(init)
print(w1)
print(b1)
print(w2)

输出结果:

 
      
1
2
3
 
      
<tf.Variable 'weights:0' shape=( 784, 20) dtype=float32_ref>
<tf.Variable 'biases:0' shape=( 20,) dtype=float32_ref>
<tf.Variable 'w2:0' shape=( 784, 20) dtype=float32_ref>

变量的保存与恢复


我们在训练模型的过程中,经常需要将已经训练好的模型进行保存,这个时候我们需要将其变量进行保存,并在下一次使用时进行恢复。

使用tf.train.Saver()创建一个Saver来管理模型中的所有变量。

变量的保存

 
      
1
2
3
4
5
6
7
8
9
10
 
      
# 创建一些变量
w1 = tf.Variable(tf.random_normal([ 784, 20], stddev= 0.35),name= "weights")
b1 = tf.Variable(tf.zeros([ 20]), name= "biases")
# 初始化
init_op = tf.global_variables_initializer()
# 创建一个Saver
saver = tf.train.Saver()
with tf.Session() as sess:
sess.run(init_op)
save_path = saver.save(sess, "./tmp/model.ckpt")

保存成功后,一般会得到这四个文件

www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

变量的恢复

此时我们不再需要对变量进行初始化

 
      
1
2
3
4
5
6
7
8
 
      
# 创建一些变量
w1 = tf.Variable(tf.random_normal([ 784, 20], stddev= 0.35),name= "weights")
b1 = tf.Variable(tf.zeros([ 20]), name= "biases")
# 创建一个Saver
saver = tf.train.Saver()
with tf.Session() as sess:
# Restore variables from disk.
saver.restore(sess, "./tmp/model.ckpt")

使用变量实现一个计数器


 
      
# 创建一个变量, 初始化为标量 0.
state = tf.Variable( 0, name= "counter")
# 创建一个 op, 其作用是使 state 增加 1
one = tf.constant( 1)
new = tf.add(state, one)
update = tf.assign(state, new) #使用assign将 new 赋值给 state
# 启动图后, 变量必须先经过`初始化` (init) op 初始化,
# 首先必须增加一个`初始化` op 到图中.
init_op = tf.global_variables_initializer()
# 启动图, 运行 op
with tf.Session() as sess:
# 运行 'init' op
sess.run(init_op)
# 打印 'state' 的初始值
print (sess.run(state))
# 运行 op, 更新 'state', 并打印 'state'
for _ in range( 3):
sess.run(update)
print(sess.run(state))

输出结果:

 
      
1
2
3
4
 
      
0
1
2
3

其中的一个函数:

tf.assign(ref, value, validate_shape=None, use_locking=None, name=None),函数完成了将value赋值给ref的作用。其中:ref 必须是tf.Variable创建的tensor,如果ref=tf.constant()会报错! Fetch


Fetch用于取回操作的输出内容。

为了取回操作的输出内容,可以在使用 Session对象的 run()调用执行图时,传入一些 tensor,这些tensor会帮助你取回结果。

需要获取的多个 tensor 值,在 op 的一次运行中一起获得(而不是逐个去获取 tensor)。

 
      
1
2
3
4
5
6
7
 
      
input1 = tf.constant( 3.0)
input2 = tf.constant( 2.0)
added= tf.add(input1, input2)
mul = tf.multiply(input1, added)
with tf.Session() as sess:
result = sess.run([mul, added]) #需要获取的多个 tensor 值,在 op 的一次运行中一起获得(而不是逐个去获取 tensor)。
print (result)

输出的结果:

 
      
1
 
      
[ 15.0, 5.0]

Feed


feed 使用一个tensor值临时替换一个操作的输出结果。

可以将feed数据作为run()调用的参数。

feed只在调用它的方法内有效,方法结后,feed就会消失。

最常见的用例是将某些特殊的操作指定为 “feed” 操作, 标记的方法是使用 tf.placeholder() 为这些操作创建占位符。

 
      
1
2
3
4
5
 
      
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
output = tf.multiply(input1, input2)
with tf.Session() as sess:
print (sess.run([output], feed_dict={input1:[ 5.], input2:[ 2.]}))

输出的结果:

 
      
1
 
      
[array([ 10.], dtype=float32)]
www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

END

www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

实战案例



www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识



爱数据,爱技术,爱AI,36大数据社群(大数据交流、AI技术学习群、机器人研究、AI+行业、企业合作群)火热招募中,对大数据和AI感兴趣的小伙伴们。增加AI小秘书微信号:a769996688,说明身份即可加入。

www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识
www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识
www.zeeklog.com  - 教程▍一步步上手TensorFlow——基础知识

长按识别二维码关注我们

欢迎投稿,投稿/合作:[email protected]

如果您觉得文章不错,那就分享到朋友圈~