tf.tile()应用于需要张量扩展的场景,具体说来就是:
如果现有一个形状如[width, height]的张量,需要得到一个基于原张量的,形状如[batch_size,width,height]的张量,其中每一个batch的内容都和原张量一模一样。tf.tile使用方法如:
tile( input, multiples, name=None )
import tensorflow as tf a = tf.constant([7,19]) a1 = tf.tile(a,multiples=[3]) #第一个维度扩充3遍 b = tf.constant([[4,5],[3,5]]) b1 = tf.tile(b,multiples=[2,3])#第一个维度扩充2遍,第二个维度扩充3遍 with tf.Session() as sess: print(sess.run(a)) print(sess.run(a1)) print(sess.run(b)) print(sess.run(b1))
补充知识:tf.tile() 和 tf.contrib.seq2seq.tile_batch()
简单介绍这两个函数的基本用法, 以及区别. 以及在 BeamSearch 的时候用哪个"htmlcode">
# 将input的某一维度复制多少次, len(input.shape()) 等于 len(multiples) # tf.tile(input, multiples, name=None) t = tf.constant([[1, 1, 1, 9], [2, 2, 2, 9], [7, 7, 7, 9]]) # 第一维度和第二维度都保持不变 z0 = tf.tile(t, multiples=[1, 1]) # 第1维度不变, 第二维度复制为2份 z1 = tf.tile(t, multiples=[1, 2]) # 第1维度复制为两份, 第二维度不变 z2 = tf.tile(t, multiples=[2, 1]) # tf.contrib.seq2seq.tile_batch(encoder_outputs, multiplier=self.beam_size) encoder_outputs = tf.constant([[[1, 3, 1], [2, 3, 2]], [[2, 3, 4], [2, 3, 2]]]) print(encoder_outputs.get_shape()) # (2, 2, 3) # 将batch内的每个样本复制3次, tile_batch() 的第2个参数是一个 int 类型数据 z4 = tf.contrib.seq2seq.tile_batch(encoder_outputs, multiplier=3) with tf.Session() as sess: print(sess.run(z0)) print(sess.run(z1)) print(sess.run(z2)) 输出: [[1 1 1 9] [2 2 2 9] [7 7 7 9]] [[1 1 1 9 1 1 1 9] [2 2 2 9 2 2 2 9] [7 7 7 9 7 7 7 9]] [[1 1 1 9] [2 2 2 9] [7 7 7 9] [1 1 1 9] [2 2 2 9] [7 7 7 9]] [[[1 3 1] [2 3 2]] [[1 3 1] [2 3 2]] [[1 3 1] [2 3 2]] [[2 3 4] [2 3 2]] [[2 3 4] [2 3 2]] [[2 3 4] [2 3 2]]]
以上这篇Tensorflow tf.tile()的用法实例分析就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。