时间:2021-05-22
对于单个的 RNNCell , 使用色的 call 函数进行运算时 ,只是在序列时间上前进了一步 。
如使用 x1、 ho 得到此h1, 通过 x2 、 h1得到 h2等 。
tf.nn.dynamic_rnn的作用:
如果序列长度为n,要调用n次call函数,比较麻烦。对此,TensorFlow提供了一个tf.nn.dynamic_mn函数,使用该函数相当于调用了n次call函数。通过{ho, x1 , x2,…, xn}直接得到{h1 , h2,…, hn}。
具体来说,设输入数据的格式为(batch_size, time_steps, input size),
其中batch_size表示batch的大小,即包含几个序列。
time_steps表示序列长度,
input_size表示输入数据单个序列单个时间维度上固有的长度。
此时,得到的outputs是time_steps步里所有的输出。它的形状为(batch_size, time_steps, cell.output size)。state 是最后一步的隐状态,形状为(batch_size, cell . state_size) 。
至此,在对每一步的输出进行变换,可以得到损失并进行训练模型了。
以上这篇使用 tf.nn.dynamic_rnn 展开时间维度方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
函数原型tf.nn.dynamic_rnn(cell,inputs,sequence_length=None,initial_state=None,dtype=
tf.nn.bidirectional_dynamic_rnn()函数:defbidirectional_dynamic_rnn(cell_fw,#前向RNNc
1、AttributeError:'module'objecthasnoattribute'rnn_cell'S:将tf.nn.rnn_cell替换为tf.co
tf.reverse_sequence()简述在看bidirectional_dynamic_rnn()的源码的时候,看到了代码中有调用reverse_sequ
双向RNN:bidirectional_dynamic_rnn()函数的使用详解先说下为什么要使用到双向RNN,在读一篇文章的时候,上文提到的信息十分的重要,但