包装器 tf.keras.layers.Bidirectional() 介绍
发布日期:2021-07-01 04:20:49 浏览次数:2 分类:技术文章

本文共 756 字,大约阅读时间需要 2 分钟。

1. 功能

实现RNN神经网络的双向构造,比如LSTM、GRU等等

2.参数

tf.keras.layers.Bidirectional(    layer, merge_mode='concat', weights=None, backward_layer=None,    **kwargs)
  • layer:选择模型,如LSTM、GRU
  • merge_mode:前向和后向RNN的输出将被组合的模式。{‘sum’,‘mul’,‘concat’,‘ave’,None}中的一个。如果为None,则将不合并输出,它们将作为列表返回。默认值为“ concat”。
  • weights:官网也没有说明。
  • backward_layer:处理向后输入处理的神经网络,如果未提供,则作为参数传递的图层实例 将用于自动生成后向图层。

注意:

该层的调用参数与包装的RNN层的调用参数相同。请注意,在initial_state此层的调用期间传递参数时,列表中元素列表的前半部分initial_state 将传递给正向RNN调用,而元素列表中的后半部分将传递给后向RNN调用。

代码示例:

model = Sequential()model.add(Bidirectional(LSTM(10, return_sequences=True),                        input_shape=(5, 10)))model.add(Bidirectional(LSTM(10)))model.add(Dense(5))model.add(Activation('softmax'))model.compile(loss='categorical_crossentropy', optimizer='rmsprop')

转载地址:https://mtyjkh.blog.csdn.net/article/details/115524419 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:时序数据-LSTM模型-实现用电量预测
下一篇:词云制作 Python

发表评论

最新留言

不错!
[***.144.177.141]2024年04月11日 02时13分30秒