
初次理解LSTM本质
发布日期:2021-05-07 14:32:24
浏览次数:25
分类:原创文章
本文共 925 字,大约阅读时间需要 3 分钟。
-
RNN(Recurrent Neural Network)
思想具有持久性,当前的认知是以过往认知为基础的,RNN是包含循环的网络,允许信息的持久化。
RNN可以看作是同一神经网络的多次复制,每个神经网络模块会把消息传递给下一个。
这种链式特征揭示了RNN本质上是与序列和列表相关的,他们是对于这类数据的最自然的神经网络架构。
RNN现实应用广泛: 这篇文章展示了许多有趣的应用。
广泛应用的关键之处就是LSTM(一种特别的RNN)的使用,几乎所有令人振奋的关于RNN的结果都是通过LSTM达到的。
-
LSTM(Long Short-Term Memory)
-
Long-Term Dependencies长期依赖问题
RNN的关键优点就是可以将先前的信息连接到当前任务上。(有点Bayes的味道)
当前任务与关联的先前信息之间存在一个位置间隔。如果这个间隔不是很远,则RNN效果比较容易出现,相反,如果这个位置间隔较长,则RNN连接先验的能力就不明显了。
理论上,即便较远也可以找到一个较好的RNN模型,不过现实中基本不可用,等人找到了一些深层的理论解释。
-
LSTM(Long Short Term网络)
LSTM就不受此困扰。作为一种RNN的特殊变体,可以学习长期依赖信息(间隔较长)。
LSTM 由提出,被进行了改良和推广。
LSTM 通过刻意的设计来避免长期依赖问题。记住长期的信息在实践中是 LSTM 的默认行为,而非需要付出很大代价才能获得的能力!
所有 RNN 都具有一种重复神经网络模块的链式的形式。在标准的 RNN 中,这个重复的模块只有一个非常简单的结构,例如一个 tanh 层。
LSTM在链式结构上相同,不同的是每个重复单元内部不是单一神经网络层,而是有四个。
-
- ##### LSTM LSTM本身不是一个完整的模型,准确说应该是**使用LSTM单元的RNN网络**。 关于更多详细细分领域的学习路线[^2]。 [《LSTM简介以及数学推导(FULL BPTT)》](https://blog.csdn.net/a635661820/article/details/45390671)
-
References
发表评论
最新留言
很好
[***.229.124.182]2025年03月29日 21时50分15秒
关于作者

喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!
推荐文章
js的严格模式
2021-05-09
idea的安装和无限期试用
2021-05-09
Oracle VM VirtualBox安装PVE虚拟机
2021-05-09
【转】如何用css限制文字长度,使溢出的内容用省略号…显示
2021-05-09
Android MediaPlayer setDataSource failed
2021-05-09
ASP.NET Core 实战:Linux 小白的 .NET Core 部署之路
2021-05-09
【nodejs原理&源码杂记(8)】Timer模块与基于二叉堆的定时器
2021-05-09
大前端的自动化工厂(1)——Yeoman
2021-05-09
数据仓库建模方法论
2021-05-09
虚拟机搭建hadoop环境
2021-05-09
DataStax Bulk Loader教程(四)
2021-05-09
物联网、5G世界与大数据管理
2021-05-09
Cassandra与Kubernetes
2021-05-09
.NET应用框架架构设计实践 - 概述
2021-05-09
Rust 内置 trait :PartialEq 和 Eq
2021-05-09
Hibernate(十四)抓取策略
2021-05-09
[菜鸟的设计模式之旅]观察者模式
2021-05-09
Spring-继承JdbcDaoSupport类后简化配置文件内容
2021-05-09
Java基础IO流(一)
2021-05-09