激活函数记录
发布日期:2021-06-29 11:45:58 浏览次数:3 分类:技术文章

本文共 241 字,大约阅读时间需要 1 分钟。

tf.nn.softplus():输入是features    log(exp(features) + 1)

tf.nn.softsign():输入是features   features / (abs(features) + 1)

tf.nn.relu(): max(features, 0)

tf.nn.relu6(): min(max(features, 0),6)

tf.nn.softmax():  For each batch `i` and class `j` we have

 

 

 

 

转载地址:https://blog.csdn.net/zz2230633069/article/details/94641259 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:权重初始化的方法
下一篇:关于Batch Normalization

发表评论

最新留言

逛到本站,mark一下
[***.202.152.39]2024年04月27日 05时22分07秒