网站首页 > 文章精选 正文
2015 年 11 月,wikipedia的用户 Laughinthestocks 首次引入了“激活函数表”。从那时开始到现在,维基百科页面已经发生了 391 次更改。在本文中,我通过自己写的一个程序来挖掘截至 2022 年 4 月 22 日时维基百科页面历史中的每个唯一激活函数。本文还提供了针对激活函数的适当研究论文的附加链接,如果没有或者在无法找到特定研究论文的情况下,提供了相关的相关论文。
例如:通常人们会将 tanh 用于 FNN,将 ReLU 用于 CNN。
如果我们包括 Identity Activation 函数,这个列表将包含 42 个激活函数,这里面肯定有没有见过的。
Binary step
公式
导数
Logistic, sigmoid, or soft step
公式:
导数
还有双极 sigmoid(1.f-expf(-x)) / (1.f + expf(-x))
ElliotSig 或 Softsign
公式:
导数
双曲正切 (tanh)
公式
导数
Arctangent / Arctan / atan
公式
导数
Softplus
公式
导数
Rectified linear unit (ReLU) (ReLU6)
公式
导数
Exponential linear unit (ELU)
公式
导数
Gaussian Error Linear Unit (GELU)
公式
导数
Scaled exponential linear unit (SELU)
公式
导数
Mish
公式
导数
Leaky rectified linear unit (Leaky ReLU)
公式
导数
Parametric rectified linear unit (PReLU)
公式
导数
Parametric Exponential Linear Unit (PELU)
公式
导数
S-shaped rectified linear activation unit (SReLU)
公式
导数
Bipolar rectified linear unit (BReLU)
公式
导数
Randomized leaky rectified linear unit (RReLU)
Sigmoid linear unit (SiLU) or Swish
Gaussian
Growing Cosine Unit (GCU)
Shifted Quadratic Unit (SQU)
Non-Monotonic Cubic Unit (NCU)
Shifted Sinc Unit (SSU)
没有提供导数公式,参考论文: https://arxiv.org/pdf/2111.04020.pdf。
Decaying Sine Unit (DSU)
没有提供导数公式,请参考论文:https://arxiv.org/pdf/2111.04020.pdf
Phish
没有提供导数公式,请参考论文: https://www.techrxiv.org/ndownloader/files/33227273/2
SQ-RBF
Inverse square root unit (ISRU)
Square nonlinearity (SQNL)
Sigmoid shrinkage
“Squashing functions”
Maxout
该函数导数为正负 无限
Bent Identity
Sinusoid
Sinc (taming the waves)
ArSinH
Soft Clipping (goldilocks)
Piecewise Linear Unit (PLU)
Adaptive piecewise linear (APL)
Inverse Cubic
Soft Exponential
LeCun hyperbolic tangent (42?)
作者:Fletch
- 上一篇: 5分钟搞定ReLU:最受欢迎的激活功能
- 下一篇: 深度学习:梯度消失问题及解决方案
猜你喜欢
- 2025-01-09 图注意力网络论文详解和PyTorch实现
- 2025-01-09 使用scikit-learn为PyTorch 模型进行超参数网格搜索
- 2025-01-09 神经网络调试:梯度可视化
- 2025-01-09 涨姿势!「手动」调试神经网络,可以这样做
- 2025-01-09 图深度学习,入门教程七,残差多层图注意力模型
- 2025-01-09 深度学习的秘密武器:用 PyTorch 的 torch.nn.ReLU 打造高效模型
- 2025-01-09 #轻松学习深度学习(AI) 4 神经元的一般化
- 2025-01-09 基于深度学习的运动想象脑机接口研究综述
- 2025-01-09 使用多尺度patch合成来做高分辨率的图像复原
- 2025-01-09 神经网络训练tricks
- 最近发表
- 标签列表
-
- newcoder (56)
- 字符串的长度是指 (45)
- drawcontours()参数说明 (60)
- unsignedshortint (59)
- postman并发请求 (47)
- python列表删除 (50)
- 左程云什么水平 (56)
- 计算机网络的拓扑结构是指() (45)
- 稳压管的稳压区是工作在什么区 (45)
- 编程题 (64)
- postgresql默认端口 (66)
- 数据库的概念模型独立于 (48)
- 产生系统死锁的原因可能是由于 (51)
- 数据库中只存放视图的 (62)
- 在vi中退出不保存的命令是 (53)
- 哪个命令可以将普通用户转换成超级用户 (49)
- noscript标签的作用 (48)
- 联合利华网申 (49)
- swagger和postman (46)
- 结构化程序设计主要强调 (53)
- 172.1 (57)
- apipostwebsocket (47)
- 唯品会后台 (61)
- 简历助手 (56)
- offshow (61)