当前位置:网站首页 > 技术博客 > 正文

pytorchlstm

原型参数定义Applied element-wise, as:SELU(x)=scale∗(max⁡⁡(0,x)+min⁡⁡(0,α∗(exp⁡⁡(x)−1)))

ext{SELU}(x)=scale∗(max⁡(0,x)+min⁡(0, alpha∗(exp⁡(x)−1)))

SELU(x)=scale∗(max⁡(0,x)+min⁡(0,α∗(exp⁡(x)−1)))图代码

【参考】

SELU —

PyTorch

1.13 documentation

版权声明


相关文章:

  • rsyslog日志存放路径2024-12-16 23:30:03
  • js网页特效范例宝典2024-12-16 23:30:03
  • java连接池工作原理2024-12-16 23:30:03
  • 私募股权百科2024-12-16 23:30:03
  • 应用层协议http2024-12-16 23:30:03
  • 计算机网络的诞生与发展历程2024-12-16 23:30:03
  • 域密码怎么看2024-12-16 23:30:03
  • 验证码爬虫代码2024-12-16 23:30:03
  • rbac权限管理实现2024-12-16 23:30:03
  • 解析xml方式2024-12-16 23:30:03