speechbrain.nnet.activations 模块
实现激活函数的库。
- 作者
Mirco Ravanelli 2020
Jianyuan Zhong 2020
摘要
类
从 Gumbel-Softmax 分布中采样,并可选地进行离散化。 |
|
计算 2D、3D 或 4D 输入张量的 softmax。 |
|
该类实现了来自 https://arxiv.org/pdf/2005.03191.pdf 的 Swish 激活函数。 |
参考
- class speechbrain.nnet.activations.Softmax(apply_log=False, dim=-1, reshape=True, dtype=torch.float32)[source]
基类:
Module
计算 2D、3D 或 4D 输入张量的 softmax。
- 参数:
示例
>>> classifier = Softmax() >>> inputs = torch.rand(10, 50, 40) >>> output = classifier(inputs) >>> output.shape torch.Size([10, 50, 40])
- class speechbrain.nnet.activations.GumbelSoftmax(tau, hard=False, apply_log=False)[source]
基类:
Module
从 Gumbel-Softmax 分布中采样,并可选地进行离散化。
参考:https://arxiv.org/abs/1611.00712, https://arxiv.org/abs/1611.01144
- 参数:
示例
>>> x = torch.randn((8, 40, 120)) >>> act = GumbelSoftmax(0.8, True) >>> x = act(x)
- class speechbrain.nnet.activations.Swish(beta: float = 1.0)[source]
基类:
Module
该类实现了来自 https://arxiv.org/pdf/2005.03191.pdf 的 Swish 激活函数。
给定输入 x。 Swish(x) = x / (1 + exp(beta * x))
- 参数:
beta (float) – Beta 值。
示例
>>> x = torch.randn((8, 40, 120)) >>> act = Swish() >>> x = act(x)