1mindspore.nn.RReLU 2================== 3 4.. py:class:: mindspore.nn.RReLU(lower=1 / 8, upper=1 / 3) 5 6 逐元素计算RReLU(Randomized Leaky ReLU)激活函数。 7 8 该激活函数定义如下: 9 10 .. math:: 11 \text{RReLU}(x_{ji}) = \begin{cases}x_{ji}, &\text{if } x_{ji} \geq 0; \cr 12 {\alpha_{ji}} * x_{ji}, &\text{otherwise.}\end{cases} 13 14 其中,:math:`\alpha_{ji}` ~ :math:`U(l, u)`, :math:`l \le u`。 15 16 更多细节详见 `Empirical Evaluation of Rectified Activations in Convolution Network <https://arxiv.org/pdf/1505.00853.pdf>`_。 17 18 参数: 19 - **lower** (Union[int, float]) - x<0时激活函数的斜率的下界,默认值: ``1 / 8`` 。 20 - **upper** (Union[int, float]) - x<0时激活函数的斜率的上界,默认值: ``1 / 3`` 。 21 22 输入: 23 - **x** (Tensor) - 计算RReLU的任意维度的Tensor。 24 25 输出: 26 Tensor,数据类型和shape与 `x` 相同。 27 28 异常: 29 - **TypeError** - `lower` 不是浮点数或整数。 30 - **TypeError** - `upper` 不是浮点数或整数。 31 - **TypeError** - `x` 不是Tensor。 32 - **TypeError** - `x` 内的数据类型不是mindspore.float16或mindspore.float32。 33 - **ValueError** - `lower` 大于 `upper`。 34