• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1mindspore.nn.RReLU
2==================
3
4.. py:class:: mindspore.nn.RReLU(lower=1 / 8, upper=1 / 3)
5
6   逐元素计算RReLU(Randomized Leaky ReLU)激活函数。
7
8   该激活函数定义如下:
9
10   .. math::
11       \text{RReLU}(x_{ji}) = \begin{cases}x_{ji}, &\text{if } x_{ji} \geq 0; \cr
12       {\alpha_{ji}} * x_{ji}, &\text{otherwise.}\end{cases}
13
14   其中,:math:`\alpha_{ji}` ~ :math:`U(l, u)`, :math:`l \le u`。
15
16   更多细节详见 `Empirical Evaluation of Rectified Activations in Convolution Network <https://arxiv.org/pdf/1505.00853.pdf>`_。
17
18   参数:
19       - **lower** (Union[int, float]) - x<0时激活函数的斜率的下界,默认值: ``1 / 8`` 。
20       - **upper** (Union[int, float]) - x<0时激活函数的斜率的上界,默认值: ``1 / 3`` 。
21
22   输入:
23       - **x** (Tensor) - 计算RReLU的任意维度的Tensor。
24
25   输出:
26       Tensor,数据类型和shape与 `x` 相同。
27
28   异常:
29       - **TypeError** - `lower` 不是浮点数或整数。
30       - **TypeError** - `upper` 不是浮点数或整数。
31       - **TypeError** - `x` 不是Tensor。
32       - **TypeError** - `x` 内的数据类型不是mindspore.float16mindspore.float3233       - **ValueError** - `lower` 大于 `upper`。
34