• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1mindspore.mint.nn.functional.relu
2=================================
3
4.. py:function:: mindspore.mint.nn.functional.relu(input)
5
6    对输入Tensor逐元素计算线性修正单元激活函数(Rectified Linear Unit)值。
7
8    返回 :math:`\max(input,\  0)` 的值。负值神经元将被设置为0,正值神经元将保持不变。
9
10    .. math::
11        ReLU(input) = (input)^+ = \max(0, input)
12
13    ReLU激活函数图:
14
15    .. image:: ../images/ReLU.png
16        :align: center
17
18    参数:
19        - **input** (Tensor) - 输入Tensor。
20
21    返回:
22        Tensor,其shape和数据类型与输入一致。
23
24    异常:
25        - **TypeError** - `input` 的数据类型不是数值型。
26        - **TypeError** - `input` 不是Tensor。
27