1# Activation 2 3## 概述 4 5激活类型的算子,所有的激活函数都属于该算子,具体的激活函数类型依据参数来确定。 6 7该算子对应的[NodeType](_n_n_rt_v10.md#nodetype)为NODE_TYPE_ACTIVATION。 8 9输入: 10 11- x,n维张量。 12 13输出: 14 15- 输出x经过激活函数之后的张量。 16 17**起始版本:** 3.2 18 19**相关模块:**[NNRt](_n_n_rt_v10.md) 20 21## 汇总 22 23### Public 属性 24 25| 名称 | 描述 | 26| -------- | -------- | 27| enum [ActivationType](_n_n_rt_v10.md#activationtype)[activationType](#activationtype) | 激活函数类型。 | 28| float [alpha](#alpha) | 尺寸因子,用于LeakyReLU和ELU激活函数。 | 29| float [minVal](#minval) | 最小值,用于HardTanh激活函数。 | 30| float [maxVal](#maxval) | 最大值,用于HardTanh激活函数。 | 31| boolean [approximate](#approximate) | 是否使用近似算法,用于GRLU激活函数。 | 32 33## 类成员变量说明 34 35### activationType 36 37``` 38enum ActivationType Activation::activationType 39``` 40**描述** 41 42激活函数类型。 43 44### alpha 45 46``` 47float Activation::alpha 48``` 49**描述** 50 51尺寸因子,用于LeakyReLU和ELU激活函数。 52 53### approximate 54 55``` 56boolean Activation::approximate 57``` 58**描述** 59 60是否使用近似算法,用于GRLU激活函数。 61 62### maxVal 63 64``` 65float Activation::maxVal 66``` 67**描述** 68 69最大值,用于HardTanh激活函数。 70 71### minVal 72 73``` 74float Activation::minVal 75``` 76**描述** 77 78最小值,用于HardTanh激活函数。 79