1# Activation 2 3 4## 概述 5 6激活类型的算子,所有的激活函数都属于该算子,具体的激活函数类型一句参数来确定。 7 8该算子对应的[NodeType](_n_n_rt_v20.md#nodetype)为NODE_TYPE_ACTIVATION。 9 10输入: 11 12- x,n维张量。 13 14输出: 15 16- 输出x经过激活函数之后的张量。 17 18**起始版本:** 3.2 19 20**相关模块:**[NNRt](_n_n_rt_v20.md) 21 22 23## 汇总 24 25 26### Public 属性 27 28| 名称 | 描述 | 29| -------- | -------- | 30| enum [ActivationType](_n_n_rt_v20.md#activationtype)[activationType](#activationtype) | 激活函数类型。 | 31| float [alpha](#alpha) | 尺寸因子,用于LeakyReLU和ELU激活函数。 | 32| float [minVal](#minval) | 最小值,用于HardTanh激活函数。 | 33| float [maxVal](#maxval) | 最大值,用于HardTanh激活函数。 | 34| boolean [approximate](#approximate) | 是否使用近似算法,用于GRLU激活函数。 | 35 36 37## 类成员变量说明 38 39 40### activationType 41 42``` 43enum ActivationType Activation::activationType 44``` 45**描述** 46激活函数类型。 47 48 49### alpha 50 51``` 52float Activation::alpha 53``` 54**描述** 55尺寸因子,用于LeakyReLU和ELU激活函数。 56 57 58### approximate 59 60``` 61boolean Activation::approximate 62``` 63**描述** 64是否使用近似算法,用于GRLU激活函数。 65 66 67### maxVal 68 69``` 70float Activation::maxVal 71``` 72**描述** 73最大值,用于HardTanh激活函数。 74 75 76### minVal 77 78``` 79float Activation::minVal 80``` 81**描述** 82最小值,用于HardTanh激活函数。 83