• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1# Activation
2
3
4## 概述
5
6激活类型的算子,所有的激活函数都属于该算子,具体的激活函数类型一句参数来确定。
7
8该算子对应的[NodeType](_n_n_rt_v20.md#nodetype)为NODE_TYPE_ACTIVATION。
9
10输入:
11
12- x,n维张量。
13
14输出:
15
16- 输出x经过激活函数之后的张量。
17
18**起始版本:** 3.2
19
20**相关模块:**[NNRt](_n_n_rt_v20.md)
21
22
23## 汇总
24
25
26### Public 属性
27
28| 名称 | 描述 |
29| -------- | -------- |
30| enum [ActivationType](_n_n_rt_v20.md#activationtype)[activationType](#activationtype) | 激活函数类型。  |
31| float [alpha](#alpha) | 尺寸因子,用于LeakyReLU和ELU激活函数。  |
32| float [minVal](#minval) | 最小值,用于HardTanh激活函数。  |
33| float [maxVal](#maxval) | 最大值,用于HardTanh激活函数。  |
34| boolean [approximate](#approximate) | 是否使用近似算法,用于GRLU激活函数。  |
35
36
37## 类成员变量说明
38
39
40### activationType
41
42```
43enum ActivationType Activation::activationType
44```
45**描述**
46激活函数类型。
47
48
49### alpha
50
51```
52float Activation::alpha
53```
54**描述**
55尺寸因子,用于LeakyReLU和ELU激活函数。
56
57
58### approximate
59
60```
61boolean Activation::approximate
62```
63**描述**
64是否使用近似算法,用于GRLU激活函数。
65
66
67### maxVal
68
69```
70float Activation::maxVal
71```
72**描述**
73最大值,用于HardTanh激活函数。
74
75
76### minVal
77
78```
79float Activation::minVal
80```
81**描述**
82最小值,用于HardTanh激活函数。
83