• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1# Activation
2
3## 概述
4
5激活类型的算子,所有的激活函数都属于该算子,具体的激活函数类型依据参数来确定。
6
7该算子对应的[NodeType](_n_n_rt_v10.md#nodetype)为NODE_TYPE_ACTIVATION。
8
9输入:
10
11- x,n维张量。
12
13输出:
14
15- 输出x经过激活函数之后的张量。
16
17**起始版本:** 3.2
18
19**相关模块:**[NNRt](_n_n_rt_v10.md)
20
21## 汇总
22
23### Public 属性
24
25| 名称 | 描述 |
26| -------- | -------- |
27| enum [ActivationType](_n_n_rt_v10.md#activationtype)[activationType](#activationtype) | 激活函数类型。  |
28| float [alpha](#alpha) | 尺寸因子,用于LeakyReLU和ELU激活函数。  |
29| float [minVal](#minval) | 最小值,用于HardTanh激活函数。  |
30| float [maxVal](#maxval) | 最大值,用于HardTanh激活函数。  |
31| boolean [approximate](#approximate) | 是否使用近似算法,用于GRLU激活函数。  |
32
33## 类成员变量说明
34
35### activationType
36
37```
38enum ActivationType Activation::activationType
39```
40**描述**
41
42激活函数类型。
43
44### alpha
45
46```
47float Activation::alpha
48```
49**描述**
50
51尺寸因子,用于LeakyReLU和ELU激活函数。
52
53### approximate
54
55```
56boolean Activation::approximate
57```
58**描述**
59
60是否使用近似算法,用于GRLU激活函数。
61
62### maxVal
63
64```
65float Activation::maxVal
66```
67**描述**
68
69最大值,用于HardTanh激活函数。
70
71### minVal
72
73```
74float Activation::minVal
75```
76**描述**
77
78最小值,用于HardTanh激活函数。
79