• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1# Activation
2
3
4## 概述
5
6激活类型的算子,所有的激活函数都属于该算子,具体的激活函数类型一句参数来确定。
7
8该算子对应的[NodeType](_n_n_rt.md#nodetype)为NODE_TYPE_ACTIVATION。
9
10输入:
11
12- x,n维张量。
13
14输出:
15
16- 输出x经过激活函数之后的张量。
17
18**Since:**
193.2
20**Version:**
211.0
22**相关模块:**
23
24[NNRt](_n_n_rt.md)
25
26
27## 汇总
28
29
30### Public 属性
31
32  | 名称 | 描述 |
33| -------- | -------- |
34| [activationType](#activationtype) | enum&nbsp;[ActivationType](_n_n_rt.md#activationtype)<br/>激活函数类型。&nbsp; |
35| [alpha](#alpha) | float<br/>尺寸因子,用于LeakyReLU和ELU激活函数。&nbsp; |
36| [minVal](#minval) | float<br/>最小值,用于HardTanh激活函数。&nbsp; |
37| [maxVal](#maxval) | float<br/>最大值,用于HardTanh激活函数。&nbsp; |
38| [approximate](#approximate) | boolean<br/>是否使用近似算法,用于GRLU激活函数。&nbsp; |
39
40
41## 类成员变量说明
42
43
44### activationType
45
46
47```
48enum ActivationType Activation::activationType
49```
50**描述:**
51激活函数类型。
52
53
54### alpha
55
56
57```
58float Activation::alpha
59```
60**描述:**
61尺寸因子,用于LeakyReLU和ELU激活函数。
62
63
64### approximate
65
66
67```
68boolean Activation::approximate
69```
70**描述:**
71是否使用近似算法,用于GRLU激活函数。
72
73
74### maxVal
75
76
77```
78float Activation::maxVal
79```
80**描述:**
81最大值,用于HardTanh激活函数。
82
83
84### minVal
85
86
87```
88float Activation::minVal
89```
90**描述:**
91最小值,用于HardTanh激活函数。
92