• Home
  • Raw
  • Download

Lines Matching full:ops

46 def register_annotator(ops: List[OpOverload]):
49 for op in ops:
91 torch.ops.aten.relu.default,
92 torch.ops.aten.relu_.default,
93 torch.ops.aten.relu6.default,
107 torch.ops.aten.conv1d.default,
108 torch.ops.aten.conv2d.default,
109 torch.ops.aten.linear.default,
123 torch.ops.aten.add.Scalar,
124 torch.ops.aten.add.Tensor,
125 torch.ops.aten.add_.Scalar,
126 torch.ops.aten.add_.Tensor,
127 torch.ops.aten.div.Scalar,
128 torch.ops.aten.div.Tensor,
129 torch.ops.aten.div_.Scalar,
130 torch.ops.aten.div_.Tensor,
131 torch.ops.aten.divide.Scalar,
132 torch.ops.aten.divide.Tensor,
133 torch.ops.aten.mul.Scalar,
134 torch.ops.aten.mul.Tensor,
135 torch.ops.aten.mul_.Scalar,
136 torch.ops.aten.mul_.Tensor,
137 torch.ops.aten.rsub.Scalar,
138 torch.ops.aten.rsub.Tensor,
139 torch.ops.aten.sub.Scalar,
140 torch.ops.aten.sub.Tensor,
141 torch.ops.aten.sub_.Scalar,
142 torch.ops.aten.sub_.Tensor,
194 torch.ops.aten.conv1d.default,
195 torch.ops.aten.conv2d.default,
196 torch.ops.aten.linear.default,
217 torch.ops.aten.add.Scalar,
218 torch.ops.aten.add.Tensor,
219 torch.ops.aten.add_.Scalar,
220 torch.ops.aten.add_.Tensor,
221 torch.ops.aten.bmm.default,
222 torch.ops.aten.div.Scalar,
223 torch.ops.aten.div.Tensor,
224 torch.ops.aten.div_.Scalar,
225 torch.ops.aten.div_.Tensor,
226 torch.ops.aten.divide.Scalar,
227 torch.ops.aten.divide.Tensor,
228 torch.ops.aten.gelu.default,
229 torch.ops.aten.group_norm.default,
230 torch.ops.aten.layer_norm.default,
231 torch.ops.aten.leaky_relu.default,
232 torch.ops.aten.matmul.default,
233 torch.ops.aten.mul.Scalar,
234 torch.ops.aten.mul.Tensor,
235 torch.ops.aten.mul_.Scalar,
236 torch.ops.aten.mul_.Tensor,
237 torch.ops.aten.pow.Scalar,
238 torch.ops.aten.pow.Tensor_Scalar,
239 torch.ops.aten.pow.Tensor_Tensor,
240 torch.ops.aten.prelu.default,
241 torch.ops.aten.rsub.Scalar,
242 torch.ops.aten.rsub.Tensor,
243 torch.ops.aten.silu.default,
244 torch.ops.aten.sub.Scalar,
245 torch.ops.aten.sub.Tensor,
246 torch.ops.aten.sub_.Scalar,
247 torch.ops.aten.sub_.Tensor,
257 @register_annotator([torch.ops.aten.embedding.default])