/external/mesa3d/src/amd/compiler/tests/ |
D | test_assembler.cpp | 238 …aco_ptr<VOP3A_instruction> add3{create_instruction<VOP3A_instruction>(aco_opcode::v_add3_u32, Form… variable 239 add3->operands[0] = Operand(0u); 240 add3->operands[1] = Operand(0u); 241 add3->operands[2] = Operand(0u); 242 add3->definitions[0] = Definition(PhysReg(0), v1); 243 bld.insert(std::move(add3)); 256 …aco_ptr<VOP3A_instruction> add3{create_instruction<VOP3A_instruction>(aco_opcode::v_add3_u32, Form… variable 257 add3->operands[0] = Operand(0u); 258 add3->operands[1] = Operand(0u); 259 add3->operands[2] = Operand(0u); [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | nsw.ll | 45 %add3 = add nsw i32 %add, 3 46 ret i32 %add3 53 %add3 = add nsw i8 %add, 3 54 ret i8 %add3 61 %add3 = add nsw i8 %add, 2 62 ret i8 %add3
|
/external/llvm-project/llvm/test/Transforms/LoopVectorize/ARM/ |
D | prefer-tail-loop-folding.ll | 74 %i.09 = phi i32 [ 0, %entry ], [ %add3, %for.body ] 82 %add3 = add nuw nsw i32 %i.09, 1 83 %exitcond = icmp eq i32 %add3, 431 138 %i.09 = phi i32 [ 0, %entry ], [ %add3, %for.body ] 147 %add3 = add nuw nsw i32 %i.09, 1 148 %exitcond = icmp eq i32 %add3, 431 166 %i.09 = phi i32 [ 0, %entry ], [ %add3, %for.body ] 175 %add3 = add nuw nsw i32 %i.09, 1 176 %exitcond = icmp eq i32 %add3, 431 191 %i.09 = phi i32 [ 0, %entry ], [ %add3, %for.body ] [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | postra-mi-sched.ll | 23 %add3 = add nsw i32 %add2, %i2 24 %add4 = add nsw i32 %add3, %add2 25 %mul5 = mul i32 %add3, %add3
|
D | arm64-fma-combines.ll | 36 %add3 = fadd fast <2 x double> %mul2, <double 3.000000e+00, double -3.000000e+00> 41 %e9 = fmul fast <2 x double> %addx, %add3 43 %e10 = extractelement <2 x double> %add3, i32 0 79 %add3 = fadd fast <2 x float> %mul2, <float 3.000000e+00, float -3.000000e+00> 84 %e9 = fmul fast <2 x float> %addx, %add3 86 %e10 = extractelement <2 x float> %add3, i32 0 121 …%add3 = fadd fast <4 x float> %mul2, <float 3.000000e+00, float -3.000000e+00, float 5.000000e+00… 126 %e9 = fmul fast <4 x float> %addx, %add3 128 %e10 = extractelement <4 x float> %add3, i32 0
|
/external/llvm-project/llvm/test/CodeGen/AArch64/ |
D | postra-mi-sched.ll | 23 %add3 = add nsw i32 %add2, %i2 24 %add4 = add nsw i32 %add3, %add2 25 %mul5 = mul i32 %add3, %add3
|
D | arm64-fma-combines.ll | 36 %add3 = fadd fast <2 x double> %mul2, <double 3.000000e+00, double -3.000000e+00> 41 %e9 = fmul fast <2 x double> %addx, %add3 43 %e10 = extractelement <2 x double> %add3, i32 0 79 %add3 = fadd fast <2 x float> %mul2, <float 3.000000e+00, float -3.000000e+00> 84 %e9 = fmul fast <2 x float> %addx, %add3 86 %e10 = extractelement <2 x float> %add3, i32 0 121 …%add3 = fadd fast <4 x float> %mul2, <float 3.000000e+00, float -3.000000e+00, float 5.000000e+00… 126 %e9 = fmul fast <4 x float> %addx, %add3 128 %e10 = extractelement <4 x float> %add3, i32 0
|
/external/llvm-project/llvm/test/Other/ |
D | debugcounter-dce.ll | 10 ; CHECK-NEXT: %add3 = add i32 1, 2 17 %add3 = add i32 1, 2 18 %sub3 = sub i32 %add3, 1
|
/external/llvm/test/CodeGen/SystemZ/ |
D | frame-05.ll | 51 %add3 = add i32 %l3, %add1 52 %add4 = add i32 %l4, %add3 65 store volatile i32 %add3, i32 *%ptr 118 %add3 = add i32 %l3, %add1 119 %add4 = add i32 %l4, %add3 131 store volatile i32 %add3, i32 *%ptr 174 %add3 = add i32 %l3, %add1 175 %add4 = add i32 %l4, %add3 180 store volatile i32 %add3, i32 *%ptr 209 %add3 = add i32 %l3, %add1 [all …]
|
D | frame-06.ll | 48 %add3 = add i64 %l3, %add1 49 %add4 = add i64 %l4, %add3 62 store volatile i64 %add3, i64 *%ptr 115 %add3 = add i64 %l3, %add1 116 %add4 = add i64 %l4, %add3 128 store volatile i64 %add3, i64 *%ptr 171 %add3 = add i64 %l3, %add1 172 %add4 = add i64 %l4, %add3 177 store volatile i64 %add3, i64 *%ptr 206 %add3 = add i64 %l3, %add1 [all …]
|
D | frame-03.ll | 61 %add3 = fadd double %l3, %add2 62 %add4 = fadd double %l4, %add3 77 store volatile double %add3, double *%ptr 142 %add3 = fadd double %l3, %add2 143 %add4 = fadd double %l4, %add3 157 store volatile double %add3, double *%ptr 202 %add3 = fadd double %l3, %add2 203 %add4 = fadd double %l4, %add3 211 store volatile double %add3, double *%ptr 245 %add3 = fadd double %l3, %add2 [all …]
|
D | frame-02.ll | 59 %add3 = fadd float %l3, %add2 60 %add4 = fadd float %l4, %add3 75 store volatile float %add3, float *%ptr 140 %add3 = fadd float %l3, %add2 141 %add4 = fadd float %l4, %add3 155 store volatile float %add3, float *%ptr 200 %add3 = fadd float %l3, %add2 201 %add4 = fadd float %l4, %add3 209 store volatile float %add3, float *%ptr 243 %add3 = fadd float %l3, %add2 [all …]
|
/external/llvm-project/llvm/test/CodeGen/SystemZ/ |
D | frame-05.ll | 51 %add3 = add i32 %l3, %add1 52 %add4 = add i32 %l4, %add3 65 store volatile i32 %add3, i32 *%ptr 118 %add3 = add i32 %l3, %add1 119 %add4 = add i32 %l4, %add3 131 store volatile i32 %add3, i32 *%ptr 174 %add3 = add i32 %l3, %add1 175 %add4 = add i32 %l4, %add3 180 store volatile i32 %add3, i32 *%ptr 209 %add3 = add i32 %l3, %add1 [all …]
|
D | frame-06.ll | 48 %add3 = add i64 %l3, %add1 49 %add4 = add i64 %l4, %add3 62 store volatile i64 %add3, i64 *%ptr 115 %add3 = add i64 %l3, %add1 116 %add4 = add i64 %l4, %add3 128 store volatile i64 %add3, i64 *%ptr 171 %add3 = add i64 %l3, %add1 172 %add4 = add i64 %l4, %add3 177 store volatile i64 %add3, i64 *%ptr 206 %add3 = add i64 %l3, %add1 [all …]
|
D | frame-02.ll | 59 %add3 = fadd float %l3, %add2 60 %add4 = fadd float %l4, %add3 75 store volatile float %add3, float *%ptr 140 %add3 = fadd float %l3, %add2 141 %add4 = fadd float %l4, %add3 155 store volatile float %add3, float *%ptr 200 %add3 = fadd float %l3, %add2 201 %add4 = fadd float %l4, %add3 209 store volatile float %add3, float *%ptr 243 %add3 = fadd float %l3, %add2 [all …]
|
D | frame-03.ll | 61 %add3 = fadd double %l3, %add2 62 %add4 = fadd double %l4, %add3 77 store volatile double %add3, double *%ptr 142 %add3 = fadd double %l3, %add2 143 %add4 = fadd double %l4, %add3 157 store volatile double %add3, double *%ptr 202 %add3 = fadd double %l3, %add2 203 %add4 = fadd double %l4, %add3 211 store volatile double %add3, double *%ptr 245 %add3 = fadd double %l3, %add2 [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | fast-isel-args.ll | 31 %add3 = fadd float %e, %f 34 %add6 = fadd float %add3, %add4 43 %add3 = fadd double %e, %f 46 %add6 = fadd double %add3, %add4
|
/external/llvm-project/llvm/test/CodeGen/X86/ |
D | fast-isel-args.ll | 31 %add3 = fadd float %e, %f 34 %add6 = fadd float %add3, %add4 43 %add3 = fadd double %e, %f 46 %add6 = fadd double %add3, %add4
|
D | pre-coalesce.ll | 35 %t3 = phi i32 [ %add3, %while.body ], [ %t2, %while.body.preheader ] 39 %add3 = add nsw i32 %add, %conv 40 store i32 %add3, i32* @a, align 4 49 %.lcssa = phi i32 [ %t2, %entry ], [ %add3, %while.end.loopexit ]
|
/external/llvm/test/CodeGen/Hexagon/ |
D | cext-check.ll | 23 %add3 = add nsw i32 %2, 300 27 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ] 51 %add3 = add nsw i32 %conv2, 6000 55 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ]
|
/external/llvm-project/llvm/test/CodeGen/Hexagon/ |
D | cext-check.ll | 23 %add3 = add nsw i32 %2, 300 27 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ] 51 %add3 = add nsw i32 %conv2, 6000 55 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ]
|
/external/llvm-project/llvm/test/Transforms/Reassociate/ |
D | mixed-fast-nonfast-fp.ll | 19 %add3 = fadd fast float %add1, %add2 20 ret float %add3 40 %add3 = fadd fast float %add1, %add2 41 ret float %add3
|
/external/llvm-project/llvm/test/Transforms/LoopVectorize/X86/ |
D | x86_fp80-interleaved-access.ll | 17 %i.09 = phi i16 [ 0, %entry ], [ %add3, %for.body ] 26 %add3 = add nuw nsw i16 %i.09, 2 27 %cmp = icmp ult i16 %add3, 400
|
/external/llvm-project/llvm/test/CodeGen/ARM/ |
D | machine-outliner-cfi-2.ll | 38 %add3 = add i32 %add2, %3 39 %add4 = add i32 %add3, %4 61 %add3 = add i32 %add2, %3 62 %add4 = add i32 %add3, %4
|
/external/llvm-project/llvm/test/Analysis/ScalarEvolution/ |
D | huge_expression_limit.ll | 12 ; CHECK-NEXT: %add3 = add i32 %add2, %d 14 ; CHECK-NEXT: %add4 = add i32 %add3, %e 32 %add3 = add i32 %add2, %d 33 %add4 = add i32 %add3, %e
|