/external/llvm/test/CodeGen/X86/ |
D | haddsub-undef.ll | 24 %add4 = fadd float %vecext2, %vecext3 25 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 74 %add4 = fadd float %vecext2, %vecext3 75 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 139 %add4 = fadd float %vecext2, %vecext3 140 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 160 %add4 = fadd float %vecext2, %vecext3 161 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3 194 %add4 = fadd float %vecext2, %vecext3 195 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 2 [all …]
|
D | add-of-carry.ll | 11 %add4 = add i32 %x, %sum 12 %cmp = icmp ult i32 %add4, %x 14 %z.0 = add i32 %add4, %inc
|
D | fast-isel-args.ll | 32 %add4 = fadd float %g, %h 34 %add6 = fadd float %add3, %add4 44 %add4 = fadd double %g, %h 46 %add6 = fadd double %add3, %add4
|
/external/llvm/test/Transforms/BBVectorize/ |
D | loop1.ll | 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0 47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1 48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2 51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2 75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3 76 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
|
/external/llvm-project/llvm/test/CodeGen/SystemZ/ |
D | frame-08.ll | 43 %add4 = add i32 %l4, %add1 44 %add5 = add i32 %l5, %add4 56 store volatile i32 %add4, i32 *%ptr 95 %add4 = add i32 %l4, %add1 96 %add5 = add i32 %l5, %add4 100 store volatile i32 %add4, i32 *%ptr 146 %add4 = add i32 %l4, %add1 147 %add5 = add i32 %l5, %add4 159 store volatile i32 %add4, i32 *%ptr 197 %add4 = add i32 %l4, %add1 [all …]
|
D | frame-04.ll | 51 %add4 = fadd fp128 %l4, %add1 52 %add5 = fadd fp128 %l5, %add4 59 store volatile fp128 %add4, fp128 *%ptr 106 %add4 = fadd fp128 %l4, %add1 107 %add5 = fadd fp128 %l5, %add4 113 store volatile fp128 %add4, fp128 *%ptr 149 %add4 = fadd fp128 %l4, %add1 150 %add5 = fadd fp128 %l5, %add4 154 store volatile fp128 %add4, fp128 *%ptr 180 %add4 = fadd fp128 %l4, %add1 [all …]
|
D | frame-05.ll | 52 %add4 = add i32 %l4, %add3 53 %add5 = add i32 %l5, %add4 66 store volatile i32 %add4, i32 *%ptr 119 %add4 = add i32 %l4, %add3 120 %add5 = add i32 %l5, %add4 132 store volatile i32 %add4, i32 *%ptr 175 %add4 = add i32 %l4, %add3 176 %add5 = add i32 %l5, %add4 181 store volatile i32 %add4, i32 *%ptr 210 %add4 = add i32 %l4, %add3 [all …]
|
D | frame-06.ll | 49 %add4 = add i64 %l4, %add3 50 %add5 = add i64 %l5, %add4 63 store volatile i64 %add4, i64 *%ptr 116 %add4 = add i64 %l4, %add3 117 %add5 = add i64 %l5, %add4 129 store volatile i64 %add4, i64 *%ptr 172 %add4 = add i64 %l4, %add3 173 %add5 = add i64 %l5, %add4 178 store volatile i64 %add4, i64 *%ptr 207 %add4 = add i64 %l4, %add3 [all …]
|
D | frame-02.ll | 60 %add4 = fadd float %l4, %add3 61 %add5 = fadd float %l5, %add4 76 store volatile float %add4, float *%ptr 141 %add4 = fadd float %l4, %add3 142 %add5 = fadd float %l5, %add4 156 store volatile float %add4, float *%ptr 201 %add4 = fadd float %l4, %add3 202 %add5 = fadd float %l5, %add4 210 store volatile float %add4, float *%ptr 244 %add4 = fadd float %l4, %add3 [all …]
|
D | frame-03.ll | 62 %add4 = fadd double %l4, %add3 63 %add5 = fadd double %l5, %add4 78 store volatile double %add4, double *%ptr 143 %add4 = fadd double %l4, %add3 144 %add5 = fadd double %l5, %add4 158 store volatile double %add4, double *%ptr 203 %add4 = fadd double %l4, %add3 204 %add5 = fadd double %l5, %add4 212 store volatile double %add4, double *%ptr 246 %add4 = fadd double %l4, %add3 [all …]
|
/external/llvm/test/CodeGen/SystemZ/ |
D | frame-08.ll | 43 %add4 = add i32 %l4, %add1 44 %add5 = add i32 %l5, %add4 56 store volatile i32 %add4, i32 *%ptr 95 %add4 = add i32 %l4, %add1 96 %add5 = add i32 %l5, %add4 100 store volatile i32 %add4, i32 *%ptr 146 %add4 = add i32 %l4, %add1 147 %add5 = add i32 %l5, %add4 159 store volatile i32 %add4, i32 *%ptr 197 %add4 = add i32 %l4, %add1 [all …]
|
D | frame-04.ll | 51 %add4 = fadd fp128 %l4, %add1 52 %add5 = fadd fp128 %l5, %add4 59 store volatile fp128 %add4, fp128 *%ptr 106 %add4 = fadd fp128 %l4, %add1 107 %add5 = fadd fp128 %l5, %add4 113 store volatile fp128 %add4, fp128 *%ptr 149 %add4 = fadd fp128 %l4, %add1 150 %add5 = fadd fp128 %l5, %add4 154 store volatile fp128 %add4, fp128 *%ptr 180 %add4 = fadd fp128 %l4, %add1 [all …]
|
D | frame-05.ll | 52 %add4 = add i32 %l4, %add3 53 %add5 = add i32 %l5, %add4 66 store volatile i32 %add4, i32 *%ptr 119 %add4 = add i32 %l4, %add3 120 %add5 = add i32 %l5, %add4 132 store volatile i32 %add4, i32 *%ptr 175 %add4 = add i32 %l4, %add3 176 %add5 = add i32 %l5, %add4 181 store volatile i32 %add4, i32 *%ptr 210 %add4 = add i32 %l4, %add3 [all …]
|
D | frame-06.ll | 49 %add4 = add i64 %l4, %add3 50 %add5 = add i64 %l5, %add4 63 store volatile i64 %add4, i64 *%ptr 116 %add4 = add i64 %l4, %add3 117 %add5 = add i64 %l5, %add4 129 store volatile i64 %add4, i64 *%ptr 172 %add4 = add i64 %l4, %add3 173 %add5 = add i64 %l5, %add4 178 store volatile i64 %add4, i64 *%ptr 207 %add4 = add i64 %l4, %add3 [all …]
|
D | frame-03.ll | 62 %add4 = fadd double %l4, %add3 63 %add5 = fadd double %l5, %add4 78 store volatile double %add4, double *%ptr 143 %add4 = fadd double %l4, %add3 144 %add5 = fadd double %l5, %add4 158 store volatile double %add4, double *%ptr 203 %add4 = fadd double %l4, %add3 204 %add5 = fadd double %l5, %add4 212 store volatile double %add4, double *%ptr 246 %add4 = fadd double %l4, %add3 [all …]
|
/external/llvm-project/llvm/test/Transforms/GVN/ |
D | pr42605.ll | 36 ; CHECK: %add4.pre-phi = phi i32 [ %add2, %if.then ], [ %add, %entry ] 37 ; CHECK: printf(i8* getelementptr inbounds {{.*}}, i32 %add4.pre-phi) 43 %add4 = add nsw i32 %call3, 5 44 …tf(i8* getelementptr inbounds ([8 x i8], [8 x i8]* @.str, i64 0, i64 0), i32 %global2.0, i32 %add4) 64 ; CHECK-NEXT: %add4 = add nsw i32 %call3, 5 65 ; CHECK-NEXT: printf(i8* getelementptr inbounds ({{.*}}, i32 %global2.0, i32 %add4) 72 %add4 = add nsw i32 %call3, 5 73 …tf(i8* getelementptr inbounds ([8 x i8], [8 x i8]* @.str, i64 0, i64 0), i32 %global2.0, i32 %add4)
|
/external/llvm-project/llvm/test/Other/ |
D | debugcounter-earlycse.ll | 9 ; CHECK-NEXT: %add4 = add i32 %a, %b 11 ; CHECK-NEXT: %ret2 = add i32 %add1, %add4 19 %add4 = add i32 %a, %b 21 %ret2 = add i32 %add3, %add4
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | crash_smallpt.ll | 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F 44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02 46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01 48 %mul2.i.i.us = fmul double undef, %add4.i267.us 50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8 87 %add4.i719 = fadd double undef, %mul2.i729 89 %add4.i698 = fadd double undef, %add4.i719 91 %mul2.i.i680 = fmul double undef, %add4.i698
|
/external/llvm-project/llvm/test/CodeGen/X86/ |
D | phaddsub-undef.ll | 29 %add4 = add i32 %vecext2, %vecext3 30 %vecinit5 = insertelement <8 x i32> %vecinit, i32 %add4, i32 3 96 %add4 = add i32 %vecext2, %vecext3 97 %vecinit5 = insertelement <8 x i32> %vecinit, i32 %add4, i32 6 126 %add4 = add i32 %a4, %a5 130 %r4 = insertelement <8 x i32> undef, i32 %add4, i32 4 151 %add4 = add i32 %vecext2, %vecext3 152 %vecinit5 = insertelement <8 x i32> %vecinit, i32 %add4, i32 1 172 %add4 = add i32 %vecext2, %vecext3 173 %vecinit5 = insertelement <16 x i32> %vecinit, i32 %add4, i32 1 [all …]
|
D | fast-isel-args.ll | 32 %add4 = fadd float %g, %h 34 %add6 = fadd float %add3, %add4 44 %add4 = fadd double %g, %h 46 %add6 = fadd double %add3, %add4
|
D | lea-opt-cse3.ll | 28 %add4 = add i32 %add, %mul2 29 %mul5 = mul nsw i32 %add1, %add4 56 %add4 = add i32 %add, %mul2 57 %mul5 = mul nsw i32 %add1, %add4 105 %add4 = add i32 %addn, %mul2 106 %mul5 = mul nsw i32 %add1, %add4 158 %add4 = add i32 %addn, %mul2 159 %mul5 = mul nsw i32 %add1, %add4
|
/external/llvm/test/Transforms/LoopReroll/ |
D | negative.ll | 21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ] 33 %add4 = add i64 %add, %conv3 39 %add4.lcssa = phi i64 [ %add4, %while.body ] 40 %phitmp = trunc i64 %add4.lcssa to i32
|
/external/llvm-project/llvm/test/Transforms/LoopReroll/ |
D | negative.ll | 21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ] 33 %add4 = add i64 %add, %conv3 39 %add4.lcssa = phi i64 [ %add4, %while.body ] 40 %phitmp = trunc i64 %add4.lcssa to i32
|
/external/llvm-project/llvm/test/CodeGen/ARM/ |
D | machine-outliner-return-2.ll | 16 %add4 = add nsw i32 %mul3, 1 17 %call = tail call i32 @t(i32 %add4) #0 36 %add4 = add nsw i32 %mul3, 3 37 %call = tail call i32 @t(i32 %add4) #0
|
/external/libhevc/common/arm/ |
D | ihevc_resi_trans_neon.c | 948 add4(int32x4_t row1_low, int32x4_t row1_high, int32x4_t row2_low, int32x4_t row2_high) in add4() function 1100 out[1].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() 1101 out[1].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32() 1103 out[15].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32() 1104 out[15].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32() 1111 out[3].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32() 1112 out[3].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32() 1114 out[13].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() 1115 out[13].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32() 1122 out[5].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32() [all …]
|