Home
last modified time | relevance | path

Searched refs:add4 (Results 1 – 25 of 344) sorted by relevance

12345678910>>...14

/external/llvm/test/CodeGen/X86/
Dhaddsub-undef.ll24 %add4 = fadd float %vecext2, %vecext3
25 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
74 %add4 = fadd float %vecext2, %vecext3
75 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
139 %add4 = fadd float %vecext2, %vecext3
140 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
160 %add4 = fadd float %vecext2, %vecext3
161 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3
194 %add4 = fadd float %vecext2, %vecext3
195 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 2
[all …]
Dadd-of-carry.ll11 %add4 = add i32 %x, %sum
12 %cmp = icmp ult i32 %add4, %x
14 %z.0 = add i32 %add4, %inc
Dfast-isel-args.ll32 %add4 = fadd float %g, %h
34 %add6 = fadd float %add3, %add4
44 %add4 = fadd double %g, %h
46 %add6 = fadd double %add3, %add4
/external/llvm/test/Transforms/BBVectorize/
Dloop1.ll22 %add4 = fadd double %1, %1
23 %add5 = fadd double %add4, %0
46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0
47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1
48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2
51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2
75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3
76 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
/external/llvm-project/llvm/test/CodeGen/SystemZ/
Dframe-08.ll43 %add4 = add i32 %l4, %add1
44 %add5 = add i32 %l5, %add4
56 store volatile i32 %add4, i32 *%ptr
95 %add4 = add i32 %l4, %add1
96 %add5 = add i32 %l5, %add4
100 store volatile i32 %add4, i32 *%ptr
146 %add4 = add i32 %l4, %add1
147 %add5 = add i32 %l5, %add4
159 store volatile i32 %add4, i32 *%ptr
197 %add4 = add i32 %l4, %add1
[all …]
Dframe-04.ll51 %add4 = fadd fp128 %l4, %add1
52 %add5 = fadd fp128 %l5, %add4
59 store volatile fp128 %add4, fp128 *%ptr
106 %add4 = fadd fp128 %l4, %add1
107 %add5 = fadd fp128 %l5, %add4
113 store volatile fp128 %add4, fp128 *%ptr
149 %add4 = fadd fp128 %l4, %add1
150 %add5 = fadd fp128 %l5, %add4
154 store volatile fp128 %add4, fp128 *%ptr
180 %add4 = fadd fp128 %l4, %add1
[all …]
Dframe-05.ll52 %add4 = add i32 %l4, %add3
53 %add5 = add i32 %l5, %add4
66 store volatile i32 %add4, i32 *%ptr
119 %add4 = add i32 %l4, %add3
120 %add5 = add i32 %l5, %add4
132 store volatile i32 %add4, i32 *%ptr
175 %add4 = add i32 %l4, %add3
176 %add5 = add i32 %l5, %add4
181 store volatile i32 %add4, i32 *%ptr
210 %add4 = add i32 %l4, %add3
[all …]
Dframe-06.ll49 %add4 = add i64 %l4, %add3
50 %add5 = add i64 %l5, %add4
63 store volatile i64 %add4, i64 *%ptr
116 %add4 = add i64 %l4, %add3
117 %add5 = add i64 %l5, %add4
129 store volatile i64 %add4, i64 *%ptr
172 %add4 = add i64 %l4, %add3
173 %add5 = add i64 %l5, %add4
178 store volatile i64 %add4, i64 *%ptr
207 %add4 = add i64 %l4, %add3
[all …]
Dframe-02.ll60 %add4 = fadd float %l4, %add3
61 %add5 = fadd float %l5, %add4
76 store volatile float %add4, float *%ptr
141 %add4 = fadd float %l4, %add3
142 %add5 = fadd float %l5, %add4
156 store volatile float %add4, float *%ptr
201 %add4 = fadd float %l4, %add3
202 %add5 = fadd float %l5, %add4
210 store volatile float %add4, float *%ptr
244 %add4 = fadd float %l4, %add3
[all …]
Dframe-03.ll62 %add4 = fadd double %l4, %add3
63 %add5 = fadd double %l5, %add4
78 store volatile double %add4, double *%ptr
143 %add4 = fadd double %l4, %add3
144 %add5 = fadd double %l5, %add4
158 store volatile double %add4, double *%ptr
203 %add4 = fadd double %l4, %add3
204 %add5 = fadd double %l5, %add4
212 store volatile double %add4, double *%ptr
246 %add4 = fadd double %l4, %add3
[all …]
/external/llvm/test/CodeGen/SystemZ/
Dframe-08.ll43 %add4 = add i32 %l4, %add1
44 %add5 = add i32 %l5, %add4
56 store volatile i32 %add4, i32 *%ptr
95 %add4 = add i32 %l4, %add1
96 %add5 = add i32 %l5, %add4
100 store volatile i32 %add4, i32 *%ptr
146 %add4 = add i32 %l4, %add1
147 %add5 = add i32 %l5, %add4
159 store volatile i32 %add4, i32 *%ptr
197 %add4 = add i32 %l4, %add1
[all …]
Dframe-04.ll51 %add4 = fadd fp128 %l4, %add1
52 %add5 = fadd fp128 %l5, %add4
59 store volatile fp128 %add4, fp128 *%ptr
106 %add4 = fadd fp128 %l4, %add1
107 %add5 = fadd fp128 %l5, %add4
113 store volatile fp128 %add4, fp128 *%ptr
149 %add4 = fadd fp128 %l4, %add1
150 %add5 = fadd fp128 %l5, %add4
154 store volatile fp128 %add4, fp128 *%ptr
180 %add4 = fadd fp128 %l4, %add1
[all …]
Dframe-05.ll52 %add4 = add i32 %l4, %add3
53 %add5 = add i32 %l5, %add4
66 store volatile i32 %add4, i32 *%ptr
119 %add4 = add i32 %l4, %add3
120 %add5 = add i32 %l5, %add4
132 store volatile i32 %add4, i32 *%ptr
175 %add4 = add i32 %l4, %add3
176 %add5 = add i32 %l5, %add4
181 store volatile i32 %add4, i32 *%ptr
210 %add4 = add i32 %l4, %add3
[all …]
Dframe-06.ll49 %add4 = add i64 %l4, %add3
50 %add5 = add i64 %l5, %add4
63 store volatile i64 %add4, i64 *%ptr
116 %add4 = add i64 %l4, %add3
117 %add5 = add i64 %l5, %add4
129 store volatile i64 %add4, i64 *%ptr
172 %add4 = add i64 %l4, %add3
173 %add5 = add i64 %l5, %add4
178 store volatile i64 %add4, i64 *%ptr
207 %add4 = add i64 %l4, %add3
[all …]
Dframe-03.ll62 %add4 = fadd double %l4, %add3
63 %add5 = fadd double %l5, %add4
78 store volatile double %add4, double *%ptr
143 %add4 = fadd double %l4, %add3
144 %add5 = fadd double %l5, %add4
158 store volatile double %add4, double *%ptr
203 %add4 = fadd double %l4, %add3
204 %add5 = fadd double %l5, %add4
212 store volatile double %add4, double *%ptr
246 %add4 = fadd double %l4, %add3
[all …]
/external/llvm-project/llvm/test/Transforms/GVN/
Dpr42605.ll36 ; CHECK: %add4.pre-phi = phi i32 [ %add2, %if.then ], [ %add, %entry ]
37 ; CHECK: printf(i8* getelementptr inbounds {{.*}}, i32 %add4.pre-phi)
43 %add4 = add nsw i32 %call3, 5
44 …tf(i8* getelementptr inbounds ([8 x i8], [8 x i8]* @.str, i64 0, i64 0), i32 %global2.0, i32 %add4)
64 ; CHECK-NEXT: %add4 = add nsw i32 %call3, 5
65 ; CHECK-NEXT: printf(i8* getelementptr inbounds ({{.*}}, i32 %global2.0, i32 %add4)
72 %add4 = add nsw i32 %call3, 5
73 …tf(i8* getelementptr inbounds ([8 x i8], [8 x i8]* @.str, i64 0, i64 0), i32 %global2.0, i32 %add4)
/external/llvm-project/llvm/test/Other/
Ddebugcounter-earlycse.ll9 ; CHECK-NEXT: %add4 = add i32 %a, %b
11 ; CHECK-NEXT: %ret2 = add i32 %add1, %add4
19 %add4 = add i32 %a, %b
21 %ret2 = add i32 %add3, %add4
/external/llvm/test/Transforms/SLPVectorizer/X86/
Dcrash_smallpt.ll42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F
44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02
46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01
48 %mul2.i.i.us = fmul double undef, %add4.i267.us
50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8
87 %add4.i719 = fadd double undef, %mul2.i729
89 %add4.i698 = fadd double undef, %add4.i719
91 %mul2.i.i680 = fmul double undef, %add4.i698
/external/llvm-project/llvm/test/CodeGen/X86/
Dphaddsub-undef.ll29 %add4 = add i32 %vecext2, %vecext3
30 %vecinit5 = insertelement <8 x i32> %vecinit, i32 %add4, i32 3
96 %add4 = add i32 %vecext2, %vecext3
97 %vecinit5 = insertelement <8 x i32> %vecinit, i32 %add4, i32 6
126 %add4 = add i32 %a4, %a5
130 %r4 = insertelement <8 x i32> undef, i32 %add4, i32 4
151 %add4 = add i32 %vecext2, %vecext3
152 %vecinit5 = insertelement <8 x i32> %vecinit, i32 %add4, i32 1
172 %add4 = add i32 %vecext2, %vecext3
173 %vecinit5 = insertelement <16 x i32> %vecinit, i32 %add4, i32 1
[all …]
Dfast-isel-args.ll32 %add4 = fadd float %g, %h
34 %add6 = fadd float %add3, %add4
44 %add4 = fadd double %g, %h
46 %add6 = fadd double %add3, %add4
Dlea-opt-cse3.ll28 %add4 = add i32 %add, %mul2
29 %mul5 = mul nsw i32 %add1, %add4
56 %add4 = add i32 %add, %mul2
57 %mul5 = mul nsw i32 %add1, %add4
105 %add4 = add i32 %addn, %mul2
106 %mul5 = mul nsw i32 %add1, %add4
158 %add4 = add i32 %addn, %mul2
159 %mul5 = mul nsw i32 %add1, %add4
/external/llvm/test/Transforms/LoopReroll/
Dnegative.ll21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ]
33 %add4 = add i64 %add, %conv3
39 %add4.lcssa = phi i64 [ %add4, %while.body ]
40 %phitmp = trunc i64 %add4.lcssa to i32
/external/llvm-project/llvm/test/Transforms/LoopReroll/
Dnegative.ll21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ]
33 %add4 = add i64 %add, %conv3
39 %add4.lcssa = phi i64 [ %add4, %while.body ]
40 %phitmp = trunc i64 %add4.lcssa to i32
/external/llvm-project/llvm/test/CodeGen/ARM/
Dmachine-outliner-return-2.ll16 %add4 = add nsw i32 %mul3, 1
17 %call = tail call i32 @t(i32 %add4) #0
36 %add4 = add nsw i32 %mul3, 3
37 %call = tail call i32 @t(i32 %add4) #0
/external/libhevc/common/arm/
Dihevc_resi_trans_neon.c948 add4(int32x4_t row1_low, int32x4_t row1_high, int32x4_t row2_low, int32x4_t row2_high) in add4() function
1100 out[1].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32()
1101 out[1].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32()
1103 out[15].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32()
1104 out[15].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32()
1111 out[3].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32()
1112 out[3].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32()
1114 out[13].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32()
1115 out[13].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32()
1122 out[5].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32()
[all …]

12345678910>>...14