Home
last modified time | relevance | path

Searched refs:add4 (Results 1 – 25 of 270) sorted by relevance

1234567891011

/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/X86/
Dhaddsub-undef.ll24 %add4 = fadd float %vecext2, %vecext3
25 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
74 %add4 = fadd float %vecext2, %vecext3
75 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
139 %add4 = fadd float %vecext2, %vecext3
140 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
160 %add4 = fadd float %vecext2, %vecext3
161 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3
193 %add4 = fadd float %vecext2, %vecext3
194 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 2
[all …]
Dlea-opt-cse3.ll28 %add4 = add i32 %add, %mul2
29 %mul5 = mul nsw i32 %add1, %add4
56 %add4 = add i32 %add, %mul2
57 %mul5 = mul nsw i32 %add1, %add4
105 %add4 = add i32 %addn, %mul2
106 %mul5 = mul nsw i32 %add1, %add4
158 %add4 = add i32 %addn, %mul2
159 %mul5 = mul nsw i32 %add1, %add4
Dfast-isel-args.ll32 %add4 = fadd float %g, %h
34 %add6 = fadd float %add3, %add4
44 %add4 = fadd double %g, %h
46 %add6 = fadd double %add3, %add4
/external/llvm/test/CodeGen/X86/
Dhaddsub-undef.ll24 %add4 = fadd float %vecext2, %vecext3
25 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
74 %add4 = fadd float %vecext2, %vecext3
75 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
139 %add4 = fadd float %vecext2, %vecext3
140 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
160 %add4 = fadd float %vecext2, %vecext3
161 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3
194 %add4 = fadd float %vecext2, %vecext3
195 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 2
[all …]
Dfast-isel-args.ll32 %add4 = fadd float %g, %h
34 %add6 = fadd float %add3, %add4
44 %add4 = fadd double %g, %h
46 %add6 = fadd double %add3, %add4
Dadd-of-carry.ll11 %add4 = add i32 %x, %sum
12 %cmp = icmp ult i32 %add4, %x
14 %z.0 = add i32 %add4, %inc
/external/llvm/test/Transforms/BBVectorize/
Dloop1.ll22 %add4 = fadd double %1, %1
23 %add5 = fadd double %add4, %0
46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0
47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1
48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2
51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2
75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3
76 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
/external/llvm/test/CodeGen/SystemZ/
Dframe-08.ll43 %add4 = add i32 %l4, %add1
44 %add5 = add i32 %l5, %add4
56 store volatile i32 %add4, i32 *%ptr
95 %add4 = add i32 %l4, %add1
96 %add5 = add i32 %l5, %add4
100 store volatile i32 %add4, i32 *%ptr
146 %add4 = add i32 %l4, %add1
147 %add5 = add i32 %l5, %add4
159 store volatile i32 %add4, i32 *%ptr
197 %add4 = add i32 %l4, %add1
[all …]
Dframe-04.ll51 %add4 = fadd fp128 %l4, %add1
52 %add5 = fadd fp128 %l5, %add4
59 store volatile fp128 %add4, fp128 *%ptr
106 %add4 = fadd fp128 %l4, %add1
107 %add5 = fadd fp128 %l5, %add4
113 store volatile fp128 %add4, fp128 *%ptr
149 %add4 = fadd fp128 %l4, %add1
150 %add5 = fadd fp128 %l5, %add4
154 store volatile fp128 %add4, fp128 *%ptr
180 %add4 = fadd fp128 %l4, %add1
[all …]
Dframe-06.ll49 %add4 = add i64 %l4, %add3
50 %add5 = add i64 %l5, %add4
63 store volatile i64 %add4, i64 *%ptr
116 %add4 = add i64 %l4, %add3
117 %add5 = add i64 %l5, %add4
129 store volatile i64 %add4, i64 *%ptr
172 %add4 = add i64 %l4, %add3
173 %add5 = add i64 %l5, %add4
178 store volatile i64 %add4, i64 *%ptr
207 %add4 = add i64 %l4, %add3
[all …]
Dframe-05.ll52 %add4 = add i32 %l4, %add3
53 %add5 = add i32 %l5, %add4
66 store volatile i32 %add4, i32 *%ptr
119 %add4 = add i32 %l4, %add3
120 %add5 = add i32 %l5, %add4
132 store volatile i32 %add4, i32 *%ptr
175 %add4 = add i32 %l4, %add3
176 %add5 = add i32 %l5, %add4
181 store volatile i32 %add4, i32 *%ptr
210 %add4 = add i32 %l4, %add3
[all …]
Dframe-03.ll62 %add4 = fadd double %l4, %add3
63 %add5 = fadd double %l5, %add4
78 store volatile double %add4, double *%ptr
143 %add4 = fadd double %l4, %add3
144 %add5 = fadd double %l5, %add4
158 store volatile double %add4, double *%ptr
203 %add4 = fadd double %l4, %add3
204 %add5 = fadd double %l5, %add4
212 store volatile double %add4, double *%ptr
246 %add4 = fadd double %l4, %add3
[all …]
Dframe-02.ll60 %add4 = fadd float %l4, %add3
61 %add5 = fadd float %l5, %add4
76 store volatile float %add4, float *%ptr
141 %add4 = fadd float %l4, %add3
142 %add5 = fadd float %l5, %add4
156 store volatile float %add4, float *%ptr
201 %add4 = fadd float %l4, %add3
202 %add5 = fadd float %l5, %add4
210 store volatile float %add4, float *%ptr
244 %add4 = fadd float %l4, %add3
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/SystemZ/
Dframe-08.ll43 %add4 = add i32 %l4, %add1
44 %add5 = add i32 %l5, %add4
56 store volatile i32 %add4, i32 *%ptr
95 %add4 = add i32 %l4, %add1
96 %add5 = add i32 %l5, %add4
100 store volatile i32 %add4, i32 *%ptr
146 %add4 = add i32 %l4, %add1
147 %add5 = add i32 %l5, %add4
159 store volatile i32 %add4, i32 *%ptr
197 %add4 = add i32 %l4, %add1
[all …]
Dframe-04.ll51 %add4 = fadd fp128 %l4, %add1
52 %add5 = fadd fp128 %l5, %add4
59 store volatile fp128 %add4, fp128 *%ptr
106 %add4 = fadd fp128 %l4, %add1
107 %add5 = fadd fp128 %l5, %add4
113 store volatile fp128 %add4, fp128 *%ptr
149 %add4 = fadd fp128 %l4, %add1
150 %add5 = fadd fp128 %l5, %add4
154 store volatile fp128 %add4, fp128 *%ptr
180 %add4 = fadd fp128 %l4, %add1
[all …]
Dframe-06.ll49 %add4 = add i64 %l4, %add3
50 %add5 = add i64 %l5, %add4
63 store volatile i64 %add4, i64 *%ptr
116 %add4 = add i64 %l4, %add3
117 %add5 = add i64 %l5, %add4
129 store volatile i64 %add4, i64 *%ptr
172 %add4 = add i64 %l4, %add3
173 %add5 = add i64 %l5, %add4
178 store volatile i64 %add4, i64 *%ptr
207 %add4 = add i64 %l4, %add3
[all …]
Dframe-05.ll52 %add4 = add i32 %l4, %add3
53 %add5 = add i32 %l5, %add4
66 store volatile i32 %add4, i32 *%ptr
119 %add4 = add i32 %l4, %add3
120 %add5 = add i32 %l5, %add4
132 store volatile i32 %add4, i32 *%ptr
175 %add4 = add i32 %l4, %add3
176 %add5 = add i32 %l5, %add4
181 store volatile i32 %add4, i32 *%ptr
210 %add4 = add i32 %l4, %add3
[all …]
Dframe-03.ll62 %add4 = fadd double %l4, %add3
63 %add5 = fadd double %l5, %add4
78 store volatile double %add4, double *%ptr
143 %add4 = fadd double %l4, %add3
144 %add5 = fadd double %l5, %add4
158 store volatile double %add4, double *%ptr
203 %add4 = fadd double %l4, %add3
204 %add5 = fadd double %l5, %add4
212 store volatile double %add4, double *%ptr
246 %add4 = fadd double %l4, %add3
[all …]
Dframe-02.ll60 %add4 = fadd float %l4, %add3
61 %add5 = fadd float %l5, %add4
76 store volatile float %add4, float *%ptr
141 %add4 = fadd float %l4, %add3
142 %add5 = fadd float %l5, %add4
156 store volatile float %add4, float *%ptr
201 %add4 = fadd float %l4, %add3
202 %add5 = fadd float %l5, %add4
210 store volatile float %add4, float *%ptr
244 %add4 = fadd float %l4, %add3
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/SLPVectorizer/X86/
Dcrash_smallpt.ll42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F
44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02
46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01
48 %mul2.i.i.us = fmul double undef, %add4.i267.us
50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8
87 %add4.i719 = fadd double undef, %mul2.i729
89 %add4.i698 = fadd double undef, %add4.i719
91 %mul2.i.i680 = fmul double undef, %add4.i698
/external/llvm/test/Transforms/SLPVectorizer/X86/
Dcrash_smallpt.ll42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F
44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02
46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01
48 %mul2.i.i.us = fmul double undef, %add4.i267.us
50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8
87 %add4.i719 = fadd double undef, %mul2.i729
89 %add4.i698 = fadd double undef, %add4.i719
91 %mul2.i.i680 = fmul double undef, %add4.i698
/external/swiftshader/third_party/llvm-7.0/llvm/test/Other/
Ddebugcounter-earlycse.ll9 ; CHECK-NEXT: %add4 = add i32 %a, %b
11 ; CHECK-NEXT: %ret2 = add i32 %add1, %add4
19 %add4 = add i32 %a, %b
21 %ret2 = add i32 %add3, %add4
/external/llvm/test/Transforms/LoopReroll/
Dnegative.ll21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ]
33 %add4 = add i64 %add, %conv3
39 %add4.lcssa = phi i64 [ %add4, %while.body ]
40 %phitmp = trunc i64 %add4.lcssa to i32
/external/swiftshader/third_party/llvm-7.0/llvm/test/Transforms/LoopReroll/
Dnegative.ll21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ]
33 %add4 = add i64 %add, %conv3
39 %add4.lcssa = phi i64 [ %add4, %while.body ]
40 %phitmp = trunc i64 %add4.lcssa to i32
/external/libhevc/common/arm/
Dihevc_resi_trans_neon.c945 add4(int32x4_t row1_low, int32x4_t row1_high, int32x4_t row2_low, int32x4_t row2_high) in add4() function
1097 out[1].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32()
1098 out[1].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32()
1100 out[15].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32()
1101 out[15].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32()
1108 out[3].val[0] = add4(tmp0.val[0], tmp3.val[0], tmp4.val[0], tmp7.val[0]); in dct_body_16_32()
1109 out[3].val[1] = add4(tmp0.val[1], tmp3.val[1], tmp4.val[1], tmp7.val[1]); in dct_body_16_32()
1111 out[13].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32()
1112 out[13].val[1] = add4(tmp1.val[1], tmp2.val[1], tmp5.val[1], tmp6.val[1]); in dct_body_16_32()
1119 out[5].val[0] = add4(tmp1.val[0], tmp2.val[0], tmp5.val[0], tmp6.val[0]); in dct_body_16_32()
[all …]

1234567891011