Home
last modified time | relevance | path

Searched refs:add0 (Results 1 – 25 of 37) sorted by relevance

12

/external/vulkan-validation-layers/libs/glm/detail/
Dintrinsic_geometric.inl56 __m128 add0 = _mm_add_ps(mul0, swp0);
57 __m128 swp1 = _mm_shuffle_ps(add0, add0, _MM_SHUFFLE(0, 1, 2, 3));
58 __m128 add1 = _mm_add_ps(add0, swp1);
68 __m128 add0 = _mm_add_ps(mov0, mul0); local
69 __m128 swp1 = _mm_shuffle_ps(add0, add0, 1);
70 __m128 add1 = _mm_add_ss(add0, swp1);
137 __m128 add0 = _mm_add_ps(mul3, sqt0); local
138 __m128 mul4 = _mm_mul_ps(add0, N);
Dintrinsic_common.inl195 __m128 add0 = _mm_add_ps(x, or0); local
196 __m128 sub0 = _mm_sub_ps(add0, or0);
205 __m128 add0 = _mm_add_ps(x, or0); local
206 __m128 sub0 = _mm_sub_ps(add0, or0);
215 __m128 add0 = _mm_add_ps(rnd0, and0); local
216 return add0;
260 __m128 add0 = _mm_add_ps(mul0, mul1); local
261 return add0;
/external/llvm/test/CodeGen/SystemZ/
Dframe-08.ll41 %add0 = add i32 %l0, %l0
42 %add1 = add i32 %l1, %add0
54 store volatile i32 %add0, i32 *%ptr
93 %add0 = add i32 %l0, %l0
94 %add1 = add i32 %l1, %add0
98 store volatile i32 %add0, i32 *%ptr
144 %add0 = add i32 %l0, %l0
145 %add1 = add i32 %l1, %add0
157 store volatile i32 %add0, i32 *%ptr
195 %add0 = add i32 %l0, %l0
[all …]
Dframe-04.ll49 %add0 = fadd fp128 %l0, %l0
50 %add1 = fadd fp128 %l1, %add0
57 store volatile fp128 %add0, fp128 *%ptr
104 %add0 = fadd fp128 %l0, %l0
105 %add1 = fadd fp128 %l1, %add0
111 store volatile fp128 %add0, fp128 *%ptr
147 %add0 = fadd fp128 %l0, %l0
148 %add1 = fadd fp128 %l1, %add0
152 store volatile fp128 %add0, fp128 *%ptr
178 %add0 = fadd fp128 %l0, %l0
[all …]
Dframe-05.ll49 %add0 = add i32 %l0, %l0
50 %add1 = add i32 %l1, %add0
63 store volatile i32 %add0, i32 *%ptr
116 %add0 = add i32 %l0, %l0
117 %add1 = add i32 %l1, %add0
129 store volatile i32 %add0, i32 *%ptr
172 %add0 = add i32 %l0, %l0
173 %add1 = add i32 %l1, %add0
178 store volatile i32 %add0, i32 *%ptr
207 %add0 = add i32 %l0, %l0
[all …]
Dframe-06.ll46 %add0 = add i64 %l0, %l0
47 %add1 = add i64 %l1, %add0
60 store volatile i64 %add0, i64 *%ptr
113 %add0 = add i64 %l0, %l0
114 %add1 = add i64 %l1, %add0
126 store volatile i64 %add0, i64 *%ptr
169 %add0 = add i64 %l0, %l0
170 %add1 = add i64 %l1, %add0
175 store volatile i64 %add0, i64 *%ptr
204 %add0 = add i64 %l0, %l0
[all …]
Dframe-03.ll58 %add0 = fadd double %l0, %l0
59 %add1 = fadd double %l1, %add0
74 store volatile double %add0, double *%ptr
139 %add0 = fadd double %l0, %l0
140 %add1 = fadd double %l1, %add0
154 store volatile double %add0, double *%ptr
199 %add0 = fadd double %l0, %l0
200 %add1 = fadd double %l1, %add0
208 store volatile double %add0, double *%ptr
242 %add0 = fadd double %l0, %l0
[all …]
Dframe-02.ll56 %add0 = fadd float %l0, %l0
57 %add1 = fadd float %l1, %add0
72 store volatile float %add0, float *%ptr
137 %add0 = fadd float %l0, %l0
138 %add1 = fadd float %l1, %add0
152 store volatile float %add0, float *%ptr
197 %add0 = fadd float %l0, %l0
198 %add1 = fadd float %l1, %add0
206 store volatile float %add0, float *%ptr
240 %add0 = fadd float %l0, %l0
[all …]
Dframe-07.ll87 %add0 = fadd double %l0, %l0
88 %add1 = fadd double %l1, %add0
103 store volatile double %add0, double *%ptr
216 %add0 = fadd double %l0, %l0
217 %add1 = fadd double %l1, %add0
232 store volatile double %add0, double *%ptr
Dfp-move-02.ll218 %add0 = fadd double %start, %double0
219 %add1 = fadd double %add0, %double1
251 %int0 = phi i64 [ 0, %entry ], [ %add0, %loop ]
263 %add0 = add i64 %int0, %bias
280 %conv0 = bitcast i64 %add0 to double
360 %add0 = add i64 %conv0, %bias
361 store volatile i64 %add0, i64 *@iptr
Dframe-09.ll80 %add0 = add i32 %l0, %l0
81 %add1 = add i32 %l1, %add0
93 store volatile i32 %add0, i32 *%ptr
Dfp-add-01.ll106 %add0 = fadd float %ret, %val0
107 %add1 = fadd float %add0, %val1
Dfp-add-02.ll107 %add0 = fadd double %ret, %val0
108 %add1 = fadd double %add0, %val1
Dint-add-12.ll157 %add0 = add i64 %val0, 127
176 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
240 %add0 = add i64 %val0, -128
259 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
Dint-add-11.ll158 %add0 = add i32 %val0, 127
177 %new0 = phi i32 [ %val0, %entry ], [ %add0, %add ]
241 %add0 = add i32 %val0, -128
260 %new0 = phi i32 [ %val0, %entry ], [ %add0, %add ]
Dint-add-05.ll128 %add0 = add i64 %ret, %val0
129 %add1 = add i64 %add0, %val1
Dint-add-08.ll136 %add0 = add i128 %ret, %val0
137 %add1 = add i128 %add0, %val1
/external/r8/src/test/java/com/android/tools/r8/ir/regalloc/
DIdenticalAfterRegisterAllocationTest.java56 Add add0 = new Add(NumericType.INT, value3, value0, value1); in equalityOfConstantOperands() local
68 assertFalse(add0.identicalAfterRegisterAllocation(add1, allocator)); in equalityOfConstantOperands()
/external/swiftshader/third_party/LLVM/test/Transforms/SimplifyLibCalls/
DStrSpn.ll38 %add0 = add i64 %test1, %test3
40 ret i64 %add0
/external/llvm/test/Transforms/SLPVectorizer/X86/
Dreturn.ll24 %add0 = fadd double %a0, %b0
28 %add2 = fadd double %add0, %add1
/external/vulkan-validation-layers/libs/glm/gtx/
Dsimd_quat.inl129 __m128 add0 = _mm_dp_ps(mul0, _mm_set_ps(1.0f, -1.0f, 1.0f, 1.0f), 0xff); local
135 __m128 add0 = _mm_add_ps(mul0, _mm_movehl_ps(mul0, mul0)); local
136 add0 = _mm_add_ss(add0, _mm_shuffle_ps(add0, add0, 1));
155 //__m128 xxyy = _mm_shuffle_ps(add0, add1, _MM_SHUFFLE(0, 0, 0, 0));
165 _mm_store_ss(&x, add0);
/external/llvm/test/CodeGen/AMDGPU/
Ds_addk_i32.ll23 %add0 = add i32 %a, 65
25 store i32 %add0, i32 addrspace(1)* %out0
Dds_read2_superreg.ll55 %add0 = fadd float %elt0, %elt2
57 %add2 = fadd float %add0, %add1
79 %add0 = fadd float %elt0, %elt2
80 %add1 = fadd float %add0, %elt1
Dds-sub-offset.ll65 %add0 = add i32 123, %shl
67 %ptr0 = inttoptr i32 %add0 to i32 addrspace(3)*
/external/libvpx/libvpx/vpx_dsp/arm/
Dloopfilter_neon.c174 const uint8x8_t add0, const uint8x8_t add1, in filter_update_8() argument
178 *sum = vaddw_u8(*sum, add0); in filter_update_8()
184 const uint8x16_t add0, in filter_update_16() argument
191 *sum0 = vaddw_u8(*sum0, vget_low_u8(add0)); in filter_update_16()
192 *sum1 = vaddw_u8(*sum1, vget_high_u8(add0)); in filter_update_16()
199 const uint8x8_t add0, in calc_7_tap_filter_8_kernel() argument
202 filter_update_8(sub0, sub1, add0, add1, sum); in calc_7_tap_filter_8_kernel()
207 const uint8x16_t sub0, const uint8x16_t sub1, const uint8x16_t add0, in calc_7_tap_filter_16_kernel() argument
209 filter_update_16(sub0, sub1, add0, add1, sum0, sum1); in calc_7_tap_filter_16_kernel()
215 const uint8x8_t add0, const uint8x8_t add1, const uint8x8_t in, in apply_15_tap_filter_8_kernel() argument
[all …]

12