/external/vulkan-validation-layers/libs/glm/detail/ |
D | intrinsic_geometric.inl | 56 __m128 add0 = _mm_add_ps(mul0, swp0); 57 __m128 swp1 = _mm_shuffle_ps(add0, add0, _MM_SHUFFLE(0, 1, 2, 3)); 58 __m128 add1 = _mm_add_ps(add0, swp1); 68 __m128 add0 = _mm_add_ps(mov0, mul0); local 69 __m128 swp1 = _mm_shuffle_ps(add0, add0, 1); 70 __m128 add1 = _mm_add_ss(add0, swp1); 137 __m128 add0 = _mm_add_ps(mul3, sqt0); local 138 __m128 mul4 = _mm_mul_ps(add0, N);
|
D | intrinsic_common.inl | 195 __m128 add0 = _mm_add_ps(x, or0); local 196 __m128 sub0 = _mm_sub_ps(add0, or0); 205 __m128 add0 = _mm_add_ps(x, or0); local 206 __m128 sub0 = _mm_sub_ps(add0, or0); 215 __m128 add0 = _mm_add_ps(rnd0, and0); local 216 return add0; 260 __m128 add0 = _mm_add_ps(mul0, mul1); local 261 return add0;
|
/external/llvm/test/CodeGen/SystemZ/ |
D | frame-08.ll | 41 %add0 = add i32 %l0, %l0 42 %add1 = add i32 %l1, %add0 54 store volatile i32 %add0, i32 *%ptr 93 %add0 = add i32 %l0, %l0 94 %add1 = add i32 %l1, %add0 98 store volatile i32 %add0, i32 *%ptr 144 %add0 = add i32 %l0, %l0 145 %add1 = add i32 %l1, %add0 157 store volatile i32 %add0, i32 *%ptr 195 %add0 = add i32 %l0, %l0 [all …]
|
D | frame-04.ll | 49 %add0 = fadd fp128 %l0, %l0 50 %add1 = fadd fp128 %l1, %add0 57 store volatile fp128 %add0, fp128 *%ptr 104 %add0 = fadd fp128 %l0, %l0 105 %add1 = fadd fp128 %l1, %add0 111 store volatile fp128 %add0, fp128 *%ptr 147 %add0 = fadd fp128 %l0, %l0 148 %add1 = fadd fp128 %l1, %add0 152 store volatile fp128 %add0, fp128 *%ptr 178 %add0 = fadd fp128 %l0, %l0 [all …]
|
D | frame-05.ll | 49 %add0 = add i32 %l0, %l0 50 %add1 = add i32 %l1, %add0 63 store volatile i32 %add0, i32 *%ptr 116 %add0 = add i32 %l0, %l0 117 %add1 = add i32 %l1, %add0 129 store volatile i32 %add0, i32 *%ptr 172 %add0 = add i32 %l0, %l0 173 %add1 = add i32 %l1, %add0 178 store volatile i32 %add0, i32 *%ptr 207 %add0 = add i32 %l0, %l0 [all …]
|
D | frame-06.ll | 46 %add0 = add i64 %l0, %l0 47 %add1 = add i64 %l1, %add0 60 store volatile i64 %add0, i64 *%ptr 113 %add0 = add i64 %l0, %l0 114 %add1 = add i64 %l1, %add0 126 store volatile i64 %add0, i64 *%ptr 169 %add0 = add i64 %l0, %l0 170 %add1 = add i64 %l1, %add0 175 store volatile i64 %add0, i64 *%ptr 204 %add0 = add i64 %l0, %l0 [all …]
|
D | frame-03.ll | 58 %add0 = fadd double %l0, %l0 59 %add1 = fadd double %l1, %add0 74 store volatile double %add0, double *%ptr 139 %add0 = fadd double %l0, %l0 140 %add1 = fadd double %l1, %add0 154 store volatile double %add0, double *%ptr 199 %add0 = fadd double %l0, %l0 200 %add1 = fadd double %l1, %add0 208 store volatile double %add0, double *%ptr 242 %add0 = fadd double %l0, %l0 [all …]
|
D | frame-02.ll | 56 %add0 = fadd float %l0, %l0 57 %add1 = fadd float %l1, %add0 72 store volatile float %add0, float *%ptr 137 %add0 = fadd float %l0, %l0 138 %add1 = fadd float %l1, %add0 152 store volatile float %add0, float *%ptr 197 %add0 = fadd float %l0, %l0 198 %add1 = fadd float %l1, %add0 206 store volatile float %add0, float *%ptr 240 %add0 = fadd float %l0, %l0 [all …]
|
D | frame-07.ll | 87 %add0 = fadd double %l0, %l0 88 %add1 = fadd double %l1, %add0 103 store volatile double %add0, double *%ptr 216 %add0 = fadd double %l0, %l0 217 %add1 = fadd double %l1, %add0 232 store volatile double %add0, double *%ptr
|
D | fp-move-02.ll | 218 %add0 = fadd double %start, %double0 219 %add1 = fadd double %add0, %double1 251 %int0 = phi i64 [ 0, %entry ], [ %add0, %loop ] 263 %add0 = add i64 %int0, %bias 280 %conv0 = bitcast i64 %add0 to double 360 %add0 = add i64 %conv0, %bias 361 store volatile i64 %add0, i64 *@iptr
|
D | frame-09.ll | 80 %add0 = add i32 %l0, %l0 81 %add1 = add i32 %l1, %add0 93 store volatile i32 %add0, i32 *%ptr
|
D | fp-add-01.ll | 106 %add0 = fadd float %ret, %val0 107 %add1 = fadd float %add0, %val1
|
D | fp-add-02.ll | 107 %add0 = fadd double %ret, %val0 108 %add1 = fadd double %add0, %val1
|
D | int-add-12.ll | 157 %add0 = add i64 %val0, 127 176 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ] 240 %add0 = add i64 %val0, -128 259 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
|
D | int-add-11.ll | 158 %add0 = add i32 %val0, 127 177 %new0 = phi i32 [ %val0, %entry ], [ %add0, %add ] 241 %add0 = add i32 %val0, -128 260 %new0 = phi i32 [ %val0, %entry ], [ %add0, %add ]
|
D | int-add-05.ll | 128 %add0 = add i64 %ret, %val0 129 %add1 = add i64 %add0, %val1
|
D | int-add-08.ll | 136 %add0 = add i128 %ret, %val0 137 %add1 = add i128 %add0, %val1
|
/external/r8/src/test/java/com/android/tools/r8/ir/regalloc/ |
D | IdenticalAfterRegisterAllocationTest.java | 56 Add add0 = new Add(NumericType.INT, value3, value0, value1); in equalityOfConstantOperands() local 68 assertFalse(add0.identicalAfterRegisterAllocation(add1, allocator)); in equalityOfConstantOperands()
|
/external/swiftshader/third_party/LLVM/test/Transforms/SimplifyLibCalls/ |
D | StrSpn.ll | 38 %add0 = add i64 %test1, %test3 40 ret i64 %add0
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
D | return.ll | 24 %add0 = fadd double %a0, %b0 28 %add2 = fadd double %add0, %add1
|
/external/vulkan-validation-layers/libs/glm/gtx/ |
D | simd_quat.inl | 129 __m128 add0 = _mm_dp_ps(mul0, _mm_set_ps(1.0f, -1.0f, 1.0f, 1.0f), 0xff); local 135 __m128 add0 = _mm_add_ps(mul0, _mm_movehl_ps(mul0, mul0)); local 136 add0 = _mm_add_ss(add0, _mm_shuffle_ps(add0, add0, 1)); 155 //__m128 xxyy = _mm_shuffle_ps(add0, add1, _MM_SHUFFLE(0, 0, 0, 0)); 165 _mm_store_ss(&x, add0);
|
/external/llvm/test/CodeGen/AMDGPU/ |
D | s_addk_i32.ll | 23 %add0 = add i32 %a, 65 25 store i32 %add0, i32 addrspace(1)* %out0
|
D | ds_read2_superreg.ll | 55 %add0 = fadd float %elt0, %elt2 57 %add2 = fadd float %add0, %add1 79 %add0 = fadd float %elt0, %elt2 80 %add1 = fadd float %add0, %elt1
|
D | ds-sub-offset.ll | 65 %add0 = add i32 123, %shl 67 %ptr0 = inttoptr i32 %add0 to i32 addrspace(3)*
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_neon.c | 174 const uint8x8_t add0, const uint8x8_t add1, in filter_update_8() argument 178 *sum = vaddw_u8(*sum, add0); in filter_update_8() 184 const uint8x16_t add0, in filter_update_16() argument 191 *sum0 = vaddw_u8(*sum0, vget_low_u8(add0)); in filter_update_16() 192 *sum1 = vaddw_u8(*sum1, vget_high_u8(add0)); in filter_update_16() 199 const uint8x8_t add0, in calc_7_tap_filter_8_kernel() argument 202 filter_update_8(sub0, sub1, add0, add1, sum); in calc_7_tap_filter_8_kernel() 207 const uint8x16_t sub0, const uint8x16_t sub1, const uint8x16_t add0, in calc_7_tap_filter_16_kernel() argument 209 filter_update_16(sub0, sub1, add0, add1, sum0, sum1); in calc_7_tap_filter_16_kernel() 215 const uint8x8_t add0, const uint8x8_t add1, const uint8x8_t in, in apply_15_tap_filter_8_kernel() argument [all …]
|