/third_party/ffmpeg/libavcodec/arm/ |
D | aacpsdsp_neon.S | 32 vpadd.f32 d6, d0, d1 43 vpadd.f32 d6, d0, d1 57 vmul.f32 d4, d0, d6[0] 58 vmul.f32 d5, d1, d6[1] 60 vmul.f32 d6, d2, d7[0] 67 vmul.f32 d4, d0, d6[0] 68 vmul.f32 d5, d1, d6[1] 70 vmul.f32 d6, d2, d7[0] 79 vmul.f32 d4, d0, d6[0] 80 vmul.f32 d5, d1, d6[1] [all …]
|
D | idctdsp_neon.S | 38 vqmovun.s16 d6, q14 43 vst1.8 {d6}, [r1,:64], r2 74 vqmovn.s16 d6, q12 78 vadd.u8 d6, d6, d31 80 vst1.8 {d6}, [r1,:64], r2 100 vld1.16 {d6-d7}, [r0,:128]! 105 vqmovun.s16 d6, q3 112 vst1.8 {d6}, [r3,:64], r2 121 vld1.16 {d6-d7}, [r0,:128]! 124 vqmovun.s16 d6, q3 [all …]
|
D | sbcdsp_neon.S | 45 vld1.16 {d6, d7}, [r0, :64]! 49 vmlal.s16 q0, d6, d10 55 vld1.16 {d6, d7}, [r0, :64]! 59 vmlal.s16 q0, d6, d10 82 vpadd.s32 d0, d6, d7 /* TODO: can be eliminated */ 98 vld1.16 {d6, d7}, [r0, :64]! 101 vmull.s16 q8, d6, d10 107 vld1.16 {d6, d7}, [r0, :64]! 110 vmlal.s16 q8, d6, d10 116 vld1.16 {d6, d7}, [r0, :64]! [all …]
|
D | sbrdsp_neon.S | 94 vld1.32 {d5,d6}, [r0,:128]! 100 vmov d2, d6 139 vswp d6, d7 144 vst2.32 {d4,d6}, [r0,:128]! 182 vsub.f32 d1, d1, d6 233 vrev64.32 d21, d6 235 vmla.f32 d6, d4, d18 237 vmla.f32 d6, d3, d0[1] 239 vmla.f32 d6, d5, d1 263 vmla.f32 d6, d0, d4 [all …]
|
D | mdct_neon.S | 43 vmul.f32 d6, d17, d2 50 vsub.f32 d4, d6, d4 61 vmul.f32 d6, d17, d2 98 vmul.f32 d6, d20, d19 104 vadd.f32 d6, d6, d23 112 vst2.32 {d4,d6}, [r0,:128], r7 117 vst2.32 {d4,d6}, [r0,:128] 193 vmul.f32 d6, d1, d20 @ -R*c 202 vsub.f32 d6, d6, d7 @ -R*c-I*s 225 vst2.32 {d6[0],d7[0]}, [r6,:64] [all …]
|
D | h264cmc_neon.S | 64 1: vld1.8 {d6, d7}, [r1], r2 67 vext.8 d7, d6, d7, #1 69 vmlal.u8 q8, d6, d2 73 vmull.u8 q9, d6, d0 109 3: vld1.8 {d6}, [r1], r2 111 vmlal.u8 q8, d6, d1 113 vmull.u8 q9, d6, d0 139 vld1.8 {d6, d7}, [r1], r2 141 vext.8 d7, d6, d7, #1 146 vmull.u8 q9, d6, d0 [all …]
|
D | vp9lpf_neon.S | 163 vabd.u8 d6, d22, d23 @ abs(p1 - p0) 168 vmax.u8 d5, d6, d7 170 vabd.u8 d6, d23, d24 @ abs(p0 - q0) 172 vqadd.u8 d6, d6, d6 @ abs(p0 - q0) * 2 177 vqadd.u8 d6, d6, d5 @ abs(p0 - q0) * 2 + abs(p1 - q1) >> 1 178 vcle.u8 d5, d6, d0 190 vabd.u8 d6, d20, d23 @ abs(p3 - p0) 196 vmax.u8 d6, d6, d2 201 vmax.u8 d6, d6, d1 203 vmax.u8 d6, d6, \tmp2 [all …]
|
D | rdft_neon.S | 82 vadd.f32 d1, d6, d25 @ -d1[0]+d2[0], d1[1]+d2[1] 86 veor d6, d20, d17 @ ev.re,-ev.im 90 vmla.f32 d6, d2, d4[1] 91 vmla.f32 d6, d21, d5[1] 108 vst1.32 {d6}, [lr,:64], r8 124 veor d6, d20, d17 @ ev.re,-ev.im 134 vmla.f32 d6, d2, d4[1] 135 vmla.f32 d6, d21, d5[1] 138 vst1.32 {d6}, [lr,:64]
|
D | vp8dsp_neon.S | 32 vadd.i16 d6, d1, d2 50 vadd.i16 d6, d1, d2 200 vld1.8 {d6}, [r0,:64], r2 203 vaddw.u8 q13, q9, d6 248 vaddw.u8 q13, q8, d6 324 vsubl.s8 q10, d8, d6 @ QS0 - PS0 509 vld1.8 {d6}, [r0,:64], r2 @ P0 537 vst1.8 {d6}, [r0,:64], r2 @ P0 566 vld1.8 {d6}, [r0], r1 597 vst1.8 {d6}, [r0], r1 [all …]
|
D | vp3dsp_neon.S | 135 vshrn.s32 d6, q4, #16 151 vshrn.s32 d6, q4, #16 // ip[7] * C7 167 vshrn.s32 d6, q4, #16 184 vshrn.s32 d6, q4, #16 205 vshrn.s32 d6, q4, #16 289 vqshrun.s16 d6, q14, #4 294 vst1.64 {d6}, [r0,:64], r1 322 vld1.64 {d6}, [r0,:64], r1 341 vaddw.u8 q14, q14, d6 345 vqmovun.s16 d6, q14 [all …]
|
D | vp9mc_neon.S | 177 vld1.32 {d6[]}, [r2], r3 181 vrhadd.u8 d2, d2, d6 322 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 1, \size 323 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 2, \size 324 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx1, \size 325 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 5, \size 326 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 6, \size 327 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 7, \size 328 extmulqadd q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx2, \size 332 vqrshrun.s16 d6, q3, #7 [all …]
|
/third_party/openh264/codec/common/arm/ |
D | deblocking_neon.S | 197 DIFF_LUMA_LT4_P0_Q0 d2, d4, d6, d8, d16, q12, q13 263 DIFF_LUMA_EQ4_P2P1P0 d30, d28, d26, d24, d22, d20, d4, d6 285 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 0 286 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 1 287 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 2 288 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 3 289 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 4 290 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 5 291 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 6 292 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 7 [all …]
|
D | mc_neon.S | 165 FILTER_6TAG_8BITS d0, d4, d6, d16, d18, d20, d2, q14, q15 194 vext.8 d6, d0, d1, #5 //d6=src[3] 196 FILTER_6TAG_8BITS d0, d2, d3, d4, d5, d6, d1, q14, q15 227 vtrn.32 d6, d7 //d6:[0:3]; d7[1:4] 231 FILTER_6TAG_8BITS d0, d4, d6, d7, d2, d5, d1, q14, q15 264 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d4, d6, d16, d18, d20, d2, q14, q15 293 vext.8 d6, d0, d1, #5 //d6=src[3] 295 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d2, d3, d4, d5, d6, d1, q14, q15 326 vtrn.32 d6, d7 //d6:[0:3]; d7[1:4] 330 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d4, d6, d7, d2, d5, d1, q14, q15 [all …]
|
D | copy_mb_neon.S | 79 LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3 81 STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1 147 LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3 149 STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1 155 LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3 157 STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1
|
/third_party/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"}, 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"}, 126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"}, 127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"}, 128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"}, 140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"}, 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"}, 126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"}, 127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"}, 128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"}, 140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"}, 104 {{F32, d15, d1, d6}, false, al, "F32 d15 d1 d6", "F32_d15_d1_d6"}, 110 {{F64, d4, d30, d6}, false, al, "F64 d4 d30 d6", "F64_d4_d30_d6"}, 117 {{F32, d29, d19, d6}, false, al, "F32 d29 d19 d6", "F32_d29_d19_d6"}, 126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"}, 153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"}, 164 {{F64, d3, d6, d7}, false, al, "F64 d3 d6 d7", "F64_d3_d6_d7"}, 178 {{F64, d6, d2, d12}, false, al, "F64 d6 d2 d12", "F64_d6_d2_d12"}, 183 {{F32, d9, d6, d23}, false, al, "F32 d9 d6 d23", "F32_d9_d6_d23"}, 196 {{F32, d6, d31, d23}, false, al, "F32 d6 d31 d23", "F32_d6_d31_d23"}};
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"}, 104 {{F32, d15, d1, d6}, false, al, "F32 d15 d1 d6", "F32_d15_d1_d6"}, 110 {{F64, d4, d30, d6}, false, al, "F64 d4 d30 d6", "F64_d4_d30_d6"}, 117 {{F32, d29, d19, d6}, false, al, "F32 d29 d19 d6", "F32_d29_d19_d6"}, 126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"}, 153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"}, 164 {{F64, d3, d6, d7}, false, al, "F64 d3 d6 d7", "F64_d3_d6_d7"}, 178 {{F64, d6, d2, d12}, false, al, "F64 d6 d2 d12", "F64_d6_d2_d12"}, 183 {{F32, d9, d6, d23}, false, al, "F32 d9 d6 d23", "F32_d9_d6_d23"}, 196 {{F32, d6, d31, d23}, false, al, "F32 d6 d31 d23", "F32_d6_d31_d23"}};
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
D | ghash-armv4.S | 359 vld1.64 d6,[r1] 363 vshr.u64 d26,d6,#63 379 vld1.64 d6,[r0]! 409 vld1.64 d6,[r2]! 416 vmull.p8 q8, d16, d6 @ F = A1*B 417 vext.8 d0, d6, d6, #1 @ B1 420 vmull.p8 q9, d18, d6 @ H = A2*B 421 vext.8 d22, d6, d6, #2 @ B2 425 vmull.p8 q10, d20, d6 @ J = A3*B 426 vext.8 d0, d6, d6, #3 @ B3 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
D | ghash-armv4.S | 359 vld1.64 d6,[r1] 363 vshr.u64 d26,d6,#63 379 vld1.64 d6,[r0]! 409 vld1.64 d6,[r2]! 416 vmull.p8 q8, d16, d6 @ F = A1*B 417 vext.8 d0, d6, d6, #1 @ B1 420 vmull.p8 q9, d18, d6 @ H = A2*B 421 vext.8 d22, d6, d6, #2 @ B2 425 vmull.p8 q10, d20, d6 @ J = A3*B 426 vext.8 d0, d6, d6, #3 @ B3 [all …]
|
/third_party/skia/third_party/externals/libpng/arm/ |
D | filter_neon.S | 69 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 72 vadd.u8 d2, d1, d6 91 vext.8 d6, d22, d23, #6 96 vadd.u8 d2, d1, d6 124 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 131 vadd.u8 d2, d2, d6 155 vext.8 d6, d22, d23, #6 165 vadd.u8 d2, d2, d6 197 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 204 vadd.u8 d2, d2, d6 [all …]
|
/third_party/ffmpeg/libavcodec/ |
D | jrevdct.c | 218 int32_t d0, d1, d2, d3, d4, d5, d6, d7; variable 245 d6 = dataptr[3]; 251 if ((d1 | d2 | d3 | d4 | d5 | d6 | d7) == 0) { 271 if (d6) { 274 z1 = MULTIPLY(d2 + d6, FIX_0_541196100); 275 tmp2 = z1 + MULTIPLY(-d6, FIX_1_847759065); 287 tmp2 = MULTIPLY(-d6, FIX_1_306562965); 288 tmp3 = MULTIPLY(d6, FIX_0_541196100); 612 d6 = dataptr[DCTSIZE*6]; 617 if (d6) { [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | reconstruct_neon.S | 285 LOAD_4x4_DATA_FOR_DCT d4, d5, d6, d7, r1, r2, r3, r4 287 vsubl.u8 q0, d4, d6 293 DCT_ROW_TRANSFORM_TOTAL_16BITS d0, d1, d2, d3, d4, d5, d6, d7 299 DCT_ROW_TRANSFORM_TOTAL_16BITS d0, d1, d2, d3, d4, d5, d6, d7 332 vswp d5, d6 356 vswp d5, d6 372 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 389 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11 392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 [all …]
|
D | pixel_neon.S | 46 vsubl.u8 q9, d4, d6 61 vsubl.u8 q13, d4, d6 141 vld1.64 {d6}, [r0,:64], r1 144 vsubl.u8 q11, d6, d7 195 vabal.u8 q12, d4, d6 215 vld1.64 {d6}, [r0, :64], r1 218 vabal.u8 q13, d6, d7 235 vabdl.u8 q12, d4, d6 278 vabdl.u8 q12, d4, d6 320 vld1.64 {d6}, [r0, :64], r1 [all …]
|
/third_party/glslang/Test/ |
D | spv.loops.frag | 21 in float d6; 155 if (color.x < d6) { 156 while (color.y < d6) 159 while (color.z < d6) 164 if (color.x < d6) { 165 while (color.y < d6) { 172 while (color.z < d6) 252 if (color.w < d6)
|