/third_party/ffmpeg/libavcodec/arm/ |
D | h264cmc_neon.S | 80 vrshrn.u16 d16, q8, #6 85 vshrn.u16 d16, q8, #6 93 vst1.8 {d16}, [r0,:64], r2 117 vrshrn.u16 d16, q8, #6 122 vshrn.u16 d16, q8, #6 132 vst1.8 {d16}, [r0,:64], r2 150 vrshrn.u16 d16, q8, #6 155 vshrn.u16 d16, q8, #6 163 vst1.8 {d16}, [r0,:64], r2 177 vrshrn.u16 d16, q8, #6 [all …]
|
D | hevcdsp_sao_neon.S | 41 vld1.8 {d16}, [r1], r3 42 vshr.u8 d17, d16, #3 // index = [src>>3] 54 vaddw.u8 q13, q12, d16 67 vld1.32 {d16[0]}, [r1], r3 68 vshr.u8 d17, d16, #3 // src>>3 80 vaddw.u8 q13, q12, d16 115 vld1.8 {d16}, [r1], r3 // src[x] 8x8bit 118 vcgt.u8 d8, d16, d17 120 vclt.u8 d8, d16, d17 122 vcgt.u8 d10, d16, d18 [all …]
|
D | sbcdsp_neon.S | 143 vpadd.s32 d2, d16, d17 186 vpadd.s32 d2, d16, d17 /* TODO: can be eliminated */ 232 vld1.32 {d16, d17}, [r6, :128], r11 282 vld1.32 {d16, d17}, [r5, :128], r11 322 vld1.32 {d16, d17}, [r5, :128] 331 vbif.s32 d22, d16, d30 342 vld1.32 {d16, d17}, [r5, :128] 355 vbif.s32 d22, d16, d30 409 vld1.32 {d16, d17}, [r4, :128]! 416 vpadd.s32 d16, d16, d17 [all …]
|
D | vp6dsp_neon.S | 27 vsubl.u8 q1, d16, d22 @ p[-2*s] - p[ s] 48 vcge.u16 d31, d31, d16 50 vadd.i16 d16, d6, d6 52 vsub.i16 d16, d16, d30 54 vadd.i16 d16, d16, d29 56 veor d16, d16, d29 58 vbif d28, d16, d31 90 vld1.32 {d16[0]}, [r0], r1 94 vld1.32 {d16[1]}, [r0], r1
|
D | mdct_neon.S | 39 vld2.32 {d16-d17},[r7,:128],r12 @ d16=x,n1 d17=x,n0 57 vld2.32 {d16-d17},[r7,:128],r12 91 vld2.32 {d16,d18},[r1,:128], r7 @ d16=c1,c0 d18=s1,s0 99 vmul.f32 d22, d1, d16 101 vmul.f32 d24, d0, d16 110 vld2.32 {d16,d18},[r1,:128], r7 @ d16=c1,c0 d18=s1,s0 176 vld2.32 {d16,d18},[r9,:128],r12 @ in0u0,in0u1 in4d1,in4d0 186 vsub.f32 d16, d16, d2 @ in0u-in2d R 197 vmul.f32 d24, d16, d30 @ R*c 199 vmul.f32 d22, d16, d31 @ R*s [all …]
|
D | ac3dsp_neon.S | 141 vld1.32 {d16}, [r1]! 143 vadd.s32 d18, d16, d17 144 vsub.s32 d19, d16, d17 145 vmlal.s32 q0, d16, d16 163 vld1.32 {d16}, [r1]! 165 vadd.f32 d18, d16, d17 166 vsub.f32 d19, d16, d17 167 vmla.f32 d0, d16, d16
|
D | rdft_neon.S | 64 vmov.i32 d16, #0 67 vtrn.32 d16, d17 69 vrev64.32 d16, d16 @ d16=1,0 d17=0,1 84 veor d7, d21, d16 @ -od.im, od.re 87 veor d2, d3, d16 @ -od.re, od.im 93 veor d7, d23, d16 @ -od.im, od.re 99 veor d2, d3, d16 @ -od.re, od.im 122 veor d7, d21, d16 @ -od.im, od.re 128 veor d2, d3, d16 @ -od.re, od.im
|
D | h264dsp_neon.S | 80 vsubw.u8 q2, q2, d16 93 vmovl.u8 q14, d16 103 vqmovun.s16 d16, q14 119 vld1.8 {d16,d17}, [r0,:128], r1 127 vst1.8 {d16,d17}, [r0,:128], r1 142 vld1.8 {d16}, [r0], r1 167 vst1.32 {d16[0]}, [r0], r1 171 vst1.32 {d16[1]}, [r0], r1 190 vabd.u8 d26, d16, d0 @ abs(p0 - q0) 192 vabd.u8 d28, d18, d16 @ abs(p1 - p0) [all …]
|
D | vp9itxfm_16bpp_neon.S | 789 vld1.32 {d16[]}, [r2,:32] 790 vmull.s32 q8, d16, d0[0] 791 vrshrn.s64 d16, q8, #14 792 vmull.s32 q8, d16, d0[0] 793 vrshrn.s64 d16, q8, #14 794 vdup.32 q8, d16[0] 840 butterfly d20, d28, d16, d24 @ d20 = t8a, d28 = t11a 845 mbutterfly0 d27, d21, d27, d21, d16, d30, q8, q15 @ d27 = t13a, d21 = t10a 846 mbutterfly0 d29, d28, d29, d28, d16, d30, q8, q15 @ d29 = t12, d28 = t11 850 butterfly d16, d31, d18, d25 @ d16 = out[0], d31 = out[15] [all …]
|
D | int_neon.S | 29 1: vld1.16 {d16-d17}, [r0]! 31 vmlal.s16 q0, d16, d20 40 vpadd.s32 d16, d0, d1 44 vpadd.s32 d0, d16, d17
|
D | idctdsp_neon.S | 25 vld1.16 {d16-d19}, [r0,:128]! 50 vld1.16 {d16-d17}, [r0,:128]! 54 vld1.16 {d16-d17}, [r0,:128]! 87 vld1.8 {d16}, [r1,:64], r2 89 vaddw.u8 q0, q0, d16 104 vld1.8 {d16}, [r1,:64], r2 107 vaddw.u8 q0, q0, d16
|
D | lossless_audiodsp_neon.S | 33 1: vld1.16 {d16-d17}, [r0,:128]! 41 vmlal.s16 q0, d16, d18 52 vpadd.s32 d16, d0, d1 56 vpadd.s32 d0, d16, d17
|
D | h264qpel_neon.S | 154 vld1.8 {d16,d17}, [r1], r2 156 lowpass_8 d0, d1, d16, d17, d0, d16 161 vrhadd.u8 d16, d16, d3 165 vst1.8 {d16}, [r0,:64], r3 191 vld1.8 {d16,d17}, [r1], r2 195 lowpass_8 d0, d1, d16, d17, d0, d1 357 vld1.8 {d16}, [r0,:64], r3 358 vrhadd.u8 d0, d0, d16 361 vld1.8 {d16}, [r0,:64], r3 362 vrhadd.u8 d2, d2, d16 [all …]
|
D | hevcdsp_qpel_neon.S | 27 vmov d16, d17 49 vext.8 d16, d22, d23, #1 60 vld1.8 {d16}, [r2], r3 78 vmov.i16 d16, #58 80 vmull.s16 q9, d6, d16 // 58 * d0 81 vmull.s16 q10, d7, d16 // 58 * d1 82 vmov.i16 d16, #17 86 vmull.s16 q13, d8, d16 // 17 * e0 87 vmull.s16 q14, d9, d16 // 17 * e1 104 vqshrn.s32 d16, q9, #6 [all …]
|
D | fft_neon.S | 37 vsub.f32 d7, d16, d17 @ r3-r2,i2-i3 53 vld1.32 {d16-d19}, [r1,:128] 61 vadd.f32 d4, d16, d17 @ r4+r5,i4+i5 64 vsub.f32 d17, d16, d17 @ r4-r5,i4-i5 88 vsub.f32 d16, d0, d7 97 vst1.32 {d16-d19}, [r1,:128] 105 vld1.32 {d16-d19}, [r0,:128]! @ q8{r0,i0,r1,i1} q9{r2,i2,r3,i3} 110 vadd.f32 d4, d16, d17 111 vsub.f32 d5, d16, d17 123 vuzp.32 d16, d17 @ {r0,r1,i0,i1} [all …]
|
D | hevcdsp_deblock_neon.S | 64 vmovl.u8 q8, d16 279 vqmovun.s16 d16, q8 294 vld1.8 {d16}, [r0], r1 303 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 305 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 306 vst1.8 {d16}, [r0], r1 324 vld1.8 {d16}, [r0], r1 350 vld1.8 {d16}, [r0], r1 359 transpose_8x8 d16, d17, d18, d2, d4, d19, d20, d21 361 transpose_8x8 d16, d17, d18, d2, d4, d19, d20, d21 [all …]
|
D | vp9itxfm_neon.S | 838 vmov d28, d16 988 @ Do four 4x4 transposes. Originally, d16-d31 contain the 989 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 991 …transpose16_q_4x_4x4 q8, q9, q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d2… 1018 @ For the first slice, d16-d19 is kept in registers from the first pass. 1048 @ Do four 4x4 transposes. Originally, d16-d31 contain the 1049 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 1051 …transpose16_q_4x_4x4 q8, q9, q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d2…
|
D | h264pred_neon.S | 141 vrev64.16 d16, d17 143 vadd.i16 d16, d16, d0 144 vshl.i16 d2, d16, #4 220 vrev64.16 d16, d16 222 vadd.i16 d16, d16, d0 223 vshl.i16 d2, d16, #4
|
/third_party/ffmpeg/libavresample/arm/ |
D | resample_neon.S | 116 vmla.f32 d16, d0, d4[0] 119 vmla.f32 d16, d0, d4 122 vmla.f32 d16, d0, d4 126 vmul.f32 d16, d0, d4 133 vpadd.f32 d16, d16, d17 134 vpadd.f32 d16, d16, d16 135 vst1.32 d16[0], [r1] 175 vadd.s64 d16, d16, d17 176 vqrshrn.s64 d16, q8, #30 177 vst1.32 d16[0], [r1] [all …]
|
/third_party/openh264/codec/common/arm/ |
D | mc_neon.S | 165 FILTER_6TAG_8BITS d0, d4, d6, d16, d18, d20, d2, q14, q15 264 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d4, d6, d16, d18, d20, d2, q14, q15 363 FILTER_6TAG_8BITS_AVERAGE_WITH_1 d0, d4, d6, d16, d18, d20, d2, q14, q15 465 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d2, d4, d6, d16, d18, d20, q14, q15 471 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d2, d4, d6, d16, d18, d0, d20, q14, q15 477 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d4, d6, d16, d18, d0, d2, d20, q14, q15 483 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d6, d16, d18, d0, d2, d4, d20, q14, q15 489 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d16, d18, d0, d2, d4, d6, d20, q14, q15 495 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d18, d0, d2, d4, d6, d16, d20, q14, q15 501 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d2, d4, d6, d16, d18, d20, q14, q15 [all …]
|
/third_party/icu/icu4c/source/test/perf/collperf2/ |
D | collperf2.cpp | 794 : CollPerfFunction(coll, ucoll), d16(data16), in UniStrCollPerfFunction() 795 source(new UnicodeString*[d16->count]) { in UniStrCollPerfFunction() 796 for (int32_t i = 0; i < d16->count; ++i) { in UniStrCollPerfFunction() 797 source[i] = new UnicodeString(TRUE, d16->dataOf(i), d16->lengthOf(i)); in UniStrCollPerfFunction() 803 const CA_uchar* d16; member in UniStrCollPerfFunction 808 for (int32_t i = 0; i < d16->count; ++i) { in ~UniStrCollPerfFunction() 821 dest(new UnicodeString*[d16->count]) {} in UniStrSort() 837 int32_t count = d16->count; in call() 970 int32_t count = d16->count; in call() 1081 const CA_uchar* d16, [all …]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | intra_pred_sad_3_opt_neon.S | 144 vmov.i32 d16, #0//Save the SATD of H 155 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d20, d27, d15, d16, d17, d14 156 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d20, d27, d15, d16, d17, d14 157 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d20, d27, d15, d16, d17, d14 158 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d20, d27, d15, d16, d17, d14 168 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d21, d27, d15, d16, d17, d14 169 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d21, d27, d15, d16, d17, d14 170 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d21, d27, d15, d16, d17, d14 171 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d21, d27, d15, d16, d17, d14 181 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d18, d27, d15, d16, d17, d14 [all …]
|
D | reconstruct_neon.S | 314 LOAD_8x8_DATA_FOR_DCT d16, d17, d18, d19, d20, d21, d22, d23, r1, r3 316 vsubl.u8 q0, d16, d20 338 LOAD_8x8_DATA_FOR_DCT d16, d17, d18, d19, d20, d21, d22, d23, r1, r3 340 vsubl.u8 q0, d16, d20 375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 405 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11 408 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 413 NEWQUANT_COEF_EACH_16BITS q0, q8, d16, d17, d6, d7, q9, q10, q11 416 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11 [all …]
|
/third_party/mindspore/mindspore/ccsrc/backend/kernel_compiler/cpu/nnacl/assembly/arm82_aarch32_fp16/ |
D | Matmul12x8Fp16.S | 386 STORE_12x1 d16[0] 400 STORE_C1 d16[0], #5 415 STORE_12x2 d16[0] 429 STORE_C2 d16[0], #5 444 STORE_12x3 d16[0], d16[2] 458 STORE_C3 d16[0], d16[2], #5 473 STORE_12x4 d16 487 STORE_C4 d16, #5 502 STORE_12x5 d16, d17[0] 516 STORE_C5 d16, d17[0], #5 [all …]
|
/third_party/openssl/crypto/modes/asm/arm32/ |
D | ghash-armv4.S | 360 vshr.u64 d16,#63 @ t0=0xc2....01 414 vext.8 d16, d26, d26, #1 @ A1 415 vmull.p8 q8, d16, d6 @ F = A1*B 428 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8 435 veor d16, d16, d17 452 vext.8 d16, d28, d28, #1 @ A1 453 vmull.p8 q8, d16, d6 @ F = A1*B 466 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8 473 veor d16, d16, d17 489 vext.8 d16, d27, d27, #1 @ A1 [all …]
|