/third_party/ffmpeg/libavcodec/arm/ |
D | rdft_neon.S | 95 veor d24, d22, d17 @ ev.re,-ev.im 101 vmla.f32 d22, d3, d4[0] 102 vmla.f32 d22, d7, d5[0] 109 vst1.32 {d22}, [r7,:64]! 125 vld1.32 {d22}, [r5,:64] 127 vmov d23, d22 129 vtrn.32 d22, d23 136 vadd.f32 d22, d22, d23 140 vst1.32 {d22}, [r5,:64] 146 vmul.f32 d22, d22, d18 [all …]
|
D | fft_neon.S | 72 vsub.f32 d23, d22, d23 @ i2-i3,r3-r2 73 vsub.f32 d22, d0, d1 @ r0-r1,i0-i1 78 vadd.f32 d1, d22, d23 80 vsub.f32 d3, d22, d23 109 vld1.32 {d22-d25}, [r0,:128]! @ q11{r4,i4,r5,i5} q12{r6,i5,r7,i7} 115 vadd.f32 d20, d22, d23 116 vsub.f32 d22, d22, d23 120 vmul.f32 d24, d22, d2 131 vadd.f32 d0, d22, d20 134 vsub.f32 d3, d22, d20 [all …]
|
D | vp9lpf_neon.S | 97 vsubl.u8 q6, d24, d22 @ q0 - p0 115 vmovl.u8 q6, d22 @ p0 162 vabd.u8 d5, d21, d22 @ abs(p2 - p1) 163 vabd.u8 d6, d22, d23 @ abs(p1 - p0) 173 vabd.u8 d5, d22, d25 @ abs(p1 - q1) 192 vabd.u8 d1, d22, d23 @ abs(p1 - p0) 225 vabd.u8 d5, d22, d23 @ abs(p1 - p0) 238 vsubl.u8 \tmpq1, d22, d25 @ p1 - q1 285 vmovl.u8 q0, d22 @ p1 297 vbit d22, d0, d5 @ if (!hev && fm && !flat8in) [all …]
|
D | vp9itxfm_16bpp_neon.S | 837 butterfly d19, d22, d9, d22 @ d19 = t1a, d22 = t6 852 butterfly_r d25, d22, d22, d24 @ d25 = out[9], d22 = out[6] 866 mbutterfly d26, d22, d3[0], d3[1], q4, q5 @ d26 = t5a, d22 = t6a 875 butterfly d11, d22, d30, d22 @ d11 = t7, d22 = t6 881 mbutterfly0 d22, d26, d22, d26, d18, d30, q9, q15 @ d22 = t6a, d26 = t5a 891 mbutterfly_h2 d26, d22, d3[0], d3[1], q4, q5 @ d26 = t5a, d22 = t6a 900 butterfly d11, d22, d30, d22 @ d11 = t7, d22 = t6 906 mbutterfly0 d22, d26, d22, d26, d18, d30, q9, q15 @ d22 = t6a, d26 = t5a 937 mbutterfly0 d22, d26, d11, d10, d18, d30, q9, q15 964 mbutterfly_l q3, q2, d25, d22, d1[1], d1[0] @ q3 = t7, q2 = t6 [all …]
|
D | sbcdsp_neon.S | 238 vld1.32 {d22, d23}, [r6, :128], r11 331 vbif.s32 d22, d16, d30 340 vst1.32 {d22, d23}, [r5, :128], r11 355 vbif.s32 d22, d16, d30 362 vst1.32 {d22, d23}, [r5, :128] 658 vld1.8 {d20, d21, d22, d23}, [r1]! 666 vtbl.8 d16, {d20, d21, d22, d23}, d0 667 vtbl.8 d17, {d20, d21, d22, d23}, d1 668 vtbl.8 d18, {d20, d21, d22, d23}, d2 669 vtbl.8 d19, {d20, d21, d22, d23}, d3 [all …]
|
D | vorbisdsp_neon.S | 32 vld1.32 {d22-d23},[r0,:128]! 46 vst1.32 {d22-d23},[r12,:128]! 54 vld1.32 {d22-d23},[r0,:128]!
|
D | hevcdsp_qpel_neon.S | 32 vmov d21, d22 33 vmov d22, d23 49 vext.8 d16, d22, d23, #1 50 vext.8 d17, d22, d23, #2 51 vext.8 d18, d22, d23, #3 52 vext.8 d19, d22, d23, #4 53 vext.8 d20, d22, d23, #5 54 vext.8 d21, d22, d23, #6 55 vext.8 d22, d22, d23, #7 72 vld1.8 {d22}, [r2], r3 [all …]
|
D | hevcdsp_deblock_neon.S | 67 vmovl.u8 q11, d22 282 vqmovun.s16 d22, q11 297 vld1.8 {d22}, [r0], r1 303 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 305 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 309 vst1.8 {d22}, [r0], r1 327 vld1.8 {d22}, [r0], r1 337 vst1.8 {d22}, [r0], r1
|
D | int_neon.S | 34 vld1.16 {d22-d23}, [r1,:128]! 35 vmlal.s16 q2, d18, d22
|
/third_party/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 116 {{F32, d22, d22, d3}, false, al, "F32 d22 d22 d3", "F32_d22_d22_d3"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 125 {{F64, d11, d14, d22}, false, al, "F64 d11 d14 d22", "F64_d11_d14_d22"}, 130 {{F64, d22, d8, d8}, false, al, "F64 d22 d8 d8", "F64_d22_d8_d8"}, 135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"}, 136 {{F64, d16, d22, d3}, false, al, "F64 d16 d22 d3", "F64_d16_d22_d3"}, 137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d17"}, 141 {{F32, d22, d3, d3}, false, al, "F32 d22 d3 d3", "F32_d22_d3_d3"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 116 {{F32, d22, d22, d3}, false, al, "F32 d22 d22 d3", "F32_d22_d22_d3"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 125 {{F64, d11, d14, d22}, false, al, "F64 d11 d14 d22", "F64_d11_d14_d22"}, 130 {{F64, d22, d8, d8}, false, al, "F64 d22 d8 d8", "F64_d22_d8_d8"}, 135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"}, 136 {{F64, d16, d22, d3}, false, al, "F64 d16 d22 d3", "F64_d16_d22_d3"}, 137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d17"}, 141 {{F32, d22, d3, d3}, false, al, "F32 d22 d3 d3", "F32_d22_d3_d3"},
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 452 {{F64, d3, d22, d7}, 462 {{F64, d27, d30, d22}, 642 {{F64, d31, d9, d22}, 772 {{F64, d11, d23, d22}, 832 {{F64, d12, d22, d12}, 847 {{F64, d28, d22, d20}, 852 {{F64, d22, d20, d9}, 952 {{F64, d22, d23, d23}, 977 {{F64, d1, d22, d22}, 1097 {{F64, d21, d22, d22}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 452 {{F64, d3, d22, d7}, 462 {{F64, d27, d30, d22}, 642 {{F64, d31, d9, d22}, 772 {{F64, d11, d23, d22}, 832 {{F64, d12, d22, d12}, 847 {{F64, d28, d22, d20}, 852 {{F64, d22, d20, d9}, 952 {{F64, d22, d23, d23}, 977 {{F64, d1, d22, d22}, 1097 {{F64, d21, d22, d22}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 121 {{F32, d22, d21, d2}, false, al, "F32 d22 d21 d2", "F32_d22_d21_d2"}, 143 {{F32, d6, d22, d19}, false, al, "F32 d6 d22 d19", "F32_d6_d22_d19"}, 161 {{F32, d23, d0, d22}, false, al, "F32 d23 d0 d22", "F32_d23_d0_d22"}, 171 {{F32, d22, d1, d31}, false, al, "F32 d22 d1 d31", "F32_d22_d1_d31"}, 174 {{F32, d16, d8, d22}, false, al, "F32 d16 d8 d22", "F32_d16_d8_d22"}, 177 {{F32, d30, d21, d22}, false, al, "F32 d30 d21 d22", "F32_d30_d21_d22"}, 180 {{F32, d8, d22, d31}, false, al, "F32 d8 d22 d31", "F32_d8_d22_d31"}, 194 {{F32, d9, d22, d10}, false, al, "F32 d9 d22 d10", "F32_d9_d22_d10"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 121 {{F32, d22, d21, d2}, false, al, "F32 d22 d21 d2", "F32_d22_d21_d2"}, 143 {{F32, d6, d22, d19}, false, al, "F32 d6 d22 d19", "F32_d6_d22_d19"}, 161 {{F32, d23, d0, d22}, false, al, "F32 d23 d0 d22", "F32_d23_d0_d22"}, 171 {{F32, d22, d1, d31}, false, al, "F32 d22 d1 d31", "F32_d22_d1_d31"}, 174 {{F32, d16, d8, d22}, false, al, "F32 d16 d8 d22", "F32_d16_d8_d22"}, 177 {{F32, d30, d21, d22}, false, al, "F32 d30 d21 d22", "F32_d30_d21_d22"}, 180 {{F32, d8, d22, d31}, false, al, "F32 d8 d22 d31", "F32_d8_d22_d31"}, 194 {{F32, d9, d22, d10}, false, al, "F32 d9 d22 d10", "F32_d9_d22_d10"},
|
/third_party/openh264/codec/decoder/core/arm/ |
D | block_add_neon.S | 90 vld1.32 {d22[0]},[r0],r1 91 vld1.32 {d22[1]},[r0] 99 vmovl.u8 q1,d22 104 vqmovun.s16 d22,q1 108 vst1.32 {d22[0]},[r2],r1 109 vst1.32 {d22[1]},[r2]
|
/third_party/openh264/codec/encoder/core/arm/ |
D | intra_pred_sad_3_opt_neon.S | 156 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d20, d27, d15, d16, d17, d14 169 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d21, d27, d15, d16, d17, d14 182 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d18, d27, d15, d16, d17, d14 195 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d19, d27, d15, d16, d17, d14 301 vadd.u16 d22, d23 302 vpaddl.u16 d22, d22 303 vpaddl.u32 d22, d22 304 vmov.u32 r1, d22[0] 445 vadd.u16 d22, d23 446 vpaddl.u16 d22, d22 [all …]
|
/third_party/skia/third_party/externals/libpng/arm/ |
D | filter_neon.S | 89 vext.8 d5, d22, d23, #3 90 vadd.u8 d0, d3, d22 91 vext.8 d6, d22, d23, #6 151 vext.8 d5, d22, d23, #3 154 vadd.u8 d0, d0, d22 155 vext.8 d6, d22, d23, #6 227 vext.8 d5, d22, d23, #3 228 vadd.u8 d0, d0, d22 232 vext.8 d6, d22, d23, #6
|
/third_party/ffmpeg/libavresample/arm/ |
D | audio_convert_neon.S | 165 vzip.32 d18, d22 171 vst1.16 {d22}, [r8], r12 225 vsri.32 d22, d20, #16 232 vst1.32 {d22[0]}, [r8], r12 233 vst1.32 {d22[1]}, [r8], r12 252 vsri.32 d22, d20, #16 259 vst1.32 {d22[0]}, [r8], r12 261 vst1.32 {d22[1]}, [r8], r12 295 vsri.32 d22, d20, #16 300 vst1.32 {d22[0]}, [r8], r12 [all …]
|
/third_party/ffmpeg/libswresample/arm/ |
D | audio_convert_neon.S | 167 vzip.32 d18, d22 173 vst1.16 {d22}, [r8], r12 227 vsri.32 d22, d20, #16 234 vst1.32 {d22[0]}, [r8], r12 235 vst1.32 {d22[1]}, [r8], r12 254 vsri.32 d22, d20, #16 261 vst1.32 {d22[0]}, [r8], r12 263 vst1.32 {d22[1]}, [r8], r12 297 vsri.32 d22, d20, #16 302 vst1.32 {d22[0]}, [r8], r12 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
D | ghash-armv4.S | 421 vext.8 d22, d6, d6, #2 @ B2 422 vmull.p8 q11, d26, d22 @ G = A*B2 431 vext.8 d22, d6, d6, #4 @ B4 434 vmull.p8 q11, d26, d22 @ K = A*B4 441 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 459 vext.8 d22, d6, d6, #2 @ B2 460 vmull.p8 q11, d28, d22 @ G = A*B2 469 vext.8 d22, d6, d6, #4 @ B4 472 vmull.p8 q11, d28, d22 @ K = A*B4 479 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
D | ghash-armv4.S | 421 vext.8 d22, d6, d6, #2 @ B2 422 vmull.p8 q11, d26, d22 @ G = A*B2 431 vext.8 d22, d6, d6, #4 @ B4 434 vmull.p8 q11, d26, d22 @ K = A*B4 441 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 459 vext.8 d22, d6, d6, #2 @ B2 460 vmull.p8 q11, d28, d22 @ G = A*B2 469 vext.8 d22, d6, d6, #4 @ B4 472 vmull.p8 q11, d28, d22 @ K = A*B4 479 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 [all …]
|
/third_party/typescript/tests/baselines/reference/ |
D | unionsOfTupleTypes1.js | 29 let [d20, d21, d22] = t2; // string | boolean, number | undefined 33 [d20, d21, d22] = t2; 70 var d20 = t2[0], d21 = t2[1], d22 = t2[2]; // string | boolean, number | undefined 74 d20 = t2[0], d21 = t2[1], d22 = t2[2];
|
D | unionsOfTupleTypes1.types | 76 let [d20, d21, d22] = t2; // string | boolean, number | undefined 79 >d22 : undefined 102 [d20, d21, d22] = t2; 103 >[d20, d21, d22] = t2 : T2 104 >[d20, d21, d22] : [string | boolean, number | undefined, undefined] 107 >d22 : undefined
|
/third_party/ffmpeg/libavutil/arm/ |
D | float_dsp_neon.S | 164 vmul.f32 d22, d0, d4 171 vmla.f32 d22, d3, d7 182 vswp d22, d23 184 vst1.32 {d22,d23},[ip,:128], r5 186 2: vmla.f32 d22, d3, d7 191 vswp d22, d23 193 vst1.32 {d22,d23},[ip,:128], r5
|