/third_party/openh264/codec/encoder/core/arm/ |
D | intra_pred_sad_3_opt_neon.S | 117 vshl.u16 d27, d0, #4 155 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d20, d27, d15, d16, d17, d14 156 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d20, d27, d15, d16, d17, d14 157 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d20, d27, d15, d16, d17, d14 158 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d20, d27, d15, d16, d17, d14 168 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d21, d27, d15, d16, d17, d14 169 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d21, d27, d15, d16, d17, d14 170 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d21, d27, d15, d16, d17, d14 171 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d21, d27, d15, d16, d17, d14 181 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d18, d27, d15, d16, d17, d14 [all …]
|
D | reconstruct_neon.S | 453 NEWQUANT_COEF_EACH_16BITS_MAX q0, q8, d16, d17, d6, d7, q9, q10, q11, d27 473 NEWQUANT_COEF_EACH_16BITS_MAX q0, q8, d16, d17, d6, d7, q9, q10, q11, d27 718 vld1.u64 {d27}, [r2], r3 754 vmovl.u8 q8,d27 756 vqmovun.s16 d27,q3 757 vst1.u8 {d27},[r0],r1 764 vld1.u64 {d27}, [r2], r3 800 vmovl.u8 q8,d27 802 vqmovun.s16 d27,q3 803 vst1.u8 {d27},[r0],r1
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/bn/ |
D | armv4-gf2m.S | 173 vmov d27, r12, r3 179 vmull.p8 q1, d2, d27 @ F = A1*B 180 vext.8 d0, d27, d27, #1 @ B1 183 vmull.p8 q2, d4, d27 @ H = A2*B 184 vext.8 d16, d27, d27, #2 @ B2 188 vmull.p8 q3, d6, d27 @ J = A3*B 189 vext.8 d0, d27, d27, #3 @ B3 194 vext.8 d16, d27, d27, #4 @ B4 208 vmull.p8 q0, d26, d27 @ D = A*B
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/bn/ |
D | armv4-gf2m.S | 173 vmov d27, r12, r3 179 vmull.p8 q1, d2, d27 @ F = A1*B 180 vext.8 d0, d27, d27, #1 @ B1 183 vmull.p8 q2, d4, d27 @ H = A2*B 184 vext.8 d16, d27, d27, #2 @ B2 188 vmull.p8 q3, d6, d27 @ J = A3*B 189 vext.8 d0, d27, d27, #3 @ B3 194 vext.8 d16, d27, d27, #4 @ B4 208 vmull.p8 q0, d26, d27 @ D = A*B
|
/third_party/ffmpeg/libavcodec/arm/ |
D | vp9itxfm_16bpp_neon.S | 842 butterfly d23, d27, d25, d27 @ d23 = t14, d27 = t13 845 mbutterfly0 d27, d21, d27, d21, d16, d30, q8, q15 @ d27 = t13a, d21 = t10a 848 vswp d27, d29 @ d27 = t12, d29 = t13a 849 vswp d28, d27 @ d28 = t12, d27 = t11 857 butterfly d20, d27, d10, d27 @ d20 = out[4], d27 = out[11] 869 mbutterfly d21, d27, d6[0], d6[1], q4, q5 @ d21 = t10a, d27 = t13a 878 butterfly d17, d27, d19, d27 @ d17 = t12, d27 = t13 883 mbutterfly d27, d21, d1[0], d1[1], q9, q15, neg=1 @ d27 = t13a, d21 = t10a 894 mbutterfly_h1 d21, d27, d6[0], d6[1], q4, q5 @ d21 = t10a, d27 = t13a 903 butterfly d17, d27, d19, d27 @ d17 = t12, d27 = t13 [all …]
|
D | vp9lpf_neon.S | 90 vsubl.u8 q6, d21, d27 @ p1 - q1 137 vmovl.u8 q7, d27 @ q1 152 @ p7 = d16 .. p3 = d20, p0 = d23, q0 = d24, q3 = d27, q7 = d31 166 vabd.u8 \tmp2, d26, d27 @ abs(q2 - q3) 195 vabd.u8 \tmp3, d27, d24 @ abs(q3 - q0) 320 vaddl.u8 \tmpq2, d24, d27 326 vaddl.u8 \tmpq4, d25, d27 332 vaddl.u8 \tmpq2, d26, d27 388 vaddl.u8 q5, d20, d27 438 vaddl.u8 q7, d27, d31 [all …]
|
D | vp9itxfm_neon.S | 836 vst1.16 {d27}, [r0,:64]! 989 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 991 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31 1010 vst1.16 {d27}, [r0,:64]! 1049 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31 1051 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31
|
D | fft_neon.S | 71 vmul.f32 d27, d19, d29 @ a3r*w,-a3i*w 83 vadd.f32 d25, d25, d27 @ a3r-a3i,a3i+a3r t5,t6 90 vsub.f32 d4, d26, d27 113 vsub.f32 d19, d26, d27 128 vld1.32 {d24-d27}, [r0,:128]! @ q12{r8,i8,r9,i9} q13{r10,i10,r11,i11} 165 vswp d27, d30 @ q13{r10,i10,r14,i14} q15{r11,i11,r15,i15} 191 vadd.f32 d1, d27, d31 192 vsub.f32 d2, d27, d31 200 vst2.32 {d26-d27},[r0,:128], r1
|
D | vp9lpf_16bpp_neon.S | 848 vst1.16 {d27}, [r0], r1 871 vld1.16 {d27}, [r0, :64], r1 @ q3
|
D | idctdsp_neon.S | 29 vld1.16 {d24-d27}, [r0,:128]! 70 vld1.16 {d26-d27}, [r0,:128]!
|
/third_party/vixl/test/aarch32/ |
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 397 {{F64, d3, d27, d4}, 447 {{F64, d27, d26, d30}, 462 {{F64, d27, d30, d22}, 467 {{F64, d27, d25, d7}, 502 {{F64, d1, d27, d16}, 577 {{F64, d29, d27, d24}, 622 {{F64, d7, d0, d27}, 627 {{F64, d0, d9, d27}, 632 {{F64, d7, d11, d27}, 882 {{F64, d11, d27, d27}, [all …]
|
D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 397 {{F64, d3, d27, d4}, 447 {{F64, d27, d26, d30}, 462 {{F64, d27, d30, d22}, 467 {{F64, d27, d25, d7}, 502 {{F64, d1, d27, d16}, 577 {{F64, d29, d27, d24}, 622 {{F64, d7, d0, d27}, 627 {{F64, d0, d9, d27}, 632 {{F64, d7, d11, d27}, 882 {{F64, d11, d27, d27}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"}, 181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"}, 185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"}, 197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"}, 181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"}, 185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"}, 197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"}, 147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"}, 151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"}, 169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"}, 175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"}, 147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"}, 151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"}, 169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"}, 175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"},
|
/third_party/openh264/codec/processing/src/arm/ |
D | adaptive_quantization.S | 52 vmull.u8 q12, d27, d27 57 vaddl.u8 q13, d26, d27 //sum 90 vadd.u16 d0, d26, d27 //sum
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
D | ghash-armv4.S | 381 vldmia r1,{d26,d27} @ load twisted H 387 veor d28,d26,d27 @ Karatsuba pre-processing 399 vldmia r1,{d26,d27} @ load twisted H 405 veor d28,d26,d27 @ Karatsuba pre-processing 490 vext.8 d16, d27, d27, #1 @ A1 493 vmull.p8 q2, d27, d4 @ E = A*B1 494 vext.8 d18, d27, d27, #2 @ A2 497 vmull.p8 q11, d27, d22 @ G = A*B2 498 vext.8 d20, d27, d27, #3 @ A3 503 vmull.p8 q2, d27, d4 @ I = A*B3 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
D | ghash-armv4.S | 381 vldmia r1,{d26,d27} @ load twisted H 387 veor d28,d26,d27 @ Karatsuba pre-processing 399 vldmia r1,{d26,d27} @ load twisted H 405 veor d28,d26,d27 @ Karatsuba pre-processing 490 vext.8 d16, d27, d27, #1 @ A1 493 vmull.p8 q2, d27, d4 @ E = A*B1 494 vext.8 d18, d27, d27, #2 @ A2 497 vmull.p8 q11, d27, d22 @ G = A*B2 498 vext.8 d20, d27, d27, #3 @ A3 503 vmull.p8 q2, d27, d4 @ I = A*B3 [all …]
|
/third_party/vixl/test/aarch64/ |
D | test-assembler-fp-aarch64.cc | 445 __ Fmov(d27, kFP64PositiveInfinity); in TEST() 462 __ Fadd(d10, d27, d31); in TEST() 464 __ Fadd(d12, d27, d28); in TEST() 465 __ Fadd(d13, d28, d27); in TEST() 537 __ Fmov(d27, kFP64PositiveInfinity); in TEST() 554 __ Fsub(d10, d31, d27); in TEST() 556 __ Fsub(d12, d27, d27); in TEST() 628 __ Fmov(d27, kFP64PositiveInfinity); in TEST() 645 __ Fmul(d10, d27, d30); in TEST() 647 __ Fmul(d12, d27, d29); in TEST() [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/ |
D | poly1305-armv4.S | 785 vmull.u32 q8,d27,d0[1] 799 vmlal.u32 q9,d27,d1[1] 801 vmlal.u32 q5,d27,d4[1] 810 vmlal.u32 q6,d27,d6[1] 817 vmlal.u32 q7,d27,d8[1] 819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0) 929 vadd.i32 d27,d26,d16 942 vmull.u32 q8,d27,d0 953 vmlal.u32 q9,d27,d1 958 vmlal.u32 q5,d27,d4 [all …]
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
D | poly1305-armv4.S | 785 vmull.u32 q8,d27,d0[1] 799 vmlal.u32 q9,d27,d1[1] 801 vmlal.u32 q5,d27,d4[1] 810 vmlal.u32 q6,d27,d6[1] 817 vmlal.u32 q7,d27,d8[1] 819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0) 929 vadd.i32 d27,d26,d16 942 vmull.u32 q8,d27,d0 953 vmlal.u32 q9,d27,d1 958 vmlal.u32 q5,d27,d4 [all …]
|
/third_party/openh264/codec/common/arm/ |
D | deblocking_neon.S | 252 DIFF_LUMA_EQ4_P2P1P0 d17, d19, d21, d23, d25, d27, d3, d1 264 DIFF_LUMA_EQ4_P2P1P0 d31, d29, d27, d25, d23, d21, d5, d7 393 vld1.u8 {d27}, [r3], r1 406 vtrn.u32 d27, d31 413 vtrn.u16 d25, d27 422 vtrn.u8 d26, d27 457 DIFF_LUMA_EQ4_P2P1P0 d17, d19, d21, d23, d25, d27, d3, d1 468 DIFF_LUMA_EQ4_P2P1P0 d31, d29, d27, d25, d23, d21, d5, d1 838 BS_MV_CHECK r1, r2, r3, d24, d25, d26, d27//q12, q13 save the mv status
|
/third_party/skia/third_party/externals/swiftshader/third_party/subzero/src/ |
D | IceRegistersARM32.def | 99 X(Reg_d27, 27, "d27", 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, REGLIST2(RegARM32, d27, q13)) \ 120 X(Reg_q13, 13, "q13", 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, REGLIST3(RegARM32, q13, d26, d27)) \
|
/third_party/node/deps/v8/src/codegen/ppc/ |
D | reglist-ppc.h | 56 d26, d27, d28, d29, d30, d31};
|