Home
last modified time | relevance | path

Searched refs:d27 (Results 1 – 25 of 92) sorted by relevance

1234

/third_party/openh264/codec/encoder/core/arm/
Dintra_pred_sad_3_opt_neon.S117 vshl.u16 d27, d0, #4
155 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d20, d27, d15, d16, d17, d14
156 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d20, d27, d15, d16, d17, d14
157 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d20, d27, d15, d16, d17, d14
158 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d20, d27, d15, d16, d17, d14
168 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d21, d27, d15, d16, d17, d14
169 HDM_TRANSFORM_4X4_L0 d7, d11, d22, d21, d27, d15, d16, d17, d14
170 HDM_TRANSFORM_4X4_L0 d8, d12, d25, d21, d27, d15, d16, d17, d14
171 HDM_TRANSFORM_4X4_L0 d9, d13, d23, d21, d27, d15, d16, d17, d14
181 HDM_TRANSFORM_4X4_L0 d6, d10, d24, d18, d27, d15, d16, d17, d14
[all …]
Dreconstruct_neon.S453 NEWQUANT_COEF_EACH_16BITS_MAX q0, q8, d16, d17, d6, d7, q9, q10, q11, d27
473 NEWQUANT_COEF_EACH_16BITS_MAX q0, q8, d16, d17, d6, d7, q9, q10, q11, d27
718 vld1.u64 {d27}, [r2], r3
754 vmovl.u8 q8,d27
756 vqmovun.s16 d27,q3
757 vst1.u8 {d27},[r0],r1
764 vld1.u64 {d27}, [r2], r3
800 vmovl.u8 q8,d27
802 vqmovun.s16 d27,q3
803 vst1.u8 {d27},[r0],r1
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/bn/
Darmv4-gf2m.S173 vmov d27, r12, r3
179 vmull.p8 q1, d2, d27 @ F = A1*B
180 vext.8 d0, d27, d27, #1 @ B1
183 vmull.p8 q2, d4, d27 @ H = A2*B
184 vext.8 d16, d27, d27, #2 @ B2
188 vmull.p8 q3, d6, d27 @ J = A3*B
189 vext.8 d0, d27, d27, #3 @ B3
194 vext.8 d16, d27, d27, #4 @ B4
208 vmull.p8 q0, d26, d27 @ D = A*B
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/bn/
Darmv4-gf2m.S173 vmov d27, r12, r3
179 vmull.p8 q1, d2, d27 @ F = A1*B
180 vext.8 d0, d27, d27, #1 @ B1
183 vmull.p8 q2, d4, d27 @ H = A2*B
184 vext.8 d16, d27, d27, #2 @ B2
188 vmull.p8 q3, d6, d27 @ J = A3*B
189 vext.8 d0, d27, d27, #3 @ B3
194 vext.8 d16, d27, d27, #4 @ B4
208 vmull.p8 q0, d26, d27 @ D = A*B
/third_party/ffmpeg/libavcodec/arm/
Dvp9itxfm_16bpp_neon.S842 butterfly d23, d27, d25, d27 @ d23 = t14, d27 = t13
845 mbutterfly0 d27, d21, d27, d21, d16, d30, q8, q15 @ d27 = t13a, d21 = t10a
848 vswp d27, d29 @ d27 = t12, d29 = t13a
849 vswp d28, d27 @ d28 = t12, d27 = t11
857 butterfly d20, d27, d10, d27 @ d20 = out[4], d27 = out[11]
869 mbutterfly d21, d27, d6[0], d6[1], q4, q5 @ d21 = t10a, d27 = t13a
878 butterfly d17, d27, d19, d27 @ d17 = t12, d27 = t13
883 mbutterfly d27, d21, d1[0], d1[1], q9, q15, neg=1 @ d27 = t13a, d21 = t10a
894 mbutterfly_h1 d21, d27, d6[0], d6[1], q4, q5 @ d21 = t10a, d27 = t13a
903 butterfly d17, d27, d19, d27 @ d17 = t12, d27 = t13
[all …]
Dvp9lpf_neon.S90 vsubl.u8 q6, d21, d27 @ p1 - q1
137 vmovl.u8 q7, d27 @ q1
152 @ p7 = d16 .. p3 = d20, p0 = d23, q0 = d24, q3 = d27, q7 = d31
166 vabd.u8 \tmp2, d26, d27 @ abs(q2 - q3)
195 vabd.u8 \tmp3, d27, d24 @ abs(q3 - q0)
320 vaddl.u8 \tmpq2, d24, d27
326 vaddl.u8 \tmpq4, d25, d27
332 vaddl.u8 \tmpq2, d26, d27
388 vaddl.u8 q5, d20, d27
438 vaddl.u8 q7, d27, d31
[all …]
Dvp9itxfm_neon.S836 vst1.16 {d27}, [r0,:64]!
989 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31
991 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31
1010 vst1.16 {d27}, [r0,:64]!
1049 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31
1051 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31
Dfft_neon.S71 vmul.f32 d27, d19, d29 @ a3r*w,-a3i*w
83 vadd.f32 d25, d25, d27 @ a3r-a3i,a3i+a3r t5,t6
90 vsub.f32 d4, d26, d27
113 vsub.f32 d19, d26, d27
128 vld1.32 {d24-d27}, [r0,:128]! @ q12{r8,i8,r9,i9} q13{r10,i10,r11,i11}
165 vswp d27, d30 @ q13{r10,i10,r14,i14} q15{r11,i11,r15,i15}
191 vadd.f32 d1, d27, d31
192 vsub.f32 d2, d27, d31
200 vst2.32 {d26-d27},[r0,:128], r1
Dvp9lpf_16bpp_neon.S848 vst1.16 {d27}, [r0], r1
871 vld1.16 {d27}, [r0, :64], r1 @ q3
Didctdsp_neon.S29 vld1.16 {d24-d27}, [r0,:128]!
70 vld1.16 {d26-d27}, [r0,:128]!
/third_party/vixl/test/aarch32/
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc397 {{F64, d3, d27, d4},
447 {{F64, d27, d26, d30},
462 {{F64, d27, d30, d22},
467 {{F64, d27, d25, d7},
502 {{F64, d1, d27, d16},
577 {{F64, d29, d27, d24},
622 {{F64, d7, d0, d27},
627 {{F64, d0, d9, d27},
632 {{F64, d7, d11, d27},
882 {{F64, d11, d27, d27},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc397 {{F64, d3, d27, d4},
447 {{F64, d27, d26, d30},
462 {{F64, d27, d30, d22},
467 {{F64, d27, d25, d7},
502 {{F64, d1, d27, d16},
577 {{F64, d29, d27, d24},
622 {{F64, d7, d0, d27},
627 {{F64, d0, d9, d27},
632 {{F64, d7, d11, d27},
882 {{F64, d11, d27, d27},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"},
130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"},
150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"},
175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"},
181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"},
185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"},
197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"},
130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"},
150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"},
175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"},
181 {{F32, d27, d3, d14}, false, al, "F32 d27 d3 d14", "F32_d27_d3_d14"},
185 {{F32, d27, d17, d17}, false, al, "F32 d27 d17 d17", "F32_d27_d17_d17"},
197 {{F32, d27, d11, d10}, false, al, "F32 d27 d11 d10", "F32_d27_d11_d10"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"},
147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"},
151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"},
169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"},
175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"},
147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"},
151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"},
169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"},
175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"},
/third_party/openh264/codec/processing/src/arm/
Dadaptive_quantization.S52 vmull.u8 q12, d27, d27
57 vaddl.u8 q13, d26, d27 //sum
90 vadd.u16 d0, d26, d27 //sum
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/
Dghash-armv4.S381 vldmia r1,{d26,d27} @ load twisted H
387 veor d28,d26,d27 @ Karatsuba pre-processing
399 vldmia r1,{d26,d27} @ load twisted H
405 veor d28,d26,d27 @ Karatsuba pre-processing
490 vext.8 d16, d27, d27, #1 @ A1
493 vmull.p8 q2, d27, d4 @ E = A*B1
494 vext.8 d18, d27, d27, #2 @ A2
497 vmull.p8 q11, d27, d22 @ G = A*B2
498 vext.8 d20, d27, d27, #3 @ A3
503 vmull.p8 q2, d27, d4 @ I = A*B3
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/
Dghash-armv4.S381 vldmia r1,{d26,d27} @ load twisted H
387 veor d28,d26,d27 @ Karatsuba pre-processing
399 vldmia r1,{d26,d27} @ load twisted H
405 veor d28,d26,d27 @ Karatsuba pre-processing
490 vext.8 d16, d27, d27, #1 @ A1
493 vmull.p8 q2, d27, d4 @ E = A*B1
494 vext.8 d18, d27, d27, #2 @ A2
497 vmull.p8 q11, d27, d22 @ G = A*B2
498 vext.8 d20, d27, d27, #3 @ A3
503 vmull.p8 q2, d27, d4 @ I = A*B3
[all …]
/third_party/vixl/test/aarch64/
Dtest-assembler-fp-aarch64.cc445 __ Fmov(d27, kFP64PositiveInfinity); in TEST()
462 __ Fadd(d10, d27, d31); in TEST()
464 __ Fadd(d12, d27, d28); in TEST()
465 __ Fadd(d13, d28, d27); in TEST()
537 __ Fmov(d27, kFP64PositiveInfinity); in TEST()
554 __ Fsub(d10, d31, d27); in TEST()
556 __ Fsub(d12, d27, d27); in TEST()
628 __ Fmov(d27, kFP64PositiveInfinity); in TEST()
645 __ Fmul(d10, d27, d30); in TEST()
647 __ Fmul(d12, d27, d29); in TEST()
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/
Dpoly1305-armv4.S785 vmull.u32 q8,d27,d0[1]
799 vmlal.u32 q9,d27,d1[1]
801 vmlal.u32 q5,d27,d4[1]
810 vmlal.u32 q6,d27,d6[1]
817 vmlal.u32 q7,d27,d8[1]
819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0)
929 vadd.i32 d27,d26,d16
942 vmull.u32 q8,d27,d0
953 vmlal.u32 q9,d27,d1
958 vmlal.u32 q5,d27,d4
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/
Dpoly1305-armv4.S785 vmull.u32 q8,d27,d0[1]
799 vmlal.u32 q9,d27,d1[1]
801 vmlal.u32 q5,d27,d4[1]
810 vmlal.u32 q6,d27,d6[1]
817 vmlal.u32 q7,d27,d8[1]
819 vld4.32 {d21,d23,d25,d27},[r4] @ inp[2:3] (or 0)
929 vadd.i32 d27,d26,d16
942 vmull.u32 q8,d27,d0
953 vmlal.u32 q9,d27,d1
958 vmlal.u32 q5,d27,d4
[all …]
/third_party/openh264/codec/common/arm/
Ddeblocking_neon.S252 DIFF_LUMA_EQ4_P2P1P0 d17, d19, d21, d23, d25, d27, d3, d1
264 DIFF_LUMA_EQ4_P2P1P0 d31, d29, d27, d25, d23, d21, d5, d7
393 vld1.u8 {d27}, [r3], r1
406 vtrn.u32 d27, d31
413 vtrn.u16 d25, d27
422 vtrn.u8 d26, d27
457 DIFF_LUMA_EQ4_P2P1P0 d17, d19, d21, d23, d25, d27, d3, d1
468 DIFF_LUMA_EQ4_P2P1P0 d31, d29, d27, d25, d23, d21, d5, d1
838 BS_MV_CHECK r1, r2, r3, d24, d25, d26, d27//q12, q13 save the mv status
/third_party/skia/third_party/externals/swiftshader/third_party/subzero/src/
DIceRegistersARM32.def99 X(Reg_d27, 27, "d27", 0, 1, 0, 0, 0, 0, 0, 0, 0, 1, 0, REGLIST2(RegARM32, d27, q13)) \
120 X(Reg_q13, 13, "q13", 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 1, REGLIST3(RegARM32, q13, d26, d27)) \
/third_party/node/deps/v8/src/codegen/ppc/
Dreglist-ppc.h56 d26, d27, d28, d29, d30, d31};

1234