Home
last modified time | relevance | path

Searched refs:d28 (Results 1 – 25 of 96) sorted by relevance

1234

/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/bn/
Darmv4-mont.S218 vld1.32 {d28[0]}, [r2,:32]!
630 vmlal.u32 q10,d28,d2[0]
631 vmlal.u32 q11,d28,d2[1]
632 vmlal.u32 q12,d28,d3[0]
633 vmlal.u32 q13,d28,d3[1]
634 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
644 vmlal.u32 q7,d28,d0[0]
646 vmlal.u32 q8,d28,d0[1]
648 vmlal.u32 q9,d28,d1[0]
673 vmlal.u32 q11,d28,d1[1]
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/bn/
Darmv4-mont.S218 vld1.32 {d28[0]}, [r2,:32]!
630 vmlal.u32 q10,d28,d2[0]
631 vmlal.u32 q11,d28,d2[1]
632 vmlal.u32 q12,d28,d3[0]
633 vmlal.u32 q13,d28,d3[1]
634 vld1.32 {d28},[r10,:64]! @ pull smashed b[8*i+1]
644 vmlal.u32 q7,d28,d0[0]
646 vmlal.u32 q8,d28,d0[1]
648 vmlal.u32 q9,d28,d1[0]
673 vmlal.u32 q11,d28,d1[1]
[all …]
/third_party/ffmpeg/libavcodec/arm/
Drv34dsp_neon.S31 vmull.s16 q10, d28, d0
33 vmull.s16 q11, d28, d0
79 vld1.32 {d28[]}, [r0,:32], r1
82 vld1.32 {d28[1]}, [r0,:32], r1
87 vtrn.32 d28, d29
89 vaddw.u8 q0, q8, d28
91 vqmovun.s16 d28, q0
93 vst1.32 {d28[0]}, [r3,:32], r1
94 vst1.32 {d28[1]}, [r3,:32], r1
125 vld1.32 {d28[]}, [r0,:32], r1
[all …]
Dvp6dsp_neon.S31 vadd.i16 d29, d28, d28
33 vadd.i16 d28, d28, d30
35 vadd.i16 d28, d28, d29
37 vrshr.s16 d28, d28, #3
41 vabs.s16 d30, d28
42 vshr.s16 d29, d28, #15
58 vbif d28, d16, d31
64 vsub.i16 d30, d30, d28
Dvp9itxfm_16bpp_neon.S839 butterfly d9, d10, d28, d10 @ d9 = t3a, d10 = t4
840 butterfly d20, d28, d16, d24 @ d20 = t8a, d28 = t11a
846 mbutterfly0 d29, d28, d29, d28, d16, d30, q8, q15 @ d29 = t12, d28 = t11
849 vswp d28, d27 @ d28 = t12, d27 = t11
855 butterfly d19, d28, d9, d28 @ d19 = out[3], d28 = out[12]
864 mbutterfly d20, d28, d1[0], d1[1], q4, q5 @ d20 = t2a, d28 = t3a
872 butterfly d8, d28, d16, d28 @ d8 = t0, d28 = t3
889 mbutterfly_h1 d20, d28, d1[0], d1[1], q4, q5 @ d20 = t2a, d28 = t3a
897 butterfly d8, d28, d16, d28 @ d8 = t0, d28 = t3
927 vrshrn.s64 d28, q11, #14
[all …]
Dvp9itxfm_neon.S825 vst1.16 {d28}, [r0,:64]!
838 vmov d28, d16
938 @ For all-zero slices in pass 1, set d28-d31 to zero, for the in-register
989 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31
991 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31
999 vst1.16 {d28}, [r0,:64]!
1049 @ 16 rows. Afterwards, d16-d19, d20-d23, d24-d27, d28-d31
1051 … q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31
Dhevcdsp_deblock_neon.S70 vmovl.u8 q14, d28
285 vqmovun.s16 d28, q14
300 vld1.8 {d28}, [r0], r1
303 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30
305 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30
312 vst1.8 {d28}, [r0], r1
330 vld1.8 {d28}, [r0], r1
340 vst1.8 {d28}, [r0]
Dfft_neon.S62 vmov d28, r3, r2
66 vrev64.32 d29, d28
69 vmul.f32 d26, d17, d28 @ -a2r*w,a2i*w
130 vld1.32 {d28-d31}, [r0,:128] @ q14{r12,i12,r13,i13} q15{r14,i14,r15,i15}
159 vswp d25, d28 @ q12{r8,i8,r12,i12} q14{r9,i9,r13,i13}
167 vadd.f32 d0, d28, d24
170 vsub.f32 d3, d28, d24
187 vst2.32 {d28-d29},[r0,:128]
Dvp9mc_neon.S226 vmla_lane \dst1d, d28, \offset
345 vld1.8 {d28}, [r0,:64]
347 vrhadd.u8 d2, d2, d28
350 @ We only need d28[0], but [] is faster on some cores
351 vld1.32 {d28[]}, [r0,:32]
353 vrhadd.u8 d2, d2, d28
637 vld1.32 {d28[]}, [r2], r3
647 vext.8 d8, d8, d28, #4
651 vext.8 d28, d28, d30, #4
653 vmovl.u8 q13, d28
Dh264dsp_neon.S192 vabd.u8 d28, d18, d16 @ abs(p1 - p0)
202 vclt.u8 d28, d28, d22 @ < beta
206 vand d26, d26, d28
310 vld1.8 {d28-d29},[r0,:128], r2
312 \macd q12, d0, d28
452 vld1.8 {d28-d29},[r0,:128], r1
453 vmull.u8 q12, d0, d28
Dh264qpel_neon.S192 vld1.8 {d28}, [r3], r2
253 vld1.8 {d28}, [r1], r3
264 lowpass_8 d26, d27, d28, d29, d26, d28
265 transpose_8x8 d8, d10, d12, d14, d22, d24, d26, d28
283 vrhadd.u8 d28, d28, d29
294 vst1.8 {d28}, [r0,:64], r2
329 vld1.8 {d28}, [r1], r3
340 lowpass_8 d26, d27, d28, d29, d26, d27
423 swap4 d17, d19, d21, d31, d24, d26, d28, d22
437 lowpass_8.16 q6, q14, d12, d13, d28, d29, d10
/third_party/openh264/codec/encoder/core/arm/
Dintra_pred_sad_3_opt_neon.S103 GET_8BYTE_DATA_L0 d28, r7, r1
109 vaddl.u8 q1, d28, d29
132 vshll.u8 q0, d28, #2
247 GET_8BYTE_DATA_L0 d28, r4, r1
253 vaddl.u8 q1, d28, d29
336 GET_8BYTE_DATA_L0 d28, r6, r1
492 GET_8BYTE_DATA_L0 d28, r6, r1
508 vshll.u8 q0, d28, #2
538 vmov.i32 d28, #0//Save the SATD of DC_BOTH
549 HDM_TRANSFORM_4X4_L0 d6, d8, d26, d22, d14, d11, d10, d28, d30
[all …]
/third_party/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"},
108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"},
123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"},
127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"},
143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"},
148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"},
161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"},
172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
107 {{F64, d28, d29, d29}, false, al, "F64 d28 d29 d29", "F64_d28_d29_d29"},
108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"},
123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"},
127 {{F64, d29, d3, d28}, false, al, "F64 d29 d3 d28", "F64_d29_d3_d28"},
143 {{F64, d31, d28, d16}, false, al, "F64 d31 d28 d16", "F64_d31_d28_d16"},
148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"},
161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"},
172 {{F32, d8, d28, d1}, false, al, "F32 d8 d28 d1", "F32_d8_d28_d1"},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc392 {{F64, d31, d28, d30},
432 {{F64, d28, d10, d8},
437 {{F64, d8, d28, d11},
477 {{F64, d28, d17, d14},
507 {{F64, d6, d28, d7},
542 {{F64, d28, d15, d11},
597 {{F64, d17, d28, d8},
667 {{F64, d31, d4, d28},
677 {{F64, d28, d14, d1},
752 {{F64, d28, d13, d21},
[all …]
Dtest-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc392 {{F64, d31, d28, d30},
432 {{F64, d28, d10, d8},
437 {{F64, d8, d28, d11},
477 {{F64, d28, d17, d14},
507 {{F64, d6, d28, d7},
542 {{F64, d28, d15, d11},
597 {{F64, d17, d28, d8},
667 {{F64, d31, d4, d28},
677 {{F64, d28, d14, d1},
752 {{F64, d28, d13, d21},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"},
134 {{F32, d14, d29, d28}, false, al, "F32 d14 d29 d28", "F32_d14_d29_d28"},
136 {{F32, d28, d21, d9}, false, al, "F32 d28 d21 d9", "F32_d28_d21_d9"},
139 {{F32, d19, d28, d20}, false, al, "F32 d19 d28 d20", "F32_d19_d28_d20"},
163 {{F32, d3, d19, d28}, false, al, "F32 d3 d19 d28", "F32_d3_d19_d28"},
167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"},
200 {{F32, d26, d28, d30}, false, al, "F32 d26 d28 d30", "F32_d26_d28_d30"},
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"},
134 {{F32, d14, d29, d28}, false, al, "F32 d14 d29 d28", "F32_d14_d29_d28"},
136 {{F32, d28, d21, d9}, false, al, "F32 d28 d21 d9", "F32_d28_d21_d9"},
139 {{F32, d19, d28, d20}, false, al, "F32 d19 d28 d20", "F32_d19_d28_d20"},
163 {{F32, d3, d19, d28}, false, al, "F32 d3 d19 d28", "F32_d3_d19_d28"},
167 {{F32, d18, d28, d11}, false, al, "F32 d18 d28 d11", "F32_d18_d28_d11"},
200 {{F32, d26, d28, d30}, false, al, "F32 d26 d28 d30", "F32_d26_d28_d30"},
/third_party/openh264/codec/processing/src/arm/
Dadaptive_quantization.S59 vaddl.u8 q10, d28, d29 //sum_cur
62 vmull.u8 q8, d28, d28
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/
Dghash-armv4.S387 veor d28,d26,d27 @ Karatsuba pre-processing
405 veor d28,d26,d27 @ Karatsuba pre-processing
453 vext.8 d16, d28, d28, #1 @ A1
456 vmull.p8 q1, d28, d2 @ E = A*B1
457 vext.8 d18, d28, d28, #2 @ A2
460 vmull.p8 q11, d28, d22 @ G = A*B2
461 vext.8 d20, d28, d28, #3 @ A3
466 vmull.p8 q1, d28, d2 @ I = A*B3
472 vmull.p8 q11, d28, d22 @ K = A*B4
483 vmull.p8 q1, d28, d6 @ D = A*B
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/
Dghash-armv4.S387 veor d28,d26,d27 @ Karatsuba pre-processing
405 veor d28,d26,d27 @ Karatsuba pre-processing
453 vext.8 d16, d28, d28, #1 @ A1
456 vmull.p8 q1, d28, d2 @ E = A*B1
457 vext.8 d18, d28, d28, #2 @ A2
460 vmull.p8 q11, d28, d22 @ G = A*B2
461 vext.8 d20, d28, d28, #3 @ A3
466 vmull.p8 q1, d28, d2 @ I = A*B3
472 vmull.p8 q11, d28, d22 @ K = A*B4
483 vmull.p8 q1, d28, d6 @ D = A*B
/third_party/openh264/codec/common/arm/
Ddeblocking_neon.S171 vdup.s8 d28, d31[0]
175 vtrn.32 d28, d30
263 DIFF_LUMA_EQ4_P2P1P0 d30, d28, d26, d24, d22, d20, d4, d6
314 vdup.s8 d28, d31[0]
318 vtrn.32 d28, d30
394 vld1.u8 {d28}, [r3], r1
403 vtrn.u32 d24, d28
414 vtrn.u16 d28, d30
423 vtrn.u8 d28, d29
428 vswp d21, d28
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/
Dpoly1305-armv4.S790 vadd.i32 d28,d28,d18
827 vmlal.u32 q9,d28,d0[0]
833 vmlal.u32 q5,d28,d2[0]
841 vmlal.u32 q6,d28,d4[0]
848 vmlal.u32 q8,d28,d8[0]
850 vmlal.u32 q7,d28,d6[0]
931 vadd.i32 d29,d28,d18
945 vadd.i32 d28,d28,d18
994 vmlal.u32 q9,d28,d0
996 vmlal.u32 q5,d28,d2
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/
Dpoly1305-armv4.S790 vadd.i32 d28,d28,d18
827 vmlal.u32 q9,d28,d0[0]
833 vmlal.u32 q5,d28,d2[0]
841 vmlal.u32 q6,d28,d4[0]
848 vmlal.u32 q8,d28,d8[0]
850 vmlal.u32 q7,d28,d6[0]
931 vadd.i32 d29,d28,d18
945 vadd.i32 d28,d28,d18
994 vmlal.u32 q9,d28,d0
996 vmlal.u32 q5,d28,d2
[all …]
/third_party/vixl/test/aarch64/
Dtest-assembler-fp-aarch64.cc446 __ Fmov(d28, kFP64NegativeInfinity); in TEST()
463 __ Fadd(d11, d28, d31); in TEST()
464 __ Fadd(d12, d27, d28); in TEST()
465 __ Fadd(d13, d28, d27); in TEST()
538 __ Fmov(d28, kFP64NegativeInfinity); in TEST()
555 __ Fsub(d11, d31, d28); in TEST()
557 __ Fsub(d13, d28, d28); in TEST()
629 __ Fmov(d28, kFP64NegativeInfinity); in TEST()
646 __ Fmul(d11, d28, d30); in TEST()
648 __ Fmul(d13, d29, d28); in TEST()
[all …]

1234