/external/llvm-project/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
D | mve-integer.s | 56 # CHECK: vmul.i16 q6, q0, q3 @ encoding: [0x10,0xef,0x56,0xc9] 57 vmul.i16 q6, q0, q3 59 # CHECK: vmul.i32 q7, q3, q6 @ encoding: [0x26,0xef,0x5c,0xe9] 60 vmul.i32 q7, q3, q6 74 # CHECK: vqdmulh.s16 q6, q4, q0 @ encoding: [0x18,0xef,0x40,0xcb] 75 vqdmulh.s16 q6, q4, q0 77 # CHECK: vqdmulh.s32 q5, q0, q6 @ encoding: [0x20,0xef,0x4c,0xab] 78 vqdmulh.s32 q5, q0, q6 83 # CHECK: vsub.i16 q0, q3, q6 @ encoding: [0x16,0xff,0x4c,0x08] 84 vsub.i16 q0, q3, q6 [all …]
|
D | mve-interleave.s | 17 # CHECK: vld20.8 {q5, q6}, [r0]! @ encoding: [0xb0,0xfc,0x00,0xbe] 18 vld20.8 {q5, q6}, [r0]! 35 # CHECK: vld20.16 {q5, q6}, [r0]! @ encoding: [0xb0,0xfc,0x80,0xbe] 36 vld20.16 {q5, q6}, [r0]! 53 # CHECK: vld20.32 {q5, q6}, [r0]! @ encoding: [0xb0,0xfc,0x00,0xbf] 54 vld20.32 {q5, q6}, [r0]! 71 # CHECK: vst20.8 {q5, q6}, [r0]! @ encoding: [0xa0,0xfc,0x00,0xbe] 72 vst20.8 {q5, q6}, [r0]! 89 # CHECK: vst20.16 {q5, q6}, [r0]! @ encoding: [0xa0,0xfc,0x80,0xbe] 90 vst20.16 {q5, q6}, [r0]! [all …]
|
D | mve-qdest-qsrc.s | 27 # CHECK: vqdmladhx.s8 q1, q6, q6 @ encoding: [0x0c,0xee,0x0c,0x3e] 28 # CHECK-NOFP: vqdmladhx.s8 q1, q6, q6 @ encoding: [0x0c,0xee,0x0c,0x3e] 29 vqdmladhx.s8 q1, q6, q6 71 # CHECK: vqrdmladh.s8 q0, q6, q2 @ encoding: [0x0c,0xee,0x05,0x0e] 72 # CHECK-NOFP: vqrdmladh.s8 q0, q6, q2 @ encoding: [0x0c,0xee,0x05,0x0e] 73 vqrdmladh.s8 q0, q6, q2 91 # CHECK: vqdmlsdhx.s32 q3, q4, q6 @ encoding: [0x28,0xfe,0x0c,0x7e] 92 # CHECK-NOFP: vqdmlsdhx.s32 q3, q4, q6 @ encoding: [0x28,0xfe,0x0c,0x7e] 93 vqdmlsdhx.s32 q3, q4, q6 95 # CHECK: vqdmlsdh.s8 q0, q3, q6 @ encoding: [0x06,0xfe,0x0c,0x0e] [all …]
|
D | mve-shifts.s | 14 # CHECK: vmovlb.s8 q0, q6 @ encoding: [0xa8,0xee,0x4c,0x0f] 15 # CHECK-NOFP: vmovlb.s8 q0, q6 @ encoding: [0xa8,0xee,0x4c,0x0f] 16 vmovlb.s8 q0, q6 183 # CHECK: vqshrunb.s32 q0, q6, #4 @ encoding: [0x9c,0xee,0xcc,0x0f] 184 # CHECK-NOFP: vqshrunb.s32 q0, q6, #4 @ encoding: [0x9c,0xee,0xcc,0x0f] 185 vqshrunb.s32 q0, q6, #4 195 vqshrunb.s32 q0, q6, #17 219 # CHECK: vqshrnb.s16 q0, q6, #5 @ encoding: [0x8b,0xee,0x4c,0x0f] 220 # CHECK-NOFP: vqshrnb.s16 q0, q6, #5 @ encoding: [0x8b,0xee,0x4c,0x0f] 221 vqshrnb.s16 q0, q6, #5 [all …]
|
D | neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1] 87 vrsra.u8 q5, q6, #8 88 vrsra.u16 q6, q7, #16 [all …]
|
D | neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3] 84 vrsra.u8 q5, q6, #8 85 vrsra.u16 q6, q7, #16 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
D | neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3] 84 vrsra.u8 q5, q6, #8 85 vrsra.u16 q6, q7, #16 [all …]
|
D | neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1] 87 vrsra.u8 q5, q6, #8 88 vrsra.u16 q6, q7, #16 [all …]
|
/external/llvm-project/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-shuffle-encoding.s.cs | 47 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 48 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 49 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 50 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 51 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 52 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 53 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 54 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 55 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6 56 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6 [all …]
|
D | neont2-shiftaccum-encoding.s.cs | 7 0x90,0xef,0x5c,0x61 = vsra.s16 q3, q6, #16 16 0xab,0xff,0x5c,0x61 = vsra.u32 q3, q6, #21 23 0x90,0xef,0x5c,0xc1 = vsra.s16 q6, q6, #16 32 0xab,0xff,0x5c,0xc1 = vsra.u32 q6, q6, #21 46 0x88,0xff,0x5c,0xa3 = vrsra.u8 q5, q6, #8 47 0x90,0xff,0x5e,0xc3 = vrsra.u16 q6, q7, #16 62 0x88,0xff,0x5c,0xc3 = vrsra.u8 q6, q6, #8 81 0xc0,0xff,0xdc,0x24 = vsri.64 q9, q6, #64 97 0x80,0xff,0xdc,0xc4 = vsri.64 q6, q6, #64
|
D | neon-shiftaccum-encoding.s.cs | 7 0x5c,0x61,0x90,0xf2 = vsra.s16 q3, q6, #16 16 0x5c,0x61,0xab,0xf3 = vsra.u32 q3, q6, #21 23 0x5c,0xc1,0x90,0xf2 = vsra.s16 q6, q6, #16 32 0x5c,0xc1,0xab,0xf3 = vsra.u32 q6, q6, #21 46 0x5c,0xa3,0x88,0xf3 = vrsra.u8 q5, q6, #8 47 0x5e,0xc3,0x90,0xf3 = vrsra.u16 q6, q7, #16 62 0x5c,0xc3,0x88,0xf3 = vrsra.u8 q6, q6, #8 81 0xdc,0x24,0xc0,0xf3 = vsri.64 q9, q6, #64 97 0xdc,0xc4,0x80,0xf3 = vsri.64 q6, q6, #64
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 238 vaddl.u8 q6, d0, d2 243 vqrshrun.s16 d10, q6, #1 245 vadd.u16 q11, q6, q8 258 vext.8 q15, q6, q6, #5 260 vext.8 q15, q6, q6, #15 262 vext.8 q15, q6, q6, #2 265 vext.8 q15, q6, q6, #4 287 vext.8 q15, q6, q6, #3 289 vext.8 q15, q6, q6, #1 291 vext.8 q15, q6, q6, #4 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 40 vpush {q4,q5,q6,q7} 110 vshr.u64 q6,q6,#3 118 vand q6,q6,q2 142 vadd.i64 q6,q6,q12 144 vadd.i64 q14,q6,q1 155 vsub.i64 q6,q6,q12 176 vshl.i64 q6,q13,#4 179 vadd.i64 q4,q4,q6 180 vadd.i64 q6,q10,q0 182 vadd.i64 q8,q6,q1 [all …]
|
/external/rust/crates/quiche/deps/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 40 vpush {q4,q5,q6,q7} 110 vshr.u64 q6,q6,#3 118 vand q6,q6,q2 142 vadd.i64 q6,q6,q12 144 vadd.i64 q14,q6,q1 155 vsub.i64 q6,q6,q12 176 vshl.i64 q6,q13,#4 179 vadd.i64 q4,q4,q6 180 vadd.i64 q6,q10,q0 182 vadd.i64 q8,q6,q1 [all …]
|
/external/rust/crates/ring/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 42 vpush {q4,q5,q6,q7} 112 vshr.u64 q6,q6,#3 120 vand q6,q6,q2 144 vadd.i64 q6,q6,q12 146 vadd.i64 q14,q6,q1 157 vsub.i64 q6,q6,q12 178 vshl.i64 q6,q13,#4 181 vadd.i64 q4,q4,q6 182 vadd.i64 q6,q10,q0 184 vadd.i64 q8,q6,q1 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_planar.s | 183 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1] 185 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col] 187 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] 189 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row] 205 vadd.i16 q6, q6, q8 @add (nt) 207 vshl.s16 q6, q6, q7 @shr 222 vmovn.i16 d12, q6 250 vmull.u8 q6, d18, d0 @(row+1) * src[nt-1] 252 vmlal.u8 q6, d19, d10 @(nt-1-row) * src[2nt+1+col] 255 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 195 vmull.s16 q6,d3,d23 197 vmlal.s16 q6,d2,d22 199 vmlal.s16 q6,d4,d24 200 vmlal.s16 q6,d5,d25 201 vmlal.s16 q6,d6,d26 202 vmlal.s16 q6,d7,d27 203 vmlal.s16 q6,d16,d28 204 vmlal.s16 q6,d17,d29 225 vsub.s32 q6, q6, q15 251 vshrn.s32 d12, q6, #6 [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 185 vmull.s16 q6,d3,d23 187 vmlal.s16 q6,d2,d22 189 vmlal.s16 q6,d4,d24 190 vmlal.s16 q6,d5,d25 191 vmlal.s16 q6,d6,d26 192 vmlal.s16 q6,d7,d27 193 vmlal.s16 q6,d16,d28 194 vmlal.s16 q6,d17,d29 214 vqshrn.s32 d12, q6, #6 238 vqrshrun.s16 d12,q6,#6 [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | vp8_loopfilter_neon.c | 23 uint8x16_t q6, // p0 in vp8_loop_filter_neon() argument 40 q13u8 = vabdq_u8(q5, q6); in vp8_loop_filter_neon() 50 q9 = vabdq_u8(q6, q7); in vp8_loop_filter_neon() 67 q6 = veorq_u8(q6, q10); in vp8_loop_filter_neon() 76 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon() 78 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon() 110 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8); in vp8_loop_filter_neon() 132 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_loop_filter_horizontal_edge_y_neon() local 145 q6 = vld1q_u8(src); in vp8_loop_filter_horizontal_edge_y_neon() 155 vp8_loop_filter_neon(qblimit, qlimit, qthresh, q3, q4, q5, q6, q7, q8, q9, in vp8_loop_filter_horizontal_edge_y_neon() [all …]
|
D | mbloopfilter_neon.c | 22 uint8x16_t q6, // p0 in vp8_mbloop_filter_neon() argument 42 q13u8 = vabdq_u8(q5, q6); in vp8_mbloop_filter_neon() 52 q12u8 = vabdq_u8(q6, q7); in vp8_mbloop_filter_neon() 70 q6 = veorq_u8(q6, q0u8); in vp8_mbloop_filter_neon() 81 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon() 83 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon() 111 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8); in vp8_mbloop_filter_neon() 160 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_mbloop_filter_horizontal_edge_y_neon() local 174 q6 = vld1q_u8(src); in vp8_mbloop_filter_horizontal_edge_y_neon() 184 vp8_mbloop_filter_neon(qblimit, qlimit, qthresh, q3, q4, q5, q6, q7, q8, q9, in vp8_mbloop_filter_horizontal_edge_y_neon() [all …]
|
/external/XNNPACK/src/f32-gemm/gen/ |
D | 4x8-minmax-aarch32-neon-cortex-a75.S | 120 VMLA.F32 q8, q6, d0[1] 121 VMLA.F32 q10, q6, d1[1] 123 VMLA.F32 q12, q6, d2[1] 124 VMLA.F32 q14, q6, d3[1] 143 VMLA.F32 q8, q6, d4[1] 145 VMLA.F32 q10, q6, d5[1] 146 VMLA.F32 q12, q6, d6[1] 147 VMLA.F32 q14, q6, d7[1] 170 VMLA.F32 q8, q6, d0[1] 171 VMLA.F32 q10, q6, d1[1] [all …]
|