/external/llvm/test/CodeGen/AArch64/ |
D | neon-extract.ll | 7 …%vext = shufflevector <8 x i8> %a, <8 x i8> %b, <8 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i32 … 8 ret <8 x i8> %vext 15 %vext = shufflevector <4 x i16> %a, <4 x i16> %b, <4 x i32> <i32 3, i32 4, i32 5, i32 6> 16 ret <4 x i16> %vext 23 %vext = shufflevector <2 x i32> %a, <2 x i32> %b, <2 x i32> <i32 1, i32 2> 24 ret <2 x i32> %vext 30 %vext = shufflevector <1 x i64> %a, <1 x i64> %b, <1 x i32> <i32 0> 31 ret <1 x i64> %vext 38 …%vext = shufflevector <16 x i8> %a, <16 x i8> %b, <16 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6, i… 39 ret <16 x i8> %vext [all …]
|
D | arm64-vext.ll | 15 …%vext = shufflevector <8 x i8> %tmp2, <8 x i8> %tmp3, <8 x i32> <i32 1, i32 2, i32 3, i32 4, i32 5… 16 store <8 x i8> %vext, <8 x i8>* %xS8x8, align 8 32 …%vext = shufflevector <8 x i8> %tmp2, <8 x i8> %tmp3, <8 x i32> <i32 2, i32 3, i32 4, i32 5, i32 6… 33 store <8 x i8> %vext, <8 x i8>* %xU8x8, align 8 49 …%vext = shufflevector <8 x i8> %tmp2, <8 x i8> %tmp3, <8 x i32> <i32 3, i32 4, i32 5, i32 6, i32 7… 50 store <8 x i8> %vext, <8 x i8>* %xP8x8, align 8 70 %vext = shufflevector <4 x i16> %tmp6, <4 x i16> %tmp7, <4 x i32> <i32 1, i32 2, i32 3, i32 4> 71 store <4 x i16> %vext, <4 x i16>* %xS16x4, align 8 91 %vext = shufflevector <4 x i16> %tmp6, <4 x i16> %tmp7, <4 x i32> <i32 2, i32 3, i32 4, i32 5> 92 store <4 x i16> %vext, <4 x i16>* %xU16x4, align 8 [all …]
|
D | arm64-EXT-undef-mask.ll | 7 …%vext = shufflevector <8 x i16> <i16 undef, i16 undef, i16 undef, i16 undef, i16 undef, i16 undef,… 8 ret <8 x i16> %vext 14 …%vext = shufflevector <8 x i16> %in, <8 x i16> <i16 undef, i16 undef, i16 undef, i16 undef, i16 un… 15 ret <8 x i16> %vext 21 …%vext = shufflevector <8 x i8> %in, <8 x i8> <i8 undef, i8 undef, i8 undef, i8 undef, i8 undef, i8… 22 ret <8 x i8> %vext
|
/external/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 3 vext.8 d16, d17, d16, #3 4 vext.8 d16, d17, d16, #5 5 vext.8 q8, q9, q8, #3 6 vext.8 q8, q9, q8, #7 7 vext.16 d16, d17, d16, #3 8 vext.32 q8, q9, q8, #3 9 vext.64 q8, q9, q8, #1 11 vext.8 d17, d16, #3 12 vext.8 d7, d11, #5 13 vext.8 q3, q8, #3 [all …]
|
D | neont2-sub-encoding.s | 3 @ CHECK: vext.8 d16, d17, d16, #3 @ encoding: [0xf1,0xef,0xa0,0x03] 4 vext.8 d16, d17, d16, #3 5 @ CHECK: vext.8 d16, d17, d16, #5 @ encoding: [0xf1,0xef,0xa0,0x05] 6 vext.8 d16, d17, d16, #5 7 @ CHECK: vext.8 q8, q9, q8, #3 @ encoding: [0xf2,0xef,0xe0,0x03] 8 vext.8 q8, q9, q8, #3 9 @ CHECK: vext.8 q8, q9, q8, #7 @ encoding: [0xf2,0xef,0xe0,0x07] 10 vext.8 q8, q9, q8, #7 11 @ CHECK: vext.16 d16, d17, d16, #3 @ encoding: [0xf1,0xef,0xa0,0x06] 12 vext.16 d16, d17, d16, #3 [all …]
|
D | neont2-shuffle-encoding.s | 5 @ CHECK: vext.8 d16, d17, d16, #3 @ encoding: [0xf1,0xef,0xa0,0x03] 6 vext.8 d16, d17, d16, #3 7 @ CHECK: vext.8 d16, d17, d16, #5 @ encoding: [0xf1,0xef,0xa0,0x05] 8 vext.8 d16, d17, d16, #5 9 @ CHECK: vext.8 q8, q9, q8, #3 @ encoding: [0xf2,0xef,0xe0,0x03] 10 vext.8 q8, q9, q8, #3 11 @ CHECK: vext.8 q8, q9, q8, #7 @ encoding: [0xf2,0xef,0xe0,0x07] 12 vext.8 q8, q9, q8, #7 13 @ CHECK: vext.16 d16, d17, d16, #3 @ encoding: [0xf1,0xef,0xa0,0x06] 14 vext.16 d16, d17, d16, #3 [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | sixtappredict8x4_neon.asm | 84 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 85 vext.8 d29, d8, d9, #1 86 vext.8 d30, d10, d11, #1 87 vext.8 d31, d12, d13, #1 94 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 95 vext.8 d29, d8, d9, #4 96 vext.8 d30, d10, d11, #4 97 vext.8 d31, d12, d13, #4 104 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 105 vext.8 d29, d8, d9, #2 [all …]
|
D | sixtappredict8x8_neon.asm | 88 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 89 vext.8 d29, d8, d9, #1 90 vext.8 d30, d10, d11, #1 91 vext.8 d31, d12, d13, #1 98 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 99 vext.8 d29, d8, d9, #4 100 vext.8 d30, d10, d11, #4 101 vext.8 d31, d12, d13, #4 108 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 109 vext.8 d29, d8, d9, #2 [all …]
|
D | sixtappredict16x16_neon.asm | 96 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 97 vext.8 d29, d9, d10, #1 98 vext.8 d30, d12, d13, #1 104 vext.8 d28, d7, d8, #1 105 vext.8 d29, d10, d11, #1 106 vext.8 d30, d13, d14, #1 112 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 113 vext.8 d29, d9, d10, #4 114 vext.8 d30, d12, d13, #4 120 vext.8 d28, d7, d8, #4 [all …]
|
D | vp8_subpixelvariance16x16_neon.asm | 79 vext.8 d2, d2, d3, #1 ;construct src_ptr[1] 80 vext.8 d5, d5, d6, #1 81 vext.8 d8, d8, d9, #1 82 vext.8 d11, d11, d12, #1 89 vext.8 d3, d3, d4, #1 90 vext.8 d6, d6, d7, #1 91 vext.8 d9, d9, d10, #1 92 vext.8 d12, d12, d13, #1 130 vext.8 d2, d2, d3, #1 ;construct src_ptr[1] 131 vext.8 d5, d5, d6, #1 [all …]
|
D | sixtappredict4x4_neon.asm | 75 vext.8 d18, d6, d7, #5 ;construct src_ptr[3] 76 vext.8 d19, d8, d9, #5 77 vext.8 d20, d10, d11, #5 78 vext.8 d21, d12, d13, #5 139 vext.8 d18, d6, d7, #5 ;construct src_ptr[3] 140 vext.8 d19, d8, d9, #5 141 vext.8 d20, d10, d11, #5 142 vext.8 d21, d12, d13, #5 149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] [all …]
|
D | vp8_subpixelvariance16x16s_neon.asm | 55 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] 56 vext.8 q3, q2, q3, #1 57 vext.8 q5, q4, q5, #1 58 vext.8 q7, q6, q7, #1 235 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] 254 vext.8 q3, q2, q3, #1 ;construct src_ptr[1] 255 vext.8 q5, q4, q5, #1 256 vext.8 q7, q6, q7, #1 257 vext.8 q9, q8, q9, #1 365 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] [all …]
|
D | vp8_subpixelvariance8x8_neon.asm | 54 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1] 55 vext.8 d5, d4, d5, #1 56 vext.8 d7, d6, d7, #1 57 vext.8 d9, d8, d9, #1 82 vext.8 d3, d2, d3, #1 ;construct src_ptr[-1] 83 vext.8 d5, d4, d5, #1 84 vext.8 d7, d6, d7, #1 85 vext.8 d9, d8, d9, #1 86 vext.8 d11, d10, d11, #1
|
/external/openssl/crypto/modes/asm/ |
D | ghashv8-armx.S | 12 vext.8 q3,q9,q9,#8 15 vext.8 q8,q10,q8,#8 @ t0=0xc2....01 21 vext.8 q11,q11,q11,#8 41 vext.8 q13,q12,q12,#8 43 vext.8 q3,q9,q9,#8 60 vext.8 q0,q0,q0,#8 63 vext.8 q13,q12,q12,#8 69 vext.8 q3,q9,q9,#8 74 vext.8 q10,q0,q0,#8 86 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing [all …]
|
D | ghash-armv4.S | 374 vext.8 d16, d26, d26, #1 @ A1 376 vext.8 d0, d6, d6, #1 @ B1 378 vext.8 d18, d26, d26, #2 @ A2 380 vext.8 d22, d6, d6, #2 @ B2 382 vext.8 d20, d26, d26, #3 @ A3 385 vext.8 d0, d6, d6, #3 @ B3 390 vext.8 d22, d6, d6, #4 @ B4 399 vext.8 q8, q8, q8, #15 402 vext.8 q9, q9, q9, #14 405 vext.8 q11, q11, q11, #12 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 82 vext.8 d5, d22, d23, #3 84 vext.8 d6, d22, d23, #6 86 vext.8 d7, d23, d23, #1 144 vext.8 d5, d22, d23, #3 146 vext.8 d17, d20, d21, #3 148 vext.8 d6, d22, d23, #6 150 vext.8 d18, d20, d21, #6 152 vext.8 d7, d23, d23, #1 157 vext.8 d19, d21, d21, #1 220 vext.8 d5, d22, d23, #3 [all …]
|
/external/chromium_org/third_party/boringssl/linux-arm/crypto/modes/ |
D | ghash-armv4.S | 382 vext.8 d16, d26, d26, #1 @ A1 384 vext.8 d0, d6, d6, #1 @ B1 386 vext.8 d18, d26, d26, #2 @ A2 388 vext.8 d22, d6, d6, #2 @ B2 390 vext.8 d20, d26, d26, #3 @ A3 393 vext.8 d0, d6, d6, #3 @ B3 398 vext.8 d22, d6, d6, #4 @ B4 407 vext.8 q8, q8, q8, #15 410 vext.8 q9, q9, q9, #14 413 vext.8 q11, q11, q11, #12 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_luma_horz_w16out.s | 212 @vext.u8 d2,d0,d1,#2 @vector extract of src[0_2] 213 @vext.u8 d3,d0,d1,#3 @vector extract of src[0_3] 214 @vext.u8 d4,d0,d1,#4 @vector extract of src[0_4] 216 @vext.u8 d5,d0,d1,#5 @vector extract of src[0_5] 217 @vext.u8 d6,d0,d1,#6 @vector extract of src[0_6] 218 @vext.u8 d7,d0,d1,#7 @vector extract of src[0_7] 219 @vext.u8 d1,d0,d1,#1 @vector extract of src[0_1] 236 @ vext.u8 d14,d12,d13,#2 @vector extract of src[0_2] 237 @ vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 238 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] [all …]
|
D | ihevc_inter_pred_filters_luma_horz.s | 200 @ vext.u8 d2,d0,d1,#2 @vector extract of src[0_2] 201 @ vext.u8 d3,d0,d1,#3 @vector extract of src[0_3] 202 @ vext.u8 d4,d0,d1,#4 @vector extract of src[0_4] 203 @ vext.u8 d5,d0,d1,#5 @vector extract of src[0_5] 204 @ vext.u8 d6,d0,d1,#6 @vector extract of src [0_6] 205 @ vext.u8 d7,d0,d1,#7 @vector extract of src[0_7] 206 @ vext.u8 d1,d0,d1,#1 @vector extract of src[0_1] 207 @ vext.u8 d14,d12,d13,#2 209 @vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | domain-conv-vmovs.ll | 8 ; CHECK: vext.32 d1, d1, d0, #1 9 ; CHECK: vext.32 d1, d1, d1, #1 20 ; CHECK: vext.32 d1, d1, d1, #1 21 ; CHECK: vext.32 d1, d1, d0, #1 32 ; CHECK: vext.32 d1, d1, d1, #1 33 ; CHECK: vext.32 d1, d0, d1, #1 44 ; CHECK: vext.32 d1, d0, d1, #1 45 ; CHECK: vext.32 d1, d1, d1, #1 82 ; CHECK: vext.32 83 ; CHECK: vext.32
|
D | vext.ll | 5 ;CHECK: vext 14 ;CHECK: vext 23 ;CHECK: vext 32 ;CHECK: vext 41 ;CHECK: vext 50 ;CHECK: vext 61 ;CHECK: vext 70 ;CHECK: vext 79 ;CHECK: vext 87 ;CHECK: vext [all …]
|
D | deps-fix.ll | 8 ; CHECK: vext 9 ; CHECK: vext
|
/external/openssl/crypto/bn/asm/ |
D | armv4-gf2m.S | 105 vext.8 d2, d26, d26, #1 @ A1 107 vext.8 d0, d27, d27, #1 @ B1 109 vext.8 d4, d26, d26, #2 @ A2 111 vext.8 d16, d27, d27, #2 @ B2 113 vext.8 d6, d26, d26, #3 @ A3 116 vext.8 d0, d27, d27, #3 @ B3 121 vext.8 d16, d27, d27, #4 @ B4 130 vext.8 q1, q1, q1, #15 133 vext.8 q2, q2, q2, #14 136 vext.8 q8, q8, q8, #12 [all …]
|
/external/chromium_org/third_party/boringssl/src/crypto/chacha/ |
D | chacha_vec_arm.S | 294 vext.32 q5, q5, q5, #1 297 vext.32 q0, q0, q0, #1 302 vext.32 q3, q3, q3, #3 305 vext.32 q14, q14, q14, #3 312 vext.32 q1, q1, q1, #2 315 vext.32 q15, q15, q15, #2 414 vext.32 q1, q1, q1, #2 430 vext.32 q5, q5, q5, #1 433 vext.32 q15, q15, q15, #2 434 vext.32 q8, q8, q8, #1 [all …]
|
/external/openssl/crypto/aes/asm/ |
D | aesv8-armx.S | 34 vext.8 q9,q0,q3,#12 40 vext.8 q9,q0,q9,#12 42 vext.8 q9,q0,q9,#12 53 vext.8 q9,q0,q3,#12 58 vext.8 q9,q0,q9,#12 60 vext.8 q9,q0,q9,#12 68 vext.8 q9,q0,q3,#12 73 vext.8 q9,q0,q9,#12 75 vext.8 q9,q0,q9,#12 95 vext.8 q9,q0,q3,#12 [all …]
|