/external/capstone/suite/MC/ARM/ |
D | neon-shift-encoding.s.cs | 2 0xa1,0x04,0x40,0xf3 = vshl.u8 d16, d17, d16 3 0xa1,0x04,0x50,0xf3 = vshl.u16 d16, d17, d16 4 0xa1,0x04,0x60,0xf3 = vshl.u32 d16, d17, d16 5 0xa1,0x04,0x70,0xf3 = vshl.u64 d16, d17, d16 6 0x30,0x05,0xcf,0xf2 = vshl.i8 d16, d16, #7 7 0x30,0x05,0xdf,0xf2 = vshl.i16 d16, d16, #15 8 0x30,0x05,0xff,0xf2 = vshl.i32 d16, d16, #31 9 0xb0,0x05,0xff,0xf2 = vshl.i64 d16, d16, #63 10 0xe2,0x04,0x40,0xf3 = vshl.u8 q8, q9, q8 11 0xe2,0x04,0x50,0xf3 = vshl.u16 q8, q9, q8 [all …]
|
D | neont2-shift-encoding.s.cs | 2 0x40,0xff,0xa1,0x04 = vshl.u8 d16, d17, d16 3 0x50,0xff,0xa1,0x04 = vshl.u16 d16, d17, d16 4 0x60,0xff,0xa1,0x04 = vshl.u32 d16, d17, d16 5 0x70,0xff,0xa1,0x04 = vshl.u64 d16, d17, d16 6 0xcf,0xef,0x30,0x05 = vshl.i8 d16, d16, #7 7 0xdf,0xef,0x30,0x05 = vshl.i16 d16, d16, #15 8 0xff,0xef,0x30,0x05 = vshl.i32 d16, d16, #31 9 0xff,0xef,0xb0,0x05 = vshl.i64 d16, d16, #63 10 0x40,0xff,0xe2,0x04 = vshl.u8 q8, q9, q8 11 0x50,0xff,0xe2,0x04 = vshl.u16 q8, q9, q8 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-shift-encoding.s | 4 vshl.u8 d16, d17, d16 5 vshl.u16 d16, d17, d16 6 vshl.u32 d16, d17, d16 7 vshl.u64 d16, d17, d16 8 vshl.i8 d16, d16, #7 9 vshl.i16 d16, d16, #15 10 vshl.i32 d16, d16, #31 11 vshl.i64 d16, d16, #63 12 vshl.u8 q8, q9, q8 13 vshl.u16 q8, q9, q8 [all …]
|
D | neont2-shift-encoding.s | 5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04] 6 vshl.u8 d16, d17, d16 7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04] 8 vshl.u16 d16, d17, d16 9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04] 10 vshl.u32 d16, d17, d16 11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04] 12 vshl.u64 d16, d17, d16 13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05] 14 vshl.i8 d16, d16, #7 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | neon-shift-encoding.s | 4 vshl.u8 d16, d17, d16 5 vshl.u16 d16, d17, d16 6 vshl.u32 d16, d17, d16 7 vshl.u64 d16, d17, d16 8 vshl.i8 d16, d16, #7 9 vshl.i16 d16, d16, #15 10 vshl.i32 d16, d16, #31 11 vshl.i64 d16, d16, #63 12 vshl.u8 q8, q9, q8 13 vshl.u16 q8, q9, q8 [all …]
|
D | neont2-shift-encoding.s | 5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04] 6 vshl.u8 d16, d17, d16 7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04] 8 vshl.u16 d16, d17, d16 9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04] 10 vshl.u32 d16, d17, d16 11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04] 12 vshl.u64 d16, d17, d16 13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05] 14 vshl.i8 d16, d16, #7 [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-shift-encoding.s | 5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04] 6 vshl.u8 d16, d17, d16 7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04] 8 vshl.u16 d16, d17, d16 9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04] 10 vshl.u32 d16, d17, d16 11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04] 12 vshl.u64 d16, d17, d16 13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05] 14 vshl.i8 d16, d16, #7 [all …]
|
D | neon-shift-encoding.s | 4 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0xa1,0x04,0x40,0xf3] 5 vshl.u8 d16, d17, d16 6 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0xa1,0x04,0x50,0xf3] 7 vshl.u16 d16, d17, d16 8 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0xa1,0x04,0x60,0xf3] 9 vshl.u32 d16, d17, d16 10 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0xa1,0x04,0x70,0xf3] 11 vshl.u64 d16, d17, d16 12 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0x30,0x05,0xcf,0xf2] 13 vshl.i8 d16, d16, #7 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_copy_w16out.s | 144 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6) 151 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 154 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6) 158 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6) 186 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6) 193 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 225 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6) 226 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6) 227 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6) 228 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6) [all …]
|
D | ihevc_inter_pred_luma_copy_w16out.s | 112 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6) 119 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 122 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6) 126 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6) 163 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6) 164 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6) 165 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6) 166 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6) 204 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6) 207 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6) [all …]
|
D | ihevc_intra_pred_chroma_mode2.s | 259 vshl.i64 d0,d12,#32 261 vshl.i64 d1,d13,#32 265 vshl.i64 d2,d14,#32 268 vshl.i64 d3,d15,#32 274 vshl.i64 d4,d16,#32 276 vshl.i64 d5,d17,#32 284 vshl.i64 d6,d18,#32 287 vshl.i64 d7,d19,#32
|
D | ihevc_intra_pred_luma_planar.s | 215 vshl.s16 q6, q6, q7 @(1)shr 232 vshl.s16 q15, q15, q7 @(2)shr 249 vshl.s16 q14, q14, q7 @(3)shr 266 vshl.s16 q5, q5, q7 @(4)shr 282 vshl.s16 q8, q8, q7 @(5)shr 299 vshl.s16 q9, q9, q7 @(6)shr 315 vshl.s16 q13, q13, q7 @(7)shr 349 vshl.s16 q12, q12, q7 @(8)shr 381 vshl.s16 q6, q6, q7 @(1)shr 401 vshl.s16 q15, q15, q7 @(2)shr [all …]
|
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/ |
D | cmp-vec.ll | 194 ; ASM: vshl.u32 q0, q0, #31 195 ; ASM-NEXT: vshl.u32 q1, q1, #31 200 ; IASM-NOT: vshl 217 ; ASM: vshl.u32 q0, q0, #31 218 ; ASM-NEXT: vshl.u32 q1, q1, #31 225 ; IASM-NOT: vshl 243 ; ASM: vshl.u32 q0, q0, #31 244 ; ASM-NEXT: vshl.u32 q1, q1, #31 249 ; IASM-NOT: vshl 266 ; ASM: vshl.u32 q0, q0, #31 [all …]
|
D | vec-sh-imm.ll | 1 ; Show that we know how to translate vshl and vshr with immediate shift amounts. 33 ; ASM: vshl.u32 {{.*}}, #31 37 ; IASM-NOT: vshl 49 ; ASM: vshl.u16 {{.*}}, #15 53 ; IASM-NOT: vshl 65 ; ASM: vshl.u8 {{.*}}, #7 69 ; IASM-NOT: vshl
|
D | select-vec.ll | 31 ; ASM: vshl.u32 [[M:.*]], {{.*}}, #31 37 ; IASM-NOT: vshl 52 ; ASM: vshl.u32 [[M:.*]], {{.*}}, #31 58 ; IASM-NOT: vshl 73 ; ASM: vshl.u16 [[M:.*]], {{.*}}, #15 79 ; IASM-NOT: vshl 95 ; ASM: vshl.u8 [[M:.*]], {{.*}}, #7 101 ; IASM-NOT: vshl
|
D | lsl.ll | 70 ; ASM: vshl.u32 q0, q0, q1 72 ; IASM-NOT: vshl 84 ; ASM: vshl.u16 q0, q0, q1 86 ; IASM-NOT: vshl 98 ; ASM: vshl.u8 q0, q0, q1 100 ; IASM-NOT: vshl
|
D | asr.ll | 77 ; ASM-NEXT: vshl.s32 q0, q0, q1 81 ; IASM-NOT: vshl 94 ; ASM-NEXT: vshl.s16 q0, q0, q1 98 ; IASM-NOT: vshl 111 ; ASM-NEXT: vshl.s8 q0, q0, q1 115 ; IASM-NOT: vshl
|
D | lsr.ll | 71 ; ASM-NEXT: vshl.u32 q0, q0, q1 75 ; IASM-NOT: vshl 88 ; ASM-NEXT: vshl.u16 q0, q0, q1 92 ; IASM-NOT: vshl 105 ; ASM-NEXT: vshl.u8 q0, q0, q1 109 ; IASM-NOT: vshl
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vshift.ll | 5 ;CHECK: vshl.u8 14 ;CHECK: vshl.u16 23 ;CHECK: vshl.u32 32 ;CHECK: vshl.u64 41 ;CHECK: vshl.i8 49 ;CHECK: vshl.i16 57 ;CHECK: vshl.i32 65 ;CHECK: vshl.i64 73 ;CHECK: vshl.u8 82 ;CHECK: vshl.u16 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vshift.ll | 5 ;CHECK: vshl.u8 14 ;CHECK: vshl.u16 23 ;CHECK: vshl.u32 32 ;CHECK: vshl.u64 41 ;CHECK: vshl.i8 49 ;CHECK: vshl.i16 57 ;CHECK: vshl.i32 65 ;CHECK: vshl.i64 73 ;CHECK: vshl.u8 82 ;CHECK: vshl.u16 [all …]
|
D | neon_vshl_minint.ll | 8 ; CHECK: vshl.u64 9 …%vshl.i = tail call <1 x i64> @llvm.arm.neon.vshiftu.v1i64(<1 x i64> undef, <1 x i64> <i64 -922337… 10 ret <1 x i64> %vshl.i
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | vshift.ll | 5 ;CHECK: vshl.u8 14 ;CHECK: vshl.u16 23 ;CHECK: vshl.u32 32 ;CHECK: vshl.u64 41 ;CHECK: vshl.i8 49 ;CHECK: vshl.i16 57 ;CHECK: vshl.i32 65 ;CHECK: vshl.i64 73 ;CHECK: vshl.u8 82 ;CHECK: vshl.u16 [all …]
|
D | neon_vshl_minint.ll | 8 ; CHECK: vshl.u64 9 …%vshl.i = tail call <1 x i64> @llvm.arm.neon.vshiftu.v1i64(<1 x i64> undef, <1 x i64> <i64 -922337… 10 ret <1 x i64> %vshl.i
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 133 vshl.i64 q12,q12,#26 136 vshl.i64 q13,q13,#26 143 vshl.i64 q12,q12,#25 148 vshl.i64 q13,q13,#25 151 vshl.i64 q12,q12,#26 158 vshl.i64 q13,q13,#26 161 vshl.i64 q12,q12,#25 171 vshl.i64 q12,q12,#26 176 vshl.i64 q6,q13,#4 181 vshl.i64 q0,q0,#25 [all …]
|
/external/libavc/common/arm/ |
D | ih264_resi_trans_quant_a9.s | 148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft) 149 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft) 169 vshl.s16 d22, d20, #1 @U_SHIFT(x2,1,shft) 170 vshl.s16 d23, d21, #1 @U_SHIFT(x3,1,shft) 202 vshl.s32 q11, q4, q10 @Shift row 1 203 vshl.s32 q12, q5, q10 @Shift row 2 204 vshl.s32 q13, q6, q10 @Shift row 3 205 vshl.s32 q14, q7, q10 @Shift row 4 343 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft) 344 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft) [all …]
|