/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] [all …]
|
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 15 vsra.u32 d12, d15, #22 25 vsra.s32 d12, #32 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1] 145 vsli.8 d11, d12, #7 146 vsli.16 d12, d13, #15 154 vsri.16 d26, d12, #16 163 vsli.8 d12, #7 [all …]
|
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 13 vsra.u32 d12, d15, #22 23 vsra.s32 d12, #32 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2] 142 vsli.8 d11, d12, #7 143 vsli.16 d12, d13, #15 151 vsri.16 d26, d12, #16 160 vsli.8 d12, #7 [all …]
|
D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 17 vpaddl.s32 d9, d12 30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92] 46 vpadal.u16 d12, d6 59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6] 71 vpmin.s32 d18, d27, d12 79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/llvm/test/MC/ARM/ |
D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] [all …]
|
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 15 vsra.u32 d12, d15, #22 25 vsra.s32 d12, #32 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1] 145 vsli.8 d11, d12, #7 146 vsli.16 d12, d13, #15 154 vsri.16 d26, d12, #16 163 vsli.8 d12, #7 [all …]
|
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 13 vsra.u32 d12, d15, #22 23 vsra.s32 d12, #32 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2] 142 vsli.8 d11, d12, #7 143 vsli.16 d12, d13, #15 151 vsri.16 d26, d12, #16 160 vsli.8 d12, #7 [all …]
|
D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 17 vpaddl.s32 d9, d12 30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92] 46 vpadal.u16 d12, d6 59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6] 71 vpmin.s32 d18, d27, d12 79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 246 vld1.16 d12,[r0],r6 269 vmlal.s16 q10,d12,d1[0] 271 vmlal.s16 q11,d12,d3[0] 273 vmlal.s16 q8,d12,d5[0] 275 vmlal.s16 q9,d12,d7[0] 318 vld1.16 d12,[r0],r6 343 vmlal.s16 q10,d12,d3[0] 345 vmlsl.s16 q11,d12,d7[0] 347 vmlsl.s16 q8,d12,d1[0] 349 vmlsl.s16 q9,d12,d5[0] [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-shiftaccum-encoding.s.cs | 4 0x1c,0xd1,0xa0,0xf2 = vsra.s32 d13, d12, #32 12 0x1f,0xc1,0xaa,0xf3 = vsra.u32 d12, d15, #22 20 0x1c,0xc1,0xa0,0xf2 = vsra.s32 d12, d12, #32 66 0x1c,0xb5,0x8f,0xf3 = vsli.8 d11, d12, #7 67 0x1d,0xc5,0x9f,0xf3 = vsli.16 d12, d13, #15 75 0x1c,0xa4,0xd0,0xf3 = vsri.16 d26, d12, #16 82 0x1c,0xc5,0x8f,0xf3 = vsli.8 d12, d12, #7 91 0x1c,0xc4,0x90,0xf3 = vsri.16 d12, d12, #16
|
D | neont2-shiftaccum-encoding.s.cs | 4 0xa0,0xef,0x1c,0xd1 = vsra.s32 d13, d12, #32 12 0xaa,0xff,0x1f,0xc1 = vsra.u32 d12, d15, #22 20 0xa0,0xef,0x1c,0xc1 = vsra.s32 d12, d12, #32 66 0x8f,0xff,0x1c,0xb5 = vsli.8 d11, d12, #7 67 0x9f,0xff,0x1d,0xc5 = vsli.16 d12, d13, #15 75 0xd0,0xff,0x1c,0xa4 = vsri.16 d26, d12, #16 82 0x8f,0xff,0x1c,0xc5 = vsli.8 d12, d12, #7 91 0x90,0xff,0x1c,0xc4 = vsri.16 d12, d12, #16
|
D | neon-cmp-encoding.s.cs | 60 0x0d,0xc3,0x03,0xf2 = vcgt.s8 d12, d3, d13 61 0x0d,0xc3,0x13,0xf2 = vcgt.s16 d12, d3, d13 62 0x0d,0xc3,0x23,0xf2 = vcgt.s32 d12, d3, d13 63 0x0d,0xc3,0x03,0xf3 = vcgt.u8 d12, d3, d13 64 0x0d,0xc3,0x13,0xf3 = vcgt.u16 d12, d3, d13 65 0x0d,0xc3,0x23,0xf3 = vcgt.u32 d12, d3, d13 66 0x0d,0xce,0x23,0xf3 = vcgt.f32 d12, d3, d13 82 0x1b,0x9e,0x2c,0xf3 = vacgt.f32 d9, d12, d11 84 0x1b,0xbe,0x2c,0xf3 = vacgt.f32 d11, d12, d11 86 0x1b,0x9e,0x0c,0xf3 = vacge.f32 d9, d12, d11 [all …]
|
D | vpush-vpop.s.cs | 2 0x0a,0x8b,0x2d,0xed = vpush {d8, d9, d10, d11, d12} 4 0x0a,0x8b,0xbd,0xec = vpop {d8, d9, d10, d11, d12} 6 0x0a,0x8b,0x2d,0xed = vpush {d8, d9, d10, d11, d12} 8 0x0a,0x8b,0xbd,0xec = vpop {d8, d9, d10, d11, d12}
|
D | vpush-vpop-thumb.s.cs | 2 0x2d,0xed,0x0a,0x8b = vpush {d8, d9, d10, d11, d12} 4 0xbd,0xec,0x0a,0x8b = vpop {d8, d9, d10, d11, d12} 6 0x2d,0xed,0x0a,0x8b = vpush {d8, d9, d10, d11, d12} 8 0xbd,0xec,0x0a,0x8b = vpop {d8, d9, d10, d11, d12}
|
/external/XNNPACK/src/q8-dwconv/ |
D | up8x9-aarch32-neon.S | 121 VLD1.8 {d12}, [r6]! 133 VMOVL.U8 q6, d12 145 VMLAL.S16 q0, d12, d14 148 VLD1.8 {d12}, [r9]! 160 VMOVL.U8 q6, d12 172 VMLAL.S16 q0, d12, d14 175 VLD1.8 {d12}, [r12]! 184 VMOVL.U8 q6, d12 190 VMLAL.S16 q0, d12, d14 232 VLD1.8 {d12}, [r6]! [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 185 vaddl.u8 q8, d2, d12 254 vext.8 d17, d12, d13, #5 255 vext.8 d14, d12, d13, #2 256 vext.8 d15, d12, d13, #3 257 vext.8 d16, d12, d13, #4 258 vext.8 d13, d12, d13, #1 261 vaddl.u8 q5, d12, d17 273 vext.8 d17, d12, d13, #5 274 vext.8 d14, d12, d13, #2 275 vext.8 d15, d12, d13, #3 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/AArch64/ |
D | neon-scalar-shift-imm.s | 36 ssra d18, d12, #21 87 uqshl d15, d12, #19 110 sri d10, d12, #14 137 uqshrn s10, d12, #13 148 sqrshrn s15, d12, #9
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-shift-imm.s | 36 ssra d18, d12, #21 87 uqshl d15, d12, #19 110 sri d10, d12, #14 137 uqshrn s10, d12, #13 148 sqrshrn s15, d12, #9
|
/external/capstone/suite/MC/AArch64/ |
D | neon-scalar-shift-imm.s.cs | 6 0x92,0x15,0x6b,0x5f = ssra d18, d12, #21 18 0x8f,0x75,0x53,0x7f = uqshl d15, d12, #19 23 0x8a,0x45,0x72,0x7f = sri d10, d12, #14 30 0x8a,0x95,0x33,0x7f = uqshrn s10, d12, #13 33 0x8f,0x9d,0x37,0x5f = sqrshrn s15, d12, #9
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | shortidct4x4llm_neon.c | 28 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 46 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 56 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 59 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon() 75 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 85 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 88 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
|
/external/vixl/test/aarch64/ |
D | test-disasm-fp-aarch64.cc | 86 COMPARE(frint32x(d12, d13), "frint32x d12, d13"); in TEST() 90 COMPARE(frint32z(d12, d13), "frint32z d12, d13"); in TEST() 94 COMPARE(frint64x(d12, d13), "frint64x d12, d13"); in TEST() 98 COMPARE(frint64z(d12, d13), "frint64z d12, d13"); in TEST() 102 COMPARE(frinta(d12, d13), "frinta d12, d13"); in TEST() 106 COMPARE(frinti(d12, d13), "frinti d12, d13"); in TEST() 110 COMPARE(frintm(d12, d13), "frintm d12, d13"); in TEST() 114 COMPARE(frintn(d12, d13), "frintn d12, d13"); in TEST() 118 COMPARE(frintx(d12, d13), "frintx d12, d13"); in TEST() 122 COMPARE(frintz(d12, d13), "frintz d12, d13"); in TEST() [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|