/external/llvm/test/MC/ARM/ |
D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] [all …]
|
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 13 vsra.u32 d12, d15, #22 23 vsra.s32 d12, #32 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2] 142 vsli.8 d11, d12, #7 143 vsli.16 d12, d13, #15 151 vsri.16 d26, d12, #16 160 vsli.8 d12, #7 [all …]
|
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 15 vsra.u32 d12, d15, #22 25 vsra.s32 d12, #32 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1] 145 vsli.8 d11, d12, #7 146 vsli.16 d12, d13, #15 154 vsri.16 d26, d12, #16 163 vsli.8 d12, #7 [all …]
|
D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 17 vpaddl.s32 d9, d12 30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92] 46 vpadal.u16 d12, d6 59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6] 71 vpmin.s32 d18, d27, d12 79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
D | thumb-neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
|
D | neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
|
D | eh-directive-integrated-test.s | 40 .vsave {d8, d9, d10, d11, d12} 41 vpush {d8, d9, d10, d11, d12} 45 vpop {d8, d9, d10, d11, d12} 74 .vsave {d8, d9, d10, d11, d12} 75 vpush {d8, d9, d10, d11, d12} 79 vpop {d8, d9, d10, d11, d12}
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 246 vld1.16 d12,[r0],r6 269 vmlal.s16 q10,d12,d1[0] 271 vmlal.s16 q11,d12,d3[0] 273 vmlal.s16 q8,d12,d5[0] 275 vmlal.s16 q9,d12,d7[0] 318 vld1.16 d12,[r0],r6 343 vmlal.s16 q10,d12,d3[0] 345 vmlsl.s16 q11,d12,d7[0] 347 vmlsl.s16 q8,d12,d1[0] 349 vmlsl.s16 q9,d12,d5[0] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 124 vdup.16 d12,d0[0] @coeff_0 145 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 148 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 192 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 200 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 211 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 221 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 236 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 246 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 257 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 124 vdup.16 d12,d0[0] @coeff_0 145 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 148 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 193 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 201 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 212 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 223 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 239 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 250 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 262 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neont2-shiftaccum-encoding.s.cs | 4 0xa0,0xef,0x1c,0xd1 = vsra.s32 d13, d12, #32 12 0xaa,0xff,0x1f,0xc1 = vsra.u32 d12, d15, #22 20 0xa0,0xef,0x1c,0xc1 = vsra.s32 d12, d12, #32 66 0x8f,0xff,0x1c,0xb5 = vsli.8 d11, d12, #7 67 0x9f,0xff,0x1d,0xc5 = vsli.16 d12, d13, #15 75 0xd0,0xff,0x1c,0xa4 = vsri.16 d26, d12, #16 82 0x8f,0xff,0x1c,0xc5 = vsli.8 d12, d12, #7 91 0x90,0xff,0x1c,0xc4 = vsri.16 d12, d12, #16
|
D | neon-shiftaccum-encoding.s.cs | 4 0x1c,0xd1,0xa0,0xf2 = vsra.s32 d13, d12, #32 12 0x1f,0xc1,0xaa,0xf3 = vsra.u32 d12, d15, #22 20 0x1c,0xc1,0xa0,0xf2 = vsra.s32 d12, d12, #32 66 0x1c,0xb5,0x8f,0xf3 = vsli.8 d11, d12, #7 67 0x1d,0xc5,0x9f,0xf3 = vsli.16 d12, d13, #15 75 0x1c,0xa4,0xd0,0xf3 = vsri.16 d26, d12, #16 82 0x1c,0xc5,0x8f,0xf3 = vsli.8 d12, d12, #7 91 0x1c,0xc4,0x90,0xf3 = vsri.16 d12, d12, #16
|
D | neon-cmp-encoding.s.cs | 60 0x0d,0xc3,0x03,0xf2 = vcgt.s8 d12, d3, d13 61 0x0d,0xc3,0x13,0xf2 = vcgt.s16 d12, d3, d13 62 0x0d,0xc3,0x23,0xf2 = vcgt.s32 d12, d3, d13 63 0x0d,0xc3,0x03,0xf3 = vcgt.u8 d12, d3, d13 64 0x0d,0xc3,0x13,0xf3 = vcgt.u16 d12, d3, d13 65 0x0d,0xc3,0x23,0xf3 = vcgt.u32 d12, d3, d13 66 0x0d,0xce,0x23,0xf3 = vcgt.f32 d12, d3, d13 82 0x1b,0x9e,0x2c,0xf3 = vacgt.f32 d9, d12, d11 84 0x1b,0xbe,0x2c,0xf3 = vacgt.f32 d11, d12, d11 86 0x1b,0x9e,0x0c,0xf3 = vacge.f32 d9, d12, d11 [all …]
|
D | vpush-vpop.s.cs | 2 0x0a,0x8b,0x2d,0xed = vpush {d8, d9, d10, d11, d12} 4 0x0a,0x8b,0xbd,0xec = vpop {d8, d9, d10, d11, d12} 6 0x0a,0x8b,0x2d,0xed = vpush {d8, d9, d10, d11, d12} 8 0x0a,0x8b,0xbd,0xec = vpop {d8, d9, d10, d11, d12}
|
D | vpush-vpop-thumb.s.cs | 2 0x2d,0xed,0x0a,0x8b = vpush {d8, d9, d10, d11, d12} 4 0xbd,0xec,0x0a,0x8b = vpop {d8, d9, d10, d11, d12} 6 0x2d,0xed,0x0a,0x8b = vpush {d8, d9, d10, d11, d12} 8 0xbd,0xec,0x0a,0x8b = vpop {d8, d9, d10, d11, d12}
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 185 vaddl.u8 q8, d2, d12 254 vext.8 d17, d12, d13, #5 255 vext.8 d14, d12, d13, #2 256 vext.8 d15, d12, d13, #3 257 vext.8 d16, d12, d13, #4 258 vext.8 d13, d12, d13, #1 261 vaddl.u8 q5, d12, d17 273 vext.8 d17, d12, d13, #5 274 vext.8 d14, d12, d13, #2 275 vext.8 d15, d12, d13, #3 [all …]
|
/external/capstone/suite/MC/AArch64/ |
D | neon-scalar-shift-imm.s.cs | 6 0x92,0x15,0x6b,0x5f = ssra d18, d12, #21 18 0x8f,0x75,0x53,0x7f = uqshl d15, d12, #19 23 0x8a,0x45,0x72,0x7f = sri d10, d12, #14 30 0x8a,0x95,0x33,0x7f = uqshrn s10, d12, #13 33 0x8f,0x9d,0x37,0x5f = sqrshrn s15, d12, #9
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-shift-imm.s | 36 ssra d18, d12, #21 87 uqshl d15, d12, #19 110 sri d10, d12, #14 137 uqshrn s10, d12, #13 148 sqrshrn s15, d12, #9
|
/external/libvpx/vp8/common/arm/neon/ |
D | shortidct4x4llm_neon.c | 28 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 46 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 56 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 59 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon() 75 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 85 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 88 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
|
D | dequant_idct_neon.c | 26 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 61 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 76 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 79 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon() 94 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon() 104 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 107 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
|
/external/vixl/test/aarch64/ |
D | test-disasm-fp-aarch64.cc | 86 COMPARE(frint32x(d12, d13), "frint32x d12, d13"); in TEST() 90 COMPARE(frint32z(d12, d13), "frint32z d12, d13"); in TEST() 94 COMPARE(frint64x(d12, d13), "frint64x d12, d13"); in TEST() 98 COMPARE(frint64z(d12, d13), "frint64z d12, d13"); in TEST() 102 COMPARE(frinta(d12, d13), "frinta d12, d13"); in TEST() 106 COMPARE(frinti(d12, d13), "frinti d12, d13"); in TEST() 110 COMPARE(frintm(d12, d13), "frintm d12, d13"); in TEST() 114 COMPARE(frintn(d12, d13), "frintn d12, d13"); in TEST() 118 COMPARE(frintx(d12, d13), "frintx d12, d13"); in TEST() 122 COMPARE(frintz(d12, d13), "frintz d12, d13"); in TEST() [all …]
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"}, 100 {{F32, d5, d16, d12}, false, al, "F32 d5 d16 d12", "F32_d5_d16_d12"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 114 {{F64, d18, d12, d20}, false, al, "F64 d18 d12 d20", "F64_d18_d12_d20"}, 119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"}, 120 {{F64, d0, d12, d13}, false, al, "F64 d0 d12 d13", "F64_d0_d12_d13"}, 126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"}, 145 {{F32, d18, d12, d5}, false, al, "F32 d18 d12 d5", "F32_d18_d12_d5"}, 158 {{F64, d10, d12, d2}, false, al, "F64 d10 d12 d2", "F64_d10_d12_d2"}, 161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"}, 100 {{F32, d5, d16, d12}, false, al, "F32 d5 d16 d12", "F32_d5_d16_d12"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 114 {{F64, d18, d12, d20}, false, al, "F64 d18 d12 d20", "F64_d18_d12_d20"}, 119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"}, 120 {{F64, d0, d12, d13}, false, al, "F64 d0 d12 d13", "F64_d0_d12_d13"}, 126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"}, 145 {{F32, d18, d12, d5}, false, al, "F32 d18 d12 d5", "F32_d18_d12_d5"}, 158 {{F64, d10, d12, d2}, false, al, "F64 d10 d12 d2", "F64_d10_d12_d2"}, 161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"}, [all …]
|