/external/llvm/test/MC/ARM/ |
D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] [all …]
|
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 13 vsra.u32 d12, d15, #22 23 vsra.s32 d12, #32 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2] 142 vsli.8 d11, d12, #7 143 vsli.16 d12, d13, #15 151 vsri.16 d26, d12, #16 160 vsli.8 d12, #7 [all …]
|
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 15 vsra.u32 d12, d15, #22 25 vsra.s32 d12, #32 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1] 145 vsli.8 d11, d12, #7 146 vsli.16 d12, d13, #15 154 vsri.16 d26, d12, #16 163 vsli.8 d12, #7 [all …]
|
D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 17 vpaddl.s32 d9, d12 30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92] 46 vpadal.u16 d12, d6 59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6] 71 vpmin.s32 d18, d27, d12 79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
D | neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
|
D | thumb-neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
|
D | eh-directive-integrated-test.s | 40 .vsave {d8, d9, d10, d11, d12} 41 vpush {d8, d9, d10, d11, d12} 45 vpop {d8, d9, d10, d11, d12} 74 .vsave {d8, d9, d10, d11, d12} 75 vpush {d8, d9, d10, d11, d12} 79 vpop {d8, d9, d10, d11, d12}
|
D | neont2-dup-encoding.s | 20 vdup.16 d17, d12[0] 26 vdup.16 d17, d12[1] 33 @ CHECK: vdup.16 d17, d12[0] @ encoding: [0xf2,0xff,0x0c,0x1c] 39 @ CHECK: vdup.16 d17, d12[1] @ encoding: [0xf6,0xff,0x0c,0x1c]
|
D | neon-minmax-encoding.s | 6 vmax.u8 d10, d11, d12 14 vmax.u8 d11, d12 38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3] 45 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0c,0xb6,0x0b,0xf3] 68 vmin.u8 d10, d11, d12 76 vmin.u8 d11, d12 100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3] 107 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x1c,0xb6,0x0b,0xf3]
|
D | neont2-minmax-encoding.s | 8 vmax.u8 d10, d11, d12 16 vmax.u8 d11, d12 40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6] 47 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xb6] 70 vmin.u8 d10, d11, d12 78 vmin.u8 d11, d12 102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6] 109 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xb6]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 240 vld1.16 d12,[r0],r6 263 vmlal.s16 q10,d12,d1[0] 265 vmlal.s16 q11,d12,d3[0] 267 vmlal.s16 q8,d12,d5[0] 269 vmlal.s16 q9,d12,d7[0] 312 vld1.16 d12,[r0],r6 337 vmlal.s16 q10,d12,d3[0] 339 vmlsl.s16 q11,d12,d7[0] 341 vmlsl.s16 q8,d12,d1[0] 343 vmlsl.s16 q9,d12,d5[0] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 118 vdup.16 d12,d0[0] @coeff_0 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 118 vdup.16 d12,d0[0] @coeff_0 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) [all …]
|
D | ihevc_inter_pred_filters_luma_horz.s | 207 @ vext.u8 d14,d12,d13,#2 209 @vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 211 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 212 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 213 @vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 214 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 223 vld1.u32 {d12},[r4],r11 @vector load pu1_src + src_strd 244 vmlsl.u8 q5,d12,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 303 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_luma_horz_w16out.s | 220 vld1.u32 {d12},[r4],r11 @vector load pu1_src + src_strd 222 …vzip.32 d0,d12 @vector zip the i iteration and ii interation in single re… 236 @ vext.u8 d14,d12,d13,#2 @vector extract of src[0_2] 237 @ vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 238 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 239 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 240 @ vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 241 @ vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 242 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 372 @ vext.u8 d14,d12,d13,#2 [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 185 vaddl.u8 q8, d2, d12 254 vext.8 d17, d12, d13, #5 255 vext.8 d14, d12, d13, #2 256 vext.8 d15, d12, d13, #3 257 vext.8 d16, d12, d13, #4 258 vext.8 d13, d12, d13, #1 261 vaddl.u8 q5, d12, d17 273 vext.8 d17, d12, d13, #5 274 vext.8 d14, d12, d13, #2 275 vext.8 d15, d12, d13, #3 [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-shift-imm.s | 36 ssra d18, d12, #21 87 uqshl d15, d12, #19 110 sri d10, d12, #14 137 uqshrn s10, d12, #13 148 sqrshrn s15, d12, #9
|
D | neon-scalar-cvt.s | 11 scvtf d21, d12 35 scvtf d21, d12, #64 59 fcvtzs d21, d12, #1 71 fcvtzu d21, d12, #1
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | shortidct4x4llm_neon.c | 25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 43 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 55 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 58 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon() 74 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon() 86 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon() 89 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
|
D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 75 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 78 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon() 93 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon() 105 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon() 108 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 8 ; CHECK: stp d13, d12, [sp, #16] 24 ; CHECK: ldp d13, d12, [sp, #16] 26 …ect "mov x0, #42", "~{x0},~{x19},~{x21},~{x23},~{x25},~{x27},~{d8},~{d10},~{d12},~{d14}"() nounwind 33 ; CHECK: stp d13, d12, [sp, #16] 49 ; CHECK: ldp d13, d12, [sp, #16]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | idct16x16_add_neon.asm | 144 vqrshrn.s32 d12, q9, #14 ; >> 14 244 vqrshrn.s32 d12, q9, #14 ; >> 14 322 vdup.16 d12, r3 ; duplicate cospi_30_64 335 vmull.s16 q2, d16, d12 336 vmull.s16 q3, d17, d12 347 vmlal.s16 q1, d30, d12 348 vmlal.s16 q4, d31, d12 394 vqrshrn.s32 d12, q4, #14 ; >> 14 501 vqrshrn.s32 d12, q2, #14 ; >> 14 615 vld1.64 {d12}, [r7], r8 ; load destinatoin data [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | fp128-calling-conv.ll | 9 …fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 … 17 …fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 … 25 …fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 … 33 …fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 … 41 …fp128 %d6, fp128 %d7, fp128 %d8, fp128 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 …
|