/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 242 vld1.16 d13,[r0],r6 264 vmlal.s16 q10,d13,d1[2] 266 vmlal.s16 q11,d13,d4[2] 268 vmlal.s16 q8,d13,d7[2] 270 vmlsl.s16 q9,d13,d5[2] 314 vld1.16 d13,[r0],r6 338 vmlal.s16 q10,d13,d3[2] 340 vmlsl.s16 q11,d13,d5[2] 342 vmlsl.s16 q8,d13,d1[2] 344 vmlal.s16 q9,d13,d7[2] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 119 vdup.16 d13,d0[1] @coeff_1 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 188 vmlal.s16 q15,d1,d13 197 vmlal.s16 q14,d2,d13 206 vmlal.s16 q13,d3,d13 217 vmlal.s16 q12,d4,d13 232 vmlal.s16 q15,d1,d13 241 vmlal.s16 q14,d2,d13 253 vmlal.s16 q13,d3,d13 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 119 vdup.16 d13,d0[1] @coeff_1 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 189 vmlal.s16 q15,d1,d13 197 vmlal.s16 q14,d2,d13 208 vmlal.s16 q13,d3,d13 219 vmlal.s16 q12,d4,d13 235 vmlal.s16 q15,d1,d13 245 vmlal.s16 q14,d2,d13 258 vmlal.s16 q13,d3,d13 [all …]
|
D | ihevc_inter_pred_filters_luma_horz.s | 207 @ vext.u8 d14,d12,d13,#2 209 @vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 211 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 212 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 213 @vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 214 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 225 vld1.u32 {d13},[r4],r11 245 vmlal.u8 q5,d13,d25 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 325 vmlal.u8 q10,d13,d28 [all …]
|
D | ihevc_inter_pred_luma_horz_w16out.s | 221 vld1.u32 {d13},[r4],r11 224 vzip.32 d1,d13 236 @ vext.u8 d14,d12,d13,#2 @vector extract of src[0_2] 237 @ vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 238 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 239 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 240 @ vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 241 @ vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 242 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 372 @ vext.u8 d14,d12,d13,#2 [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | loopfiltersimpleverticaledge_neon.asm | 38 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r12 39 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r3], r12 40 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r12 41 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r3], r12 42 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r12 43 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r3], r12 44 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r12 45 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r3] 103 vswp d13, d14 106 vst2.8 {d12[0], d13[0]}, [r0], r12 [all …]
|
D | loopfilter_neon.asm | 83 vld1.u8 {d13}, [r12@64], r1 ; p0 101 vst1.u8 {d13}, [r2@64], r1 ; store v op0 142 vld1.u8 {d13}, [r12], r1 169 vswp d16, d13 179 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 180 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r12], r1 181 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 182 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r12], r1 183 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 184 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r12], r1 [all …]
|
D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 59 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 76 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 77 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon() 94 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon() 106 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 107 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon()
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
D | loopfiltersimpleverticaledge_neon.asm | 39 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r12 40 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r3], r12 41 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r12 42 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r3], r12 43 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r12 44 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r3], r12 45 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r12 46 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r3] 104 vswp d13, d14 107 vst2.8 {d12[0], d13[0]}, [r0], r12 [all …]
|
D | shortidct4x4llm_neon.c | 25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 44 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 in vp8_short_idct4x4llm_neon() 56 d3 = vqadd_s16(d13, d10); in vp8_short_idct4x4llm_neon() 57 d4 = vqsub_s16(d13, d10); in vp8_short_idct4x4llm_neon() 75 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 in vp8_short_idct4x4llm_neon() 87 d3 = vqadd_s16(d13, d10); in vp8_short_idct4x4llm_neon() 88 d4 = vqsub_s16(d13, d10); in vp8_short_idct4x4llm_neon()
|
D | loopfilter_neon.asm | 88 vld1.u8 {d13}, [r12@64], r1 ; p0 106 vst1.u8 {d13}, [r2@64], r1 ; store v op0 150 vld1.u8 {d13}, [r12], r1 177 vswp d16, d13 187 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 188 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r12], r1 189 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 190 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r12], r1 191 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 192 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r12], r1 [all …]
|
D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 59 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 76 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 77 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon() 94 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon() 106 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 107 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon()
|
/external/llvm/test/MC/ARM/ |
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 14 vsra.u64 d13, d16, #54 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 49 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0xb0,0xd1,0x8a,0xf3] 143 vsli.16 d12, d13, #15 144 vsli.32 d13, d14, #31 152 vsri.32 d24, d13, #32 161 vsli.16 d13, #15 170 vsri.32 d13, #32 178 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x1d,0xc5,0x9f,0xf3] [all …]
|
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 16 vsra.u64 d13, d16, #54 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 51 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0x8a,0xff,0xb0,0xd1] 146 vsli.16 d12, d13, #15 147 vsli.32 d13, d14, #31 155 vsri.32 d24, d13, #32 164 vsli.16 d13, #15 173 vsri.32 d13, #32 181 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x9f,0xff,0x1d,0xc5] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
D | neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2] [all …]
|
D | single-precision-fp.s | 47 vsqrt.f64 d13, d12 48 vsqrt d13, d14 52 @ CHECK-ERRORS-NEXT: vsqrt.f64 d13, d12 54 @ CHECK-ERRORS-NEXT: vsqrt d13, d14 89 vcvt.f64.u16 d13, d14, #2 91 vcvt.f64.u32 d13, d12, #1 115 @ CHECK-ERRORS-NEXT: vcvt.f64.u16 d13, d14, #2 119 @ CHECK-ERRORS-NEXT: vcvt.f64.u32 d13, d12, #1
|
D | neon-shift-encoding.s | 121 vsra.s64 d13, #63 138 @ CHECK: vsra.s64 d13, d13, #63 @ encoding: [0x9d,0xd1,0x81,0xf2] 157 vsra.u64 d13, #63 174 @ CHECK: vsra.u64 d13, d13, #63 @ encoding: [0x9d,0xd1,0x81,0xf3] 193 vsri.64 d13, #63 210 @ CHECK: vsri.64 d13, d13, #63 @ encoding: [0x9d,0xd4,0x81,0xf3] 229 vsli.64 d13, #63 246 @ CHECK: vsli.64 d13, d13, #63 @ encoding: [0x9d,0xd5,0xbf,0xf3] 435 vrshl.s32 d13, d6 452 @ CHECK: vrshl.s32 d13, d13, d6 @ encoding: [0x0d,0xd5,0x26,0xf2] [all …]
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/llvm/test/CodeGen/ARM/ |
D | vfp-regs-dwarf.ll | 5 ; asm("" ::: "d8", "d9", "d11", "d13"); 15 ; CHECK: vpush {d13} 19 ; CHECK: .cfi_offset {{269|d13}}, -8 26 ; CHECK: vpop {d13} 27 call void asm sideeffect "", "~{d8},~{d9},~{d11},~{d13}"() #1
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 8 ; CHECK: stp d13, d12, [sp, #16] 24 ; CHECK: ldp d13, d12, [sp, #16] 33 ; CHECK: stp d13, d12, [sp, #16] 49 ; CHECK: ldp d13, d12, [sp, #16] 51 …ect "mov x0, #42", "~{x0},~{x20},~{x22},~{x24},~{x26},~{x28},~{d9},~{d11},~{d13},~{d15}"() nounwind
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
D | vp9_idct16x16_add_neon.asm | 145 vqrshrn.s32 d13, q15, #14 ; >> 14 245 vqrshrn.s32 d13, q10, #14 ; >> 14 323 vdup.16 d13, r12 ; duplicate cospi_2_64 339 vmull.s16 q1, d16, d13 340 vmull.s16 q4, d17, d13 343 vmlsl.s16 q2, d30, d13 344 vmlsl.s16 q3, d31, d13 395 vqrshrn.s32 d13, q5, #14 ; >> 14 502 vqrshrn.s32 d13, q3, #14 ; >> 14 616 vld1.64 {d13}, [r7], r8 ; load destinatoin data [all …]
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_idct16x16_add_neon.asm | 145 vqrshrn.s32 d13, q15, #14 ; >> 14 245 vqrshrn.s32 d13, q10, #14 ; >> 14 323 vdup.16 d13, r12 ; duplicate cospi_2_64 339 vmull.s16 q1, d16, d13 340 vmull.s16 q4, d17, d13 343 vmlsl.s16 q2, d30, d13 344 vmlsl.s16 q3, d31, d13 395 vqrshrn.s32 d13, q5, #14 ; >> 14 502 vqrshrn.s32 d13, q3, #14 ; >> 14 616 vld1.64 {d13}, [r7], r8 ; load destinatoin data [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-recip.s | 30 frecpe d13, d13
|