/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 248 vld1.16 d13,[r0],r6 270 vmlal.s16 q10,d13,d1[2] 272 vmlal.s16 q11,d13,d4[2] 274 vmlal.s16 q8,d13,d7[2] 276 vmlsl.s16 q9,d13,d5[2] 320 vld1.16 d13,[r0],r6 344 vmlal.s16 q10,d13,d3[2] 346 vmlsl.s16 q11,d13,d5[2] 348 vmlsl.s16 q8,d13,d1[2] 350 vmlal.s16 q9,d13,d7[2] [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 125 vdup.16 d13,d0[1] @coeff_1 150 vmlal.s16 q0,d2,d13 152 vmlal.s16 q4,d3,d13 194 vmlal.s16 q15,d1,d13 203 vmlal.s16 q14,d2,d13 212 vmlal.s16 q13,d3,d13 223 vmlal.s16 q12,d4,d13 238 vmlal.s16 q15,d1,d13 247 vmlal.s16 q14,d2,d13 259 vmlal.s16 q13,d3,d13 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 125 vdup.16 d13,d0[1] @coeff_1 150 vmlal.s16 q0,d2,d13 152 vmlal.s16 q4,d3,d13 195 vmlal.s16 q15,d1,d13 203 vmlal.s16 q14,d2,d13 214 vmlal.s16 q13,d3,d13 225 vmlal.s16 q12,d4,d13 241 vmlal.s16 q15,d1,d13 251 vmlal.s16 q14,d2,d13 264 vmlal.s16 q13,d3,d13 [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 193 vaddl.u8 q12, d3, d13 254 vext.8 d17, d12, d13, #5 255 vext.8 d14, d12, d13, #2 256 vext.8 d15, d12, d13, #3 257 vext.8 d16, d12, d13, #4 258 vext.8 d13, d12, d13, #1 264 vmlsl.u8 q5, d13, d31 273 vext.8 d17, d12, d13, #5 274 vext.8 d14, d12, d13, #2 275 vext.8 d15, d12, d13, #3 [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-shiftaccum-encoding.s.cs | 4 0x1c,0xd1,0xa0,0xf2 = vsra.s32 d13, d12, #32 13 0xb0,0xd1,0x8a,0xf3 = vsra.u64 d13, d16, #54 67 0x1d,0xc5,0x9f,0xf3 = vsli.16 d12, d13, #15 68 0x1e,0xd5,0xbf,0xf3 = vsli.32 d13, d14, #31 76 0x1d,0x84,0xe0,0xf3 = vsri.32 d24, d13, #32 83 0x1d,0xd5,0x9f,0xf3 = vsli.16 d13, d13, #15 92 0x1d,0xd4,0xa0,0xf3 = vsri.32 d13, d13, #32
|
D | neont2-shiftaccum-encoding.s.cs | 4 0xa0,0xef,0x1c,0xd1 = vsra.s32 d13, d12, #32 13 0x8a,0xff,0xb0,0xd1 = vsra.u64 d13, d16, #54 67 0x9f,0xff,0x1d,0xc5 = vsli.16 d12, d13, #15 68 0xbf,0xff,0x1e,0xd5 = vsli.32 d13, d14, #31 76 0xe0,0xff,0x1d,0x84 = vsri.32 d24, d13, #32 83 0x9f,0xff,0x1d,0xd5 = vsli.16 d13, d13, #15 92 0xa0,0xff,0x1d,0xd4 = vsri.32 d13, d13, #32
|
D | neon-shift-encoding.s.cs | 61 0x9d,0xd1,0x81,0xf2 = vsra.s64 d13, d13, #63 77 0x9d,0xd1,0x81,0xf3 = vsra.u64 d13, d13, #63 93 0x9d,0xd4,0x81,0xf3 = vsri.64 d13, d13, #63 109 0x9d,0xd5,0xbf,0xf3 = vsli.64 d13, d13, #63 193 0x0d,0xd5,0x26,0xf2 = vrshl.s32 d13, d13, d6 209 0x1d,0xd0,0xa0,0xf2 = vshr.s32 d13, d13, #32 225 0x1d,0xd2,0xa0,0xf2 = vrshr.s32 d13, d13, #32
|
D | neont2-pairwise-encoding.s.cs | 3 0x12,0xef,0x1c,0xdb = vpadd.i16 d13, d2, d12 4 0x21,0xef,0x1d,0xeb = vpadd.i32 d14, d1, d13 9 0xb0,0xff,0x8d,0x02 = vpaddl.u8 d0, d13 33 0x4a,0xff,0x9d,0x3a = vpmin.u8 d19, d26, d13 41 0x18,0xff,0x8d,0x7a = vpmax.u16 d7, d24, d13
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 16 vsra.u64 d13, d16, #54 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 51 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0x8a,0xff,0xb0,0xd1] 146 vsli.16 d12, d13, #15 147 vsli.32 d13, d14, #31 155 vsri.32 d24, d13, #32 164 vsli.16 d13, #15 173 vsri.32 d13, #32 181 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x9f,0xff,0x1d,0xc5] [all …]
|
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 14 vsra.u64 d13, d16, #54 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 49 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0xb0,0xd1,0x8a,0xf3] 143 vsli.16 d12, d13, #15 144 vsli.32 d13, d14, #31 152 vsri.32 d24, d13, #32 161 vsli.16 d13, #15 170 vsri.32 d13, #32 178 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x1d,0xc5,0x9f,0xf3] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
/external/llvm/test/MC/ARM/ |
D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 14 vsra.u64 d13, d16, #54 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 49 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0xb0,0xd1,0x8a,0xf3] 143 vsli.16 d12, d13, #15 144 vsli.32 d13, d14, #31 152 vsri.32 d24, d13, #32 161 vsli.16 d13, #15 170 vsri.32 d13, #32 178 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x1d,0xc5,0x9f,0xf3] [all …]
|
D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 16 vsra.u64 d13, d16, #54 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 51 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0x8a,0xff,0xb0,0xd1] 146 vsli.16 d12, d13, #15 147 vsli.32 d13, d14, #31 155 vsri.32 d24, d13, #32 164 vsli.16 d13, #15 173 vsri.32 d13, #32 181 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x9f,0xff,0x1d,0xc5] [all …]
|
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | shortidct4x4llm_neon.c | 28 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local 47 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 in vp8_short_idct4x4llm_neon() 57 d3 = vqadd_s16(d13, d10); in vp8_short_idct4x4llm_neon() 58 d4 = vqsub_s16(d13, d10); in vp8_short_idct4x4llm_neon() 76 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 in vp8_short_idct4x4llm_neon() 86 d3 = vqadd_s16(d13, d10); in vp8_short_idct4x4llm_neon() 87 d4 = vqsub_s16(d13, d10); in vp8_short_idct4x4llm_neon()
|
D | dequant_idct_neon.c | 26 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local 62 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon() 77 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 78 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon() 95 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon() 105 d3 = vqadd_s16(d13, d10); in vp8_dequant_idct_add_neon() 106 d4 = vqsub_s16(d13, d10); in vp8_dequant_idct_add_neon()
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/llvm/test/CodeGen/Thumb2/ |
D | aligned-spill.ll | 17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi… 30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128] 40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128] 50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind 61 ; NEON: vst1.64 {d12, d13}, [r4:128] 65 ; NEON: vld1.64 {d12, d13}, 74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind 82 ; NEON: vpush {d12, d13, d14, d15} 94 ; NEON: vpop {d12, d13, d14, d15}
|
/external/llvm/test/CodeGen/ARM/ |
D | vfp-regs-dwarf.ll | 5 ; asm("" ::: "d8", "d9", "d11", "d13"); 15 ; CHECK: vpush {d13} 19 ; CHECK: .cfi_offset {{269|d13}}, -8 26 ; CHECK: vpop {d13} 27 call void asm sideeffect "", "~{d8},~{d9},~{d11},~{d13}"() #1
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | vfp-regs-dwarf.ll | 5 ; asm("" ::: "d8", "d9", "d11", "d13"); 15 ; CHECK: vpush {d13} 19 ; CHECK: .cfi_offset {{269|d13}}, -8 26 ; CHECK: vpop {d13} 27 call void asm sideeffect "", "~{d8},~{d9},~{d11},~{d13}"() #1
|
/external/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 120 {{F64, d0, d12, d13}, false, al, "F64 d0 d12 d13", "F64_d0_d12_d13"}, 133 {{F32, d1, d0, d13}, false, al, "F32 d1 d0 d13", "F32_d1_d0_d13"}, 152 {{F32, d19, d26, d13}, false, al, "F32 d19 d26 d13", "F32_d19_d26_d13"}, 173 {{F32, d13, d31, d5}, false, al, "F32 d13 d31 d5", "F32_d13_d31_d5"}, 174 {{F64, d17, d13, d29}, false, al, "F64 d17 d13 d29", "F64_d17_d13_d29"}, 182 {{F32, d13, d21, d16}, false, al, "F32 d13 d21 d16", "F32_d13_d21_d16"}, 184 {{F64, d14, d14, d13}, false, al, "F64 d14 d14 d13", "F64_d14_d14_d13"}, 186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"}, 188 {{F32, d18, d13, d26}, false, al, "F32 d18 d13 d26", "F32_d18_d13_d26"}, 190 {{F32, d5, d30, d13}, false, al, "F32 d5 d30 d13", "F32_d5_d30_d13"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 120 {{F64, d0, d12, d13}, false, al, "F64 d0 d12 d13", "F64_d0_d12_d13"}, 133 {{F32, d1, d0, d13}, false, al, "F32 d1 d0 d13", "F32_d1_d0_d13"}, 152 {{F32, d19, d26, d13}, false, al, "F32 d19 d26 d13", "F32_d19_d26_d13"}, 173 {{F32, d13, d31, d5}, false, al, "F32 d13 d31 d5", "F32_d13_d31_d5"}, 174 {{F64, d17, d13, d29}, false, al, "F64 d17 d13 d29", "F64_d17_d13_d29"}, 182 {{F32, d13, d21, d16}, false, al, "F32 d13 d21 d16", "F32_d13_d21_d16"}, 184 {{F64, d14, d14, d13}, false, al, "F64 d14 d14 d13", "F64_d14_d14_d13"}, 186 {{F64, d13, d25, d3}, false, al, "F64 d13 d25 d3", "F64_d13_d25_d3"}, 188 {{F32, d18, d13, d26}, false, al, "F32 d18 d13 d26", "F32_d18_d13_d26"}, 190 {{F32, d5, d30, d13}, false, al, "F32 d5 d30 d13", "F32_d5_d30_d13"}, [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 9 ; CHECK: stp d13, d12, [sp, #16] 25 ; CHECK: ldp d13, d12, [sp, #16] 47 ; CHECK: stp d13, d12, [sp, #16] 63 ; CHECK: ldp d13, d12, [sp, #16] 67 ; CHECK-NOTMACHO: stp d15, d13, [sp, #-80]! 77 ; CHECK-NOTMACHO: ldp d15, d13, [sp], #80 78 …ect "mov x0, #42", "~{x0},~{x20},~{x22},~{x24},~{x26},~{x28},~{d9},~{d11},~{d13},~{d15}"() nounwind
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-register-pairing.ll | 9 ; CHECK: stp d13, d12, [sp, #16] 25 ; CHECK: ldp d13, d12, [sp, #16] 47 ; CHECK: stp d13, d12, [sp, #16] 63 ; CHECK: ldp d13, d12, [sp, #16] 67 ; CHECK-NOTMACHO: stp d15, d13, [sp, #-80]! 77 ; CHECK-NOTMACHO: ldp d15, d13, [sp], #80 78 …ect "mov x0, #42", "~{x0},~{x20},~{x22},~{x24},~{x26},~{x28},~{d9},~{d11},~{d13},~{d15}"() nounwind
|