Home
last modified time | relevance | path

Searched refs:d15 (Results 1 – 25 of 230) sorted by relevance

12345678910

/external/libhevc/common/arm/
Dihevc_itrans_recon_32x32.s163 vpush {d8 - d15}
249 vld1.16 d15,[r0],r6
263 vmlal.s16 q12,d15,d1[3]
264 vmlal.s16 q13,d15,d5[1]
265 vmlsl.s16 q14,d15,d7[1]
266 vmlsl.s16 q15,d15,d3[3]
321 vld1.16 d15,[r0],r6
337 vmlal.s16 q12,d15,d3[3]
338 vmlsl.s16 q13,d15,d4[3]
339 vmlsl.s16 q14,d15,d2[3]
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s113 vpush {d8 - d15}
127 vdup.16 d15,d0[3] @coeff_3
157 vmlal.s16 q0,d6,d15
158 vmlal.s16 q4,d2,d15
197 vmlal.s16 q15,d3,d15
206 vmlal.s16 q14,d4,d15
216 vmlal.s16 q13,d5,d15
227 vmlal.s16 q12,d6,d15
241 vmlal.s16 q15,d3,d15
249 vmlal.s16 q14,d4,d15
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s113 vpush {d8 - d15}
127 vdup.16 d15,d0[3] @coeff_3
157 vmlal.s16 q0,d6,d15
158 vmlal.s16 q4,d2,d15
198 vmlal.s16 q15,d3,d15
207 vmlal.s16 q14,d4,d15
217 vmlal.s16 q13,d5,d15
229 vmlal.s16 q12,d6,d15
244 vmlal.s16 q15,d3,d15
253 vmlal.s16 q14,d4,d15
[all …]
Dihevc_itrans_recon_4x4_ttype1.s127 vpush {d8 - d15}
170 vqrshrn.s32 d15,q4,#shift_stage1_idct @ (pi2_out[1] + rounding ) >> shift_stage1_idct
175 vtrn.16 d14,d15
178 vtrn.32 d15,d17
179 @ output in d14,d15,d16,d17
185 @ d15 - d1
189 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1]
194 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1]
205 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
234 vpop {d8 - d15}
Dihevc_itrans_recon_8x8.s159 vpush {d8 - d15}
213 vld1.16 d15,[r9]!
251 …vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(par…
252 …vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(par…
253 …vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(par…
254 …vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(par…
274 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
342 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
434 vtrn.32 d14,d15 @//r4,r5,r6,r7 third qudrant transposing continued.....
504 vmlal.s16 q12,d15,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
[all …]
Dihevc_intra_pred_chroma_mode2.s110 vpush {d8 - d15}
143 vld2.8 {d14,d15},[r10],r8
170 vrev64.8 d31,d15
203 vld2.8 {d14,d15},[r10],r8
235 vrev64.8 d31,d15
264 vld2.8 {d14,d15},[r10],r8
268 vshl.i64 d3,d15,#32
296 vpop {d8 - d15}
Dihevc_intra_pred_luma_mode2.s110 vpush {d8 - d15}
155 vrev64.8 d15,d7
179 vst1.8 {d15},[r14],r5
221 vrev64.8 d15,d7
234 vst1.8 {d15},[r14],r5
265 vpop {d8 - d15}
Dihevc_intra_pred_chroma_mode_18_34.s111 vpush {d8 - d15}
151 vld1.8 {d14,d15},[r8],r6
152 vst1.8 {d14,d15},[r10],r3
187 vpop {d8 - d15}
/external/libvpx/libvpx/vp8/common/arm/neon/
Ddequant_idct_neon.c25 int32x2_t d14, d15; in vp8_dequant_idct_add_neon() local
32 d14 = d15 = vdup_n_s32(0); in vp8_dequant_idct_add_neon()
52 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 0); in vp8_dequant_idct_add_neon()
54 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 1); in vp8_dequant_idct_add_neon()
127 vaddw_u8(vreinterpretq_u16_s16(q2), vreinterpret_u8_s32(d15))); in vp8_dequant_idct_add_neon()
130 d15 = vreinterpret_s32_u8(vqmovun_s16(q2)); in vp8_dequant_idct_add_neon()
137 vst1_lane_s32((int32_t *)dst0, d15, 0); in vp8_dequant_idct_add_neon()
139 vst1_lane_s32((int32_t *)dst0, d15, 1); in vp8_dequant_idct_add_neon()
/external/llvm/test/MC/AArch64/
Dneon-scalar-shift-imm.s8 sshr d15, d16, #12
50 srsra d15, d11, #19
74 sqshl d15, d16, #51
87 uqshl d15, d12, #19
170 sqshrun s10, d15, #15
/external/llvm/test/MC/ARM/
Dneon-shiftaccum-encoding.s4 vsra.s16 d15, d14, #16
13 vsra.u32 d12, d15, #22
31 vsra.u32 d15, #22
39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2]
48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3]
65 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0x1f,0xf1,0xaa,0xf3]
76 vrsra.u8 d15, d22, #8
111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3]
145 vsli.64 d14, d15, #63
163 vsli.64 d15, #63
[all …]
Dneont2-shiftaccum-encoding.s6 vsra.s16 d15, d14, #16
15 vsra.u32 d12, d15, #22
33 vsra.u32 d15, #22
41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1]
50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1]
67 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xf1]
79 vrsra.u8 d15, d22, #8
114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3]
148 vsli.64 d14, d15, #63
166 vsli.64 d15, #63
[all …]
Dneont2-minmax-encoding.s9 vmax.u16 d13, d14, d15
17 vmax.u16 d14, d15
41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6]
48 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xe6]
71 vmin.u16 d13, d14, d15
79 vmin.u16 d14, d15
103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6]
110 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xe6]
Dneon-minmax-encoding.s7 vmax.u16 d13, d14, d15
15 vmax.u16 d14, d15
39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3]
46 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x0f,0xe6,0x1e,0xf3]
69 vmin.u16 d13, d14, d15
77 vmin.u16 d14, d15
101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3]
108 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1f,0xe6,0x1e,0xf3]
Dneont2-pairwise-encoding.s20 vpaddl.u32 d6, d15
33 @ CHECK: vpaddl.u32 d6, d15 @ encoding: [0xb8,0xff,0x8f,0x62]
74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
88 vpmax.s32 d5, d22, d15
96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
Dneon-shift-encoding.s119 vsra.s16 d15, #15
136 @ CHECK: vsra.s16 d15, d15, #15 @ encoding: [0x1f,0xf1,0x91,0xf2]
155 vsra.u16 d15, #15
172 @ CHECK: vsra.u16 d15, d15, #15 @ encoding: [0x1f,0xf1,0x91,0xf3]
191 vsri.16 d15, #15
208 @ CHECK: vsri.16 d15, d15, #15 @ encoding: [0x1f,0xf4,0x91,0xf3]
227 vsli.16 d15, #15
244 @ CHECK: vsli.16 d15, d15, #15 @ encoding: [0x1f,0xf5,0x9f,0xf3]
437 vrshl.u8 d15, d8
454 @ CHECK: vrshl.u8 d15, d15, d8 @ encoding: [0x0f,0xf5,0x08,0xf3]
[all …]
/external/llvm/test/CodeGen/AArch64/
Darm64-register-pairing.ll8 ; CHECK: stp d15, d14, [sp, #-144]!
26 ; CHECK: ldp d15, d14, [sp], #144
46 ; CHECK: stp d15, d14, [sp, #-144]!
64 ; CHECK: ldp d15, d14, [sp], #144
67 ; CHECK-NOTMACHO: stp d15, d13, [sp, #-80]!
77 ; CHECK-NOTMACHO: ldp d15, d13, [sp], #80
78 …ect "mov x0, #42", "~{x0},~{x20},~{x22},~{x24},~{x26},~{x28},~{d9},~{d11},~{d13},~{d15}"() nounwind
/external/valgrind/none/tests/arm/
Dvfpv4_fma.c85 …TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main()
86 …TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main()
91 …TESTINSN_bin_f64("vfma.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i3… in main()
94 …TESTINSN_bin_f64("vfma.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752… in main()
104 …TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i… in main()
105 …TESTINSN_bin_f64("vfma.f64 d10, d23, d15", d10, d23, i32, f2u0(INFINITY), f2u1(INFINITY), d15, i32… in main()
135 …TESTINSN_bin_f64("vfms.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main()
136 …TESTINSN_bin_f64("vfms.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main()
141 …TESTINSN_bin_f64("vfms.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i3… in main()
144 …TESTINSN_bin_f64("vfms.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752… in main()
[all …]
Dneon64.c651 TESTINSN_imm("vmov.i64 d15", d15, 0xFF0000FF00FFFF00); in main()
666 TESTINSN_imm("vmvn.i64 d15", d15, 0xFF0000FF00FFFF00); in main()
675 TESTINSN_imm("vorr.i32 d15", d15, 0x7000000); in main()
684 TESTINSN_imm("vbic.i32 d15", d15, 0x7000000); in main()
689 TESTINSN_un("vmvn d10, d15", d10, d15, i32, 24); in main()
695 TESTINSN_un("vmov d10, d15", d10, d15, i32, 24); in main()
702 TESTINSN_un("vmov d0, d15", d0, d15, i32, 7); in main()
716 TESTINSN_bin("vadd.i64 d13, d14, d15", d13, d14, i32, 140, d15, i32, 120); in main()
730 TESTINSN_bin("vsub.i64 d13, d14, d15", d13, d14, i32, 140, d15, i32, 120); in main()
737 TESTINSN_bin("vand d15, d15, d15", d15, d15, i8, 0xff, d15, i8, 0xff); in main()
[all …]
/external/libmpeg2/common/arm/
Dimpeg2_idct.s111 vpush {d8-d15}
192 vpop {d8-d15}
201 vpush {d8-d15}
310 vpop {d8-d15}
413 vpush {d8-d15}
468 vld1.16 d15, [r9]!
506 …vmlal.s16 q12, d15, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of…
507 …vmlsl.s16 q13, d15, d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of…
508 …vmlal.s16 q14, d15, d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of…
509 …vmlsl.s16 q15, d15, d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of…
[all …]
/external/llvm/test/CodeGen/X86/
Dfp128-calling-conv.ll9 …28 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 %d15, fp128 %d16, fp128 …
17 …28 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 %d15, fp128 %d16, fp128 …
25 …28 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 %d15, fp128 %d16, fp128 …
33 …28 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 %d15, fp128 %d16, fp128 …
41 …28 %d9, fp128 %d10, fp128 %d11, fp128 %d12, fp128 %d13, fp128 %d14, fp128 %d15, fp128 %d16, fp128 …
/external/libavc/common/arm/
Dih264_inter_pred_luma_bilinear_a9q.s123 vstmdb sp!, {d8-d15} @push neon registers to stack
156 vaddl.u8 q11, d11, d15
184 vaddl.u8 q11, d11, d15
219 vaddl.u8 q11, d11, d15
244 vaddl.u8 q11, d11, d15
295 vld1.8 {d15}, [r1], r4 @// Load row7 ;src2
296 vaddl.u8 q11, d11, d15
332 vld1.8 {d15}, [r1], r4 @// Load roW15 ;src2
335 vaddl.u8 q11, d11, d15
387 vld1.32 d15[0], [r1], r4 @// Load row7 ;src2
[all …]
Dih264_resi_trans_quant_a9.s110 vpush {d8-d15}
153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
157 vtrn.16 d14, d15 @T12
160 vtrn.32 d15, d17 @T24
165 vadd.s16 d19, d15, d16 @x1 = x5+x6
166 vsub.s16 d20, d15, d16 @x2 = x5-x6
223 vmovn.u16 d15, q6 @I Narrow the comparison for row 1 and 2 blk 2
238 vpop {d8-d15}
306 vpush {d8-d15}
348 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
[all …]
/external/swiftshader/third_party/LLVM/test/MC/ARM/
Dneont2-pairwise-encoding.s20 vpaddl.u32 d6, d15
33 @ CHECK: vpaddl.u32 d6, d15 @ encoding: [0xb8,0xff,0x8f,0x62]
74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
88 vpmax.s32 d5, d22, d15
96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
/external/llvm/test/CodeGen/Thumb2/
Daligned-spill.ll17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi…
30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128]
40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128]
74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind
82 ; NEON: vpush {d12, d13, d14, d15}
94 ; NEON: vpop {d12, d13, d14, d15}

12345678910