Home
last modified time | relevance | path

Searched refs:d12 (Results 1 – 25 of 603) sorted by relevance

12345678910>>...25

/external/llvm/test/MC/ARM/
Dvpush-vpop.s6 vpush {d8, d9, d10, d11, d12}
8 vpop {d8, d9, d10, d11, d12}
11 vpush.s8 {d8, d9, d10, d11, d12}
13 vpop.f32 {d8, d9, d10, d11, d12}
16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed]
23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec]
26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
[all …]
Dneon-shiftaccum-encoding.s5 vsra.s32 d13, d12, #32
13 vsra.u32 d12, d15, #22
23 vsra.s32 d12, #32
40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2]
48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3]
57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2]
142 vsli.8 d11, d12, #7
143 vsli.16 d12, d13, #15
151 vsri.16 d26, d12, #16
160 vsli.8 d12, #7
[all …]
Dneont2-shiftaccum-encoding.s7 vsra.s32 d13, d12, #32
15 vsra.u32 d12, d15, #22
25 vsra.s32 d12, #32
42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1]
50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1]
59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1]
145 vsli.8 d11, d12, #7
146 vsli.16 d12, d13, #15
154 vsri.16 d26, d12, #16
163 vsli.8 d12, #7
[all …]
Dneon-cmp-encoding.s124 vclt.s8 d12, d13, d3
125 vclt.s16 d12, d13, d3
126 vclt.s32 d12, d13, d3
127 vclt.u8 d12, d13, d3
128 vclt.u16 d12, d13, d3
129 vclt.u32 d12, d13, d3
130 vclt.f32 d12, d13, d3
140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2]
141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2]
142 @ CHECK: vcgt.s32 d12, d3, d13 @ encoding: [0x0d,0xc3,0x23,0xf2]
[all …]
Dneont2-pairwise-encoding.s5 vpadd.i16 d13, d2, d12
10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb]
17 vpaddl.s32 d9, d12
30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92]
46 vpadal.u16 d12, d6
59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6]
71 vpmin.s32 d18, d27, d12
79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
Dthumb-neon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
Dneon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
Deh-directive-integrated-test.s40 .vsave {d8, d9, d10, d11, d12}
41 vpush {d8, d9, d10, d11, d12}
45 vpop {d8, d9, d10, d11, d12}
74 .vsave {d8, d9, d10, d11, d12}
75 vpush {d8, d9, d10, d11, d12}
79 vpop {d8, d9, d10, d11, d12}
/external/libhevc/common/arm/
Dihevc_itrans_recon_32x32.s246 vld1.16 d12,[r0],r6
269 vmlal.s16 q10,d12,d1[0]
271 vmlal.s16 q11,d12,d3[0]
273 vmlal.s16 q8,d12,d5[0]
275 vmlal.s16 q9,d12,d7[0]
318 vld1.16 d12,[r0],r6
343 vmlal.s16 q10,d12,d3[0]
345 vmlsl.s16 q11,d12,d7[0]
347 vmlsl.s16 q8,d12,d1[0]
349 vmlsl.s16 q9,d12,d5[0]
[all …]
Dihevc_inter_pred_chroma_vert_w16inp_w16out.s124 vdup.16 d12,d0[0] @coeff_0
145 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
148 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
192 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
200 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
211 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
221 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
236 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
246 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
257 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s124 vdup.16 d12,d0[0] @coeff_0
145 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
148 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
193 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
201 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
212 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
223 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
239 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
250 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
262 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
[all …]
/external/capstone/suite/MC/ARM/
Dneont2-shiftaccum-encoding.s.cs4 0xa0,0xef,0x1c,0xd1 = vsra.s32 d13, d12, #32
12 0xaa,0xff,0x1f,0xc1 = vsra.u32 d12, d15, #22
20 0xa0,0xef,0x1c,0xc1 = vsra.s32 d12, d12, #32
66 0x8f,0xff,0x1c,0xb5 = vsli.8 d11, d12, #7
67 0x9f,0xff,0x1d,0xc5 = vsli.16 d12, d13, #15
75 0xd0,0xff,0x1c,0xa4 = vsri.16 d26, d12, #16
82 0x8f,0xff,0x1c,0xc5 = vsli.8 d12, d12, #7
91 0x90,0xff,0x1c,0xc4 = vsri.16 d12, d12, #16
Dneon-shiftaccum-encoding.s.cs4 0x1c,0xd1,0xa0,0xf2 = vsra.s32 d13, d12, #32
12 0x1f,0xc1,0xaa,0xf3 = vsra.u32 d12, d15, #22
20 0x1c,0xc1,0xa0,0xf2 = vsra.s32 d12, d12, #32
66 0x1c,0xb5,0x8f,0xf3 = vsli.8 d11, d12, #7
67 0x1d,0xc5,0x9f,0xf3 = vsli.16 d12, d13, #15
75 0x1c,0xa4,0xd0,0xf3 = vsri.16 d26, d12, #16
82 0x1c,0xc5,0x8f,0xf3 = vsli.8 d12, d12, #7
91 0x1c,0xc4,0x90,0xf3 = vsri.16 d12, d12, #16
Dneon-cmp-encoding.s.cs60 0x0d,0xc3,0x03,0xf2 = vcgt.s8 d12, d3, d13
61 0x0d,0xc3,0x13,0xf2 = vcgt.s16 d12, d3, d13
62 0x0d,0xc3,0x23,0xf2 = vcgt.s32 d12, d3, d13
63 0x0d,0xc3,0x03,0xf3 = vcgt.u8 d12, d3, d13
64 0x0d,0xc3,0x13,0xf3 = vcgt.u16 d12, d3, d13
65 0x0d,0xc3,0x23,0xf3 = vcgt.u32 d12, d3, d13
66 0x0d,0xce,0x23,0xf3 = vcgt.f32 d12, d3, d13
82 0x1b,0x9e,0x2c,0xf3 = vacgt.f32 d9, d12, d11
84 0x1b,0xbe,0x2c,0xf3 = vacgt.f32 d11, d12, d11
86 0x1b,0x9e,0x0c,0xf3 = vacge.f32 d9, d12, d11
[all …]
Dvpush-vpop.s.cs2 0x0a,0x8b,0x2d,0xed = vpush {d8, d9, d10, d11, d12}
4 0x0a,0x8b,0xbd,0xec = vpop {d8, d9, d10, d11, d12}
6 0x0a,0x8b,0x2d,0xed = vpush {d8, d9, d10, d11, d12}
8 0x0a,0x8b,0xbd,0xec = vpop {d8, d9, d10, d11, d12}
Dvpush-vpop-thumb.s.cs2 0x2d,0xed,0x0a,0x8b = vpush {d8, d9, d10, d11, d12}
4 0xbd,0xec,0x0a,0x8b = vpop {d8, d9, d10, d11, d12}
6 0x2d,0xed,0x0a,0x8b = vpush {d8, d9, d10, d11, d12}
8 0xbd,0xec,0x0a,0x8b = vpop {d8, d9, d10, d11, d12}
/external/libavc/common/arm/
Dih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s185 vaddl.u8 q8, d2, d12
254 vext.8 d17, d12, d13, #5
255 vext.8 d14, d12, d13, #2
256 vext.8 d15, d12, d13, #3
257 vext.8 d16, d12, d13, #4
258 vext.8 d13, d12, d13, #1
261 vaddl.u8 q5, d12, d17
273 vext.8 d17, d12, d13, #5
274 vext.8 d14, d12, d13, #2
275 vext.8 d15, d12, d13, #3
[all …]
/external/capstone/suite/MC/AArch64/
Dneon-scalar-shift-imm.s.cs6 0x92,0x15,0x6b,0x5f = ssra d18, d12, #21
18 0x8f,0x75,0x53,0x7f = uqshl d15, d12, #19
23 0x8a,0x45,0x72,0x7f = sri d10, d12, #14
30 0x8a,0x95,0x33,0x7f = uqshrn s10, d12, #13
33 0x8f,0x9d,0x37,0x5f = sqrshrn s15, d12, #9
/external/llvm/test/MC/AArch64/
Dneon-scalar-shift-imm.s36 ssra d18, d12, #21
87 uqshl d15, d12, #19
110 sri d10, d12, #14
137 uqshrn s10, d12, #13
148 sqrshrn s15, d12, #9
/external/libvpx/vp8/common/arm/neon/
Dshortidct4x4llm_neon.c28 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_short_idct4x4llm_neon() local
46 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon()
56 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon()
59 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
75 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 in vp8_short_idct4x4llm_neon()
85 d2 = vqadd_s16(d12, d11); in vp8_short_idct4x4llm_neon()
88 d5 = vqsub_s16(d12, d11); in vp8_short_idct4x4llm_neon()
Ddequant_idct_neon.c26 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; in vp8_dequant_idct_add_neon() local
61 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); in vp8_dequant_idct_add_neon()
76 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon()
79 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
94 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]); in vp8_dequant_idct_add_neon()
104 d2 = vqadd_s16(d12, d11); in vp8_dequant_idct_add_neon()
107 d5 = vqsub_s16(d12, d11); in vp8_dequant_idct_add_neon()
/external/vixl/test/aarch64/
Dtest-disasm-fp-aarch64.cc86 COMPARE(frint32x(d12, d13), "frint32x d12, d13"); in TEST()
90 COMPARE(frint32z(d12, d13), "frint32z d12, d13"); in TEST()
94 COMPARE(frint64x(d12, d13), "frint64x d12, d13"); in TEST()
98 COMPARE(frint64z(d12, d13), "frint64z d12, d13"); in TEST()
102 COMPARE(frinta(d12, d13), "frinta d12, d13"); in TEST()
106 COMPARE(frinti(d12, d13), "frinti d12, d13"); in TEST()
110 COMPARE(frintm(d12, d13), "frintm d12, d13"); in TEST()
114 COMPARE(frintn(d12, d13), "frintn d12, d13"); in TEST()
118 COMPARE(frintx(d12, d13), "frintx d12, d13"); in TEST()
122 COMPARE(frintz(d12, d13), "frintz d12, d13"); in TEST()
[all …]
/external/llvm/test/CodeGen/Thumb2/
Daligned-spill.ll17 …tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14},~{d15}"() nounwi…
30 ; NEON: vst1.64 {d12, d13, d14, d15}, [r4:128]
40 ; NEON: vld1.64 {d12, d13, d14, d15}, [r[[R4]]:128]
50 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d11},~{d12},~{d13},~{d14}"() nounwind
61 ; NEON: vst1.64 {d12, d13}, [r4:128]
65 ; NEON: vld1.64 {d12, d13},
74 tail call void asm sideeffect "", "~{d8},~{d9},~{d10},~{d12},~{d13},~{d14},~{d15}"() nounwind
82 ; NEON: vpush {d12, d13, d14, d15}
94 ; NEON: vpop {d12, d13, d14, d15}
/external/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"},
100 {{F32, d5, d16, d12}, false, al, "F32 d5 d16 d12", "F32_d5_d16_d12"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
114 {{F64, d18, d12, d20}, false, al, "F64 d18 d12 d20", "F64_d18_d12_d20"},
119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"},
120 {{F64, d0, d12, d13}, false, al, "F64 d0 d12 d13", "F64_d0_d12_d13"},
126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"},
145 {{F32, d18, d12, d5}, false, al, "F32 d18 d12 d5", "F32_d18_d12_d5"},
158 {{F64, d10, d12, d2}, false, al, "F64 d10 d12 d2", "F64_d10_d12_d2"},
161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc99 {{F64, d19, d28, d12}, false, al, "F64 d19 d28 d12", "F64_d19_d28_d12"},
100 {{F32, d5, d16, d12}, false, al, "F32 d5 d16 d12", "F32_d5_d16_d12"},
103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"},
114 {{F64, d18, d12, d20}, false, al, "F64 d18 d12 d20", "F64_d18_d12_d20"},
119 {{F32, d12, d18, d29}, false, al, "F32 d12 d18 d29", "F32_d12_d18_d29"},
120 {{F64, d0, d12, d13}, false, al, "F64 d0 d12 d13", "F64_d0_d12_d13"},
126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"},
145 {{F32, d18, d12, d5}, false, al, "F32 d18 d12 d5", "F32_d18_d12_d5"},
158 {{F64, d10, d12, d2}, false, al, "F64 d10 d12 d2", "F64_d10_d12_d2"},
161 {{F32, d12, d21, d28}, false, al, "F32 d12 d21 d28", "F32_d12_d21_d28"},
[all …]

12345678910>>...25