Home
last modified time | relevance | path

Searched refs:q6 (Results 1 – 25 of 64) sorted by relevance

123

/external/llvm/test/MC/ARM/
Dneon-shuffle-encoding.s95 vtrn.8 q14, q6
96 vtrn.i8 q14, q6
97 vtrn.u8 q14, q6
98 vtrn.p8 q14, q6
99 vtrn.16 q14, q6
100 vtrn.i16 q14, q6
101 vtrn.u16 q14, q6
102 vtrn.p16 q14, q6
103 vtrn.32 q14, q6
104 vtrn.i32 q14, q6
[all …]
Dneon-minmax-encoding.s20 vmax.s16 q4, q5, q6
24 vmax.u32 q6, q7, q8
28 vmax.s16 q5, q6
50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2]
54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3]
57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2]
82 vmin.s16 q4, q5, q6
86 vmin.u32 q6, q7, q8
90 vmin.s16 q5, q6
112 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x5c,0x86,0x1a,0xf2]
[all …]
Dneont2-minmax-encoding.s22 vmax.s16 q4, q5, q6
26 vmax.u32 q6, q7, q8
30 vmax.s16 q5, q6
52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86]
56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6]
59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6]
84 vmin.s16 q4, q5, q6
88 vmin.u32 q6, q7, q8
92 vmin.s16 q5, q6
114 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x5c,0x86]
[all …]
Dneon-shift-encoding.s115 vsra.s32 q3, q6, #31
124 vsra.s32 q6, #31
133 @ CHECK: vsra.s32 q3, q6, #31 @ encoding: [0x5c,0x61,0xa1,0xf2]
141 @ CHECK: vsra.s32 q6, q6, #31 @ encoding: [0x5c,0xc1,0xa1,0xf2]
151 vsra.u32 q3, q6, #31
160 vsra.u32 q6, #31
169 @ CHECK: vsra.u32 q3, q6, #31 @ encoding: [0x5c,0x61,0xa1,0xf3]
177 @ CHECK: vsra.u32 q6, q6, #31 @ encoding: [0x5c,0xc1,0xa1,0xf3]
187 vsri.32 q3, q6, #31
196 vsri.32 q6, #31
[all …]
Dneont2-pairwise-encoding.s22 vpaddl.s16 q5, q6
23 vpaddl.s32 q6, q5
35 @ CHECK: vpaddl.s16 q5, q6 @ encoding: [0xb4,0xff,0x4c,0xa2]
36 @ CHECK: vpaddl.s32 q6, q5 @ encoding: [0xb8,0xff,0x4a,0xc2]
50 vpadal.s32 q6, q12
63 @ CHECK: vpadal.s32 q6, q12 @ encoding: [0xb8,0xff,0x68,0xc6]
Dneon-add-encoding.s80 vhadd.u32 q6, q7
93 @ CHECK: vhadd.u32 q6, q6, q7 @ encoding: [0x4e,0xc0,0x2c,0xf3]
244 vadd.i8 q6, q5
254 @ CHECK: vadd.i8 q6, q6, q5 @ encoding: [0x4a,0xc8,0x0c,0xf2]
260 vaddw.s8 q6, d5
264 vaddw.u8 q6, d5
268 @ CHECK: vaddw.s8 q6, q6, d5 @ encoding: [0x05,0xc1,0x8c,0xf2]
272 @ CHECK: vaddw.u8 q6, q6, d5 @ encoding: [0x05,0xc1,0x8c,0xf3]
/external/libvpx/vp8/common/arm/neon/
Dsixtappredict4x4_neon.asm55 vld1.u8 {q6}, [r0], r1
77 vmov q4, q3 ;keep original src data in q4 q6
78 vmov q6, q5
83 vshr.u64 q10, q6, #8
90 vshr.u64 q5, q6, #32
97 vshr.u64 q10, q6, #16
104 vshr.u64 q5, q6, #24
120 vld1.u8 {q6}, [r0], r1
143 vmov q4, q3 ;keep original src data in q4 q6
144 vmov q6, q5
[all …]
Dsixtappredict16x16_neon.asm159 vmull.u8 q6, d30, d3
163 vqadd.s16 q12, q6
165 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3])
171 vqadd.s16 q9, q6
192 vld1.s32 {q5, q6}, [r3] ;load second_pass filter
196 vabs.s32 q8, q6
224 vmull.u8 q6, d21, d0
229 vmlsl.u8 q6, d22, d1
234 vmlsl.u8 q6, d25, d4
239 vmlal.u8 q6, d23, d2
[all …]
Dsixtappredict8x4_neon.asm62 vld1.u8 {q6}, [r0], r1
121 vmull.u8 q6, d31, d3
126 vqadd.s16 q10, q6
139 vld1.u8 {q6}, [r0], r1
208 vmull.u8 q6, d30, d3
214 vqadd.s16 q11, q6
228 vld1.s32 {q5, q6}, [r3] ;load second_pass filter
232 vabs.s32 q8, q6
246 vmull.u8 q6, d25, d0
251 vmlsl.u8 q6, d26, d1
[all …]
Dsixtappredict8x8_neon.asm65 vld1.u8 {q6}, [r0], r1
125 vmull.u8 q6, d31, d3
132 vqadd.s16 q10, q6
146 vld1.u8 {q6}, [r0], r1
155 ;vld1.u8 {q6}, [r0], r1
221 vmull.u8 q6, d30, d3
227 vqadd.s16 q11, q6
239 vld1.s32 {q5, q6}, [r3] ;load second_pass filter
245 vabs.s32 q8, q6
264 vmull.u8 q6, d21, d0
[all …]
Dloopfiltersimplehorizontaledge_neon.asm35 vld1.u8 {q6}, [r0], r1 ; p0
42 vabd.u8 q15, q6, q7 ; abs(p0 - q0)
50 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
92 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2)
97 veor q6, q11, q0 ; *op0 = u^0x80
100 vst1.u8 {q6}, [r0] ; store op0
Dmbloopfilter_neon.asm46 vld1.u8 {q6}, [r0], r1 ; p0
61 vst1.u8 {q6}, [r3], r1 ; store op0
171 vtrn.32 q6, q10
174 vtrn.16 q4, q6
179 vtrn.8 q5, q6
204 vtrn.32 q6, q10
208 vtrn.16 q4, q6
213 vtrn.8 q5, q6
285 vtrn.32 q6, q10
288 vtrn.16 q4, q6
[all …]
Drecon16x16mb_neon.asm41 vmovl.u8 q6, d30
56 vadd.s16 q6, q6, q14
66 vqmovun.s16 d6, q6
92 vmovl.u8 q6, d30
103 vadd.s16 q6, q6, q14
115 vqmovun.s16 d6, q6
Dbilinearpredict8x8_neon.asm46 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0])
56 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1])
62 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
73 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0])
85 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1])
91 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8
116 vmull.u8 q6, d27, d0
125 vmlal.u8 q6, d28, d1
134 vqrshrn.u16 d7, q6, #7
Dloopfilter_neon.asm46 vld1.u8 {q6}, [r2], r1 ; p0
57 vst1.u8 {q6}, [r0], r1 ; store op0
165 vtrn.32 q6, q10
168 vtrn.16 q4, q6
173 vtrn.8 q5, q6
249 vtrn.32 q6, q10
252 vtrn.16 q4, q6
257 vtrn.8 q5, q6
305 ; q6 p0
316 vabd.u8 q13, q5, q6 ; abs(p1 - p0)
[all …]
Drecon4b_neon.asm36 vmovl.u8 q6, d30
47 vadd.s16 q6, q6, q14
56 vqmovun.s16 d6, q6
/external/libvpx/vp8/decoder/arm/neon/
Didct_dequant_dc_full_2x_neon.asm67 ; q6: 4 * sinpi : c1/temp1
71 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2
97 vqsub.s16 q2, q6, q5
106 vqsub.s16 q6, q11, q2
110 vtrn.32 q4, q6
113 vtrn.16 q6, q7
117 ; q6: l 2, 6,10,14 r 2, 6,10,14
129 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2
130 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2
152 vqsub.s16 q6, q3, q8
[all …]
Didct_dequant_full_2x_neon.asm59 ; q6: 4 * sinpi : c1/temp1
63 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2
89 vqsub.s16 q2, q6, q5
98 vqsub.s16 q6, q11, q2
102 vtrn.32 q4, q6
105 vtrn.16 q6, q7
109 ; q6: l 2, 6,10,14 r 2, 6,10,14
121 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2
122 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2
144 vqsub.s16 q6, q3, q8
[all …]
/external/libvpx/vp8/encoder/arm/neon/
Dvp8_subpixelvariance8x8_neon.asm49 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0])
59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1])
65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
76 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0])
88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1])
94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8
118 vmull.u8 q6, d27, d0
127 vmlal.u8 q6, d28, d1
136 vqrshrn.u16 d27, q6, #7
174 vsubl.u8 q6, d24, d2
[all …]
Dvp8_subpixelvariance16x16s_neon.asm58 vext.8 q7, q6, q7, #1
64 vrhadd.u8 q3, q6, q7
68 vsubl.u8 q6, d2, d24
84 vpadal.s16 q8, q6
149 vld1.u8 {q6}, [r0], r1
156 vrhadd.u8 q4, q4, q6
157 vrhadd.u8 q6, q6, q15
256 vext.8 q7, q6, q7, #1
261 vrhadd.u8 q3, q6, q7
266 vld1.8 {q6}, [r2], r3
[all …]
Dfastfdct8x4_neon.asm60 vshl.i16 q6, q6, #1 ; c1, d1
71 vqdmulh.s16 q10, q6, d0[0]
73 vqdmulh.s16 q9, q6, d0[2]
82 …vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x…
122 vqdmulh.s16 q10, q6, d0[0]
124 vqdmulh.s16 q9, q6, d0[2]
133 …vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x…
146 vclt.s16 q6, q2, #0
151 vsub.s16 q2, q2, q6
Dsad16_neon.asm37 vld1.8 {q6}, [r2], r3
62 vld1.8 {q6}, [r2], r3
87 vld1.8 {q6}, [r2], r3
112 vld1.8 {q6}, [r2], r3
156 vld1.8 {q6}, [r2], r3
180 vld1.8 {q6}, [r2], r3
Dfastfdct4x4_neon.asm55 vqdmulh.s16 q6, q5, d0[1]
59 vshr.s16 q6, q6, #1
85 vqdmulh.s16 q6, q5, d0[1]
89 vshr.s16 q6, q6, #1
Dshortfdct_neon.asm63 vmull.s16 q6, d22, d4[2] ;i=2
68 vmlal.s16 q6, d24, d5[2]
73 vmlal.s16 q6, d26, d6[2]
78 vmlal.s16 q6, d28, d7[2] ;sumtemp for i=2
83 vrshr.s32 q2, q6, #16
/external/llvm/test/CodeGen/X86/
Davx2-vbroadcast.ll13 %q6 = insertelement <16 x i8> %q5, i8 %q, i32 6
14 %q7 = insertelement <16 x i8> %q6, i8 %q, i32 7
35 %q6 = insertelement <32 x i8> %q5, i8 %q, i32 6
36 %q7 = insertelement <32 x i8> %q6, i8 %q, i32 7
75 %q6 = insertelement <8 x i16> %q5, i16 %q, i32 6
76 %q7 = insertelement <8 x i16> %q6, i16 %q, i32 7
89 %q6 = insertelement <16 x i16> %q5, i16 %q, i32 6
90 %q7 = insertelement <16 x i16> %q6, i16 %q, i32 7
121 %q6 = insertelement <8 x i32> %q5, i32 %q, i32 6
122 %q7 = insertelement <8 x i32> %q6, i32 %q, i32 7

123