Home
last modified time | relevance | path

Searched refs:q6 (Results 1 – 25 of 140) sorted by relevance

123456

/external/llvm/test/MC/ARM/
Dneon-shuffle-encoding.s95 vtrn.8 q14, q6
96 vtrn.i8 q14, q6
97 vtrn.u8 q14, q6
98 vtrn.p8 q14, q6
99 vtrn.16 q14, q6
100 vtrn.i16 q14, q6
101 vtrn.u16 q14, q6
102 vtrn.p16 q14, q6
103 vtrn.32 q14, q6
104 vtrn.i32 q14, q6
[all …]
Dneon-shiftaccum-encoding.s8 vsra.s16 q3, q6, #16
17 vsra.u32 q3, q6, #21
26 vsra.s16 q6, #16
35 vsra.u32 q6, #21
43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2]
52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3]
60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2]
69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3]
84 vrsra.u8 q5, q6, #8
85 vrsra.u16 q6, q7, #16
[all …]
Dneont2-shiftaccum-encoding.s10 vsra.s16 q3, q6, #16
19 vsra.u32 q3, q6, #21
28 vsra.s16 q6, #16
37 vsra.u32 q6, #21
45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61]
54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61]
62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1]
71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1]
87 vrsra.u8 q5, q6, #8
88 vrsra.u16 q6, q7, #16
[all …]
Dneon-minmax-encoding.s20 vmax.s16 q4, q5, q6
24 vmax.u32 q6, q7, q8
28 vmax.s16 q5, q6
50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2]
54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3]
57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2]
82 vmin.s16 q4, q5, q6
86 vmin.u32 q6, q7, q8
90 vmin.s16 q5, q6
112 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x5c,0x86,0x1a,0xf2]
[all …]
Dneont2-minmax-encoding.s22 vmax.s16 q4, q5, q6
26 vmax.u32 q6, q7, q8
30 vmax.s16 q5, q6
52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86]
56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6]
59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6]
84 vmin.s16 q4, q5, q6
88 vmin.u32 q6, q7, q8
92 vmin.s16 q5, q6
114 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x5c,0x86]
[all …]
/external/llvm/test/CodeGen/ARM/
Dthumb-big-stack.ll145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q…
[all …]
/external/libavc/encoder/arm/
Dih264e_evaluate_intra4x4_modes_a9q.s238 vaddl.u8 q6, d0, d2
243 vqrshrun.s16 d10, q6, #1
245 vadd.u16 q11, q6, q8
258 vext.8 q15, q6, q6, #5
260 vext.8 q15, q6, q6, #15
262 vext.8 q15, q6, q6, #2
265 vext.8 q15, q6, q6, #4
287 vext.8 q15, q6, q6, #3
289 vext.8 q15, q6, q6, #1
291 vext.8 q15, q6, q6, #4
[all …]
/external/boringssl/linux-arm/crypto/aes/
Dbsaes-armv7.S1107 vldmia sp, {q6}
1109 veor q7, q7, q6 @ fix up round 0 key
1123 vldmia r4, {q6}
1125 veor q7, q7, q6 @ fix up round 0 key
1149 vld1.8 {q6,q7}, [r0]
1160 veor q6, q6, q9
1168 vst1.8 {q6}, [r1]!
1204 vld1.8 {q6}, [r0]!
1214 veor q6, q6, q9
1222 vst1.8 {q6}, [r1]!
[all …]
/external/libhevc/common/arm/
Dihevc_intra_pred_chroma_planar.s180 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1]
182 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col]
184 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1]
186 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row]
202 vadd.i16 q6, q6, q8 @add (nt)
204 vshl.s16 q6, q6, q7 @shr
219 vmovn.i16 d12, q6
247 vmull.u8 q6, d18, d0 @(row+1) * src[nt-1]
249 vmlal.u8 q6, d19, d10 @(nt-1-row) * src[2nt+1+col]
252 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1]
[all …]
Dihevc_inter_pred_luma_vert_w16inp_w16out.s190 vmull.s16 q6,d3,d23
192 vmlal.s16 q6,d2,d22
194 vmlal.s16 q6,d4,d24
195 vmlal.s16 q6,d5,d25
196 vmlal.s16 q6,d6,d26
197 vmlal.s16 q6,d7,d27
198 vmlal.s16 q6,d16,d28
199 vmlal.s16 q6,d17,d29
220 vsub.s32 q6, q6, q15
246 vshrn.s32 d12, q6, #6
[all …]
Dihevc_inter_pred_filters_luma_vert_w16inp.s180 vmull.s16 q6,d3,d23
182 vmlal.s16 q6,d2,d22
184 vmlal.s16 q6,d4,d24
185 vmlal.s16 q6,d5,d25
186 vmlal.s16 q6,d6,d26
187 vmlal.s16 q6,d7,d27
188 vmlal.s16 q6,d16,d28
189 vmlal.s16 q6,d17,d29
209 vqshrn.s32 d12, q6, #6
233 vqrshrun.s16 d12,q6,#6
[all …]
Dihevc_intra_pred_luma_planar.s183 vdup.16 q6, r4 @(1)
188 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1]
191 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1]
194 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col]
197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row]
213 vshl.s16 q6, q6, q7 @(1)shr
218 vmovn.i16 d12, q6 @(1)
332 vdup.16 q6, r4 @(1n)(1)
350 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1]
353 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1]
[all …]
Dihevc_inter_pred_filters_luma_vert.s201 vmull.u8 q6,d3,d23
203 vmlsl.u8 q6,d2,d22
205 vmlsl.u8 q6,d4,d24
206 vmlal.u8 q6,d5,d25
207 vmlal.u8 q6,d6,d26
208 vmlsl.u8 q6,d7,d27
209 vmlal.u8 q6,d16,d28
210 vmlsl.u8 q6,d17,d29
232 vqrshrun.s16 d12,q6,#6
292 vmull.u8 q6,d3,d23
[all …]
Dihevc_itrans_recon_4x4.s159 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2]
161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
164 vadd.s32 q8,q6,q4 @((e[1] + o[1])
165 vsub.s32 q9,q6,q4 @((e[1] - o[1])
189 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2]
191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
195 vadd.s32 q8,q6,q4 @((e[1] + o[1])
196 vsub.s32 q9,q6,q4 @((e[1] - o[1])
Dihevc_itrans_recon_4x4_ttype1.s157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2]
158 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1]
159 … vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
160 …vmlal.s16 q6,d0,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2…
165 vqrshrn.s32 d17,q6,#shift_stage1_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct
197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2]
198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
199 … vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
200 …vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2…
205 vqrshrn.s32 d3,q6,#shift_stage2_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct
/external/boringssl/src/crypto/curve25519/asm/
Dx25519-asm-arm.S28 vpush {q4,q5,q6,q7}
98 vshr.u64 q6,q6,#3
106 vand q6,q6,q2
130 vadd.i64 q6,q6,q12
132 vadd.i64 q14,q6,q1
143 vsub.i64 q6,q6,q12
164 vshl.i64 q6,q13,#4
167 vadd.i64 q4,q4,q6
168 vadd.i64 q6,q10,q0
170 vadd.i64 q8,q6,q1
[all …]
/external/libvpx/libvpx/vp8/common/arm/neon/
Dvp8_loopfilter_neon.c22 uint8x16_t q6, // p0 in vp8_loop_filter_neon() argument
39 q13u8 = vabdq_u8(q5, q6); in vp8_loop_filter_neon()
49 q9 = vabdq_u8(q6, q7); in vp8_loop_filter_neon()
66 q6 = veorq_u8(q6, q10); in vp8_loop_filter_neon()
75 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon()
77 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon()
110 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8); in vp8_loop_filter_neon()
134 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_loop_filter_horizontal_edge_y_neon() local
147 q6 = vld1q_u8(src); in vp8_loop_filter_horizontal_edge_y_neon()
158 q5, q6, q7, q8, q9, q10, in vp8_loop_filter_horizontal_edge_y_neon()
[all …]
Dmbloopfilter_neon.c21 uint8x16_t q6, // p0 in vp8_mbloop_filter_neon() argument
41 q13u8 = vabdq_u8(q5, q6); in vp8_mbloop_filter_neon()
51 q12u8 = vabdq_u8(q6, q7); in vp8_mbloop_filter_neon()
69 q6 = veorq_u8(q6, q0u8); in vp8_mbloop_filter_neon()
80 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon()
82 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon()
111 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8); in vp8_mbloop_filter_neon()
162 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_mbloop_filter_horizontal_edge_y_neon() local
176 q6 = vld1q_u8(src); in vp8_mbloop_filter_horizontal_edge_y_neon()
187 q5, q6, q7, q8, q9, q10, in vp8_mbloop_filter_horizontal_edge_y_neon()
[all …]
Didct_dequant_full_2x_neon.c24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; in idct_dequant_full_2x_neon() local
89 q6 = vqdmulhq_n_s16(q4, sinpi8sqrt2); in idct_dequant_full_2x_neon()
103 q2 = vqsubq_s16(q6, q5); in idct_dequant_full_2x_neon()
108 q6 = vqsubq_s16(q11, q2); in idct_dequant_full_2x_neon()
111 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); in idct_dequant_full_2x_neon()
138 q6 = vqsubq_s16(q3, q8); in idct_dequant_full_2x_neon()
143 q6 = vrshrq_n_s16(q6, 3); in idct_dequant_full_2x_neon()
146 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); in idct_dequant_full_2x_neon()
157 q6 = vreinterpretq_s16_u16(vaddw_u8(vreinterpretq_u16_s16(q2tmp3.val[0]), in idct_dequant_full_2x_neon()
164 d30 = vreinterpret_s32_u8(vqmovun_s16(q6)); in idct_dequant_full_2x_neon()
/external/libjpeg-turbo/simd/
Djsimd_arm_neon.S108 INT32 q1, q2, q3, q4, q5, q6, q7; \
123 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \
129 q4 = q6; \
131 q6 += MULTIPLY(row5, -FIX_2_562915447) + \
138 q1 = q1 + q6; \
146 q1 = q1 - q6; \
149 q1 = q1 - q6; \
150 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \
158 q2 = q1 + q6; \
159 q1 = q1 - q6; \
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_vert_a9q.s126 vaddl.u8 q6, d4, d6 @ temp1 = src[2_0] + src[3_0]
131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
137 vaddl.u8 q6, d6, d8
141 vmla.u16 q8, q6, q11
144 vaddl.u8 q6, d7, d9
148 vmla.u16 q7, q6, q11
152 vaddl.u8 q6, d8, d10
155 vmla.u16 q9, q6, q11
159 vaddl.u8 q6, d9, d11
162 vmla.u16 q8, q6, q11
[all …]
Dih264_inter_pred_luma_vert_qpel_a9q.s134 vaddl.u8 q6, d4, d6 @ temp1 = src[2_0] + src[3_0]
138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
144 vaddl.u8 q6, d6, d8
148 vmla.u16 q8, q6, q11
151 vaddl.u8 q6, d7, d9
155 vmla.u16 q7, q6, q11
161 vaddl.u8 q6, d8, d10
164 vmla.u16 q9, q6, q11
168 vaddl.u8 q6, d9, d11
171 vmla.u16 q8, q6, q11
[all …]
Dih264_iquant_itrans_recon_a9.s181 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined
355 vsub.s16 q6, q2, q3 @x0-x3 and x1-x2 combined
535 vmull.s16 q6, d18, d22 @ p[i] = (x[i] * trns_coeff[i]) where i=24..27
545 vshl.s32 q6, q6, q15 @
552 vqrshrn.s32 d6, q6, #0x6 @ D6 = c[i] = ((q[i] + 32) >> 6) where i = 24..27
555 vmull.s16 q6, d18, d22 @
563 vshl.s32 q6, q6, q15 @
569 vqrshrn.s32 d10, q6, #0x6 @ D10 = c[i] = ((q[i] + 32) >> 6) where i = 40..43
571 vmull.s16 q6, d16, d20 @ i= 48..51
575 vshl.s32 q6, q6, q15 @
[all …]
Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s330 vaddl.u8 q6, d0, d10
332 vmla.u16 q6, q7, q13
337 vmls.u16 q6, q8, q12
342 vst1.32 {q6}, [r9]! @ store row 0 to temp buffer: col 0
343 vext.16 q11, q6, q7, #5
349 vext.16 q8, q6, q7, #2
351 vext.16 q9, q6, q7, #3
352 vext.16 q10, q6, q7, #4
353 vext.16 q7, q6, q7, #1
369 vqmovn.u16 d25, q6
[all …]
/external/libvpx/libvpx/vpx_dsp/arm/
Didct32x32_add_neon.asm103 ; q6-q9 contain the results (out[j * 32 + 0-31])
115 vrshr.s16 q6, q6, #6
120 vaddw.u8 q6, q6, d8
125 vqmovun.s16 d8, q6
137 ; q6-q9 contain the results (out[j * 32 + 0-31])
149 vrshr.s16 q6, q6, #6
154 vaddw.u8 q6, q6, d8
159 vqmovun.s16 d8, q6
181 vrshr.s16 q6, q6, #6
186 vaddw.u8 q6, q6, d6
[all …]

123456