Home
last modified time | relevance | path

Searched refs:d26 (Results 1 – 25 of 122) sorted by relevance

12345

/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
Dsha512-armv4.S455 vshr.u64 d26,d20,#41
459 vsli.64 d26,d20,#23
467 veor d24,d26 @ Sigma1(e)
473 vshr.u64 d26,d16,#39
476 vsli.64 d26,d16,#25
482 veor d23,d26 @ Sigma0(a)
492 vshr.u64 d26,d19,#41
496 vsli.64 d26,d19,#23
504 veor d24,d26 @ Sigma1(e)
510 vshr.u64 d26,d23,#39
[all …]
/external/openssl/crypto/sha/asm/
Dsha512-armv4.S455 vshr.u64 d26,d20,#41
459 vsli.64 d26,d20,#23
467 veor d24,d26 @ Sigma1(e)
473 vshr.u64 d26,d16,#39
476 vsli.64 d26,d16,#25
482 veor d23,d26 @ Sigma0(a)
492 vshr.u64 d26,d19,#41
496 vsli.64 d26,d19,#23
504 veor d24,d26 @ Sigma1(e)
510 vshr.u64 d26,d23,#39
[all …]
/external/jpeg/
Djsimd_arm_neon.S199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]!
425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]!
440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29
441 transpose_4x4 d26, d27, d28, d29
447 vqmovun.s16 d26, q13
461 vst1.32 {d26[0]}, [TMP1]!
463 vst1.32 {d26[1]}, [TMP2]!
466 vst1.8 {d26[0]}, [TMP1]!
468 vst1.8 {d26[1]}, [TMP1]!
470 vst1.8 {d26[2]}, [TMP1]!
[all …]
/external/openssl/crypto/bn/asm/
Darmv4-gf2m.S99 vmov.32 d26, r2, r1
105 vext.8 d2, d26, d26, #1 @ A1
108 vmull.p8 q0, d26, d0 @ E = A*B1
109 vext.8 d4, d26, d26, #2 @ A2
112 vmull.p8 q8, d26, d16 @ G = A*B2
113 vext.8 d6, d26, d26, #3 @ A3
118 vmull.p8 q0, d26, d0 @ I = A*B3
124 vmull.p8 q8, d26, d16 @ K = A*B4
135 vmull.p8 q0, d26, d27 @ D = A*B
/external/libvpx/libvpx/vp9/common/arm/neon/
Dvp9_mb_lpf_neon.asm69 vst1.u8 {d26}, [r8@64], r1 ; store oq1
98 vst1.u8 {d26}, [r8@64], r1 ; store op3
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r1
[all …]
Dvp9_convolve8_neon.asm84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
218 vld1.u32 {d26[0]}, [r4], r1
219 vld1.u32 {d26[1]}, [r7], r1
224 vmovl.u8 q13, d26
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Dvp9_convolve8_avg_neon.asm84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
229 vld1.u32 {d26[0]}, [r4], r1
230 vld1.u32 {d26[1]}, [r7], r1
235 vmovl.u8 q13, d26
251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Dvp9_idct4x4_add_neon.asm93 vqrshrn.s32 d26, q13, #14
144 vqrshrn.s32 d26, q13, #14
167 vld1.32 {d26[0]}, [r1], r2
168 vld1.32 {d26[1]}, [r1], r2
173 vaddw.u8 q8, q8, d26
177 vqmovun.s16 d26, q8
185 vst1.32 {d26[1]}, [r1], r2
186 vst1.32 {d26[0]}, [r1] ; no post-increment
Dvp9_iht4x4_add_neon.asm37 vqrshrn.s32 d26, q13, #14
214 vld1.32 {d26[0]}, [r1], r2
215 vld1.32 {d26[1]}, [r1], r2
220 vaddw.u8 q8, q8, d26
224 vqmovun.s16 d26, q8
232 vst1.32 {d26[1]}, [r1], r2
233 vst1.32 {d26[0]}, [r1] ; no post-increment
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
Dvp9_mb_lpf_neon.asm69 vst1.u8 {d26}, [r8@64], r1 ; store oq1
98 vst1.u8 {d26}, [r8@64], r1 ; store op3
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r1
[all …]
Dvp9_convolve8_neon.asm84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
218 vld1.u32 {d26[0]}, [r4], r1
219 vld1.u32 {d26[1]}, [r7], r1
224 vmovl.u8 q13, d26
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Dvp9_convolve8_avg_neon.asm84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
229 vld1.u32 {d26[0]}, [r4], r1
230 vld1.u32 {d26[1]}, [r7], r1
235 vmovl.u8 q13, d26
251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
[all …]
Dvp9_idct4x4_add_neon.asm93 vqrshrn.s32 d26, q13, #14
144 vqrshrn.s32 d26, q13, #14
167 vld1.32 {d26[0]}, [r1], r2
168 vld1.32 {d26[1]}, [r1], r2
173 vaddw.u8 q8, q8, d26
177 vqmovun.s16 d26, q8
185 vst1.32 {d26[1]}, [r1], r2
186 vst1.32 {d26[0]}, [r1] ; no post-increment
Dvp9_iht4x4_add_neon.asm37 vqrshrn.s32 d26, q13, #14
214 vld1.32 {d26[0]}, [r1], r2
215 vld1.32 {d26[1]}, [r1], r2
220 vaddw.u8 q8, q8, d26
224 vqmovun.s16 d26, q8
232 vst1.32 {d26[1]}, [r1], r2
233 vst1.32 {d26[0]}, [r1] ; no post-increment
/external/libhevc/common/arm/
Dihevc_inter_pred_chroma_horz.s124 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
183 vmlal.u8 q14,d5,d26
223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
239 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
252 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
271 vmlal.u8 q14,d5,d26
300 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
311 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
321 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_inter_pred_chroma_horz_w16out.s127 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
194 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
204 vmlal.u8 q14,d5,d26
239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
268 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
283 vmlal.u8 q14,d5,d26
309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
330 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
[all …]
Dihevc_intra_pred_luma_vert.s190 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15)
195 @vsubl.u8 q0, d26, d22
202 @vaddl.s8 q0, d24, d26
203 vmovl.s8 q0, d26
327 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15)
330 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1
331 @vsubl.u8 q13, d26, d22
336 vmovl.s8 q13, d26
337 @vaddl.s8 q0, d24, d26
Dihevc_inter_pred_filters_luma_vert_w16inp.s127 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
172 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
186 vmlal.s16 q6,d6,d26
199 vmlal.s16 q7,d7,d26
226 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
240 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
263 vmlal.s16 q6,d6,d26
286 vmlal.s16 q7,d7,d26
309 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_intra_pred_chroma_dc.s133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
143 vpaddl.u8 d2, d26
159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
168 vpaddl.u8 d28, d26
253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
263 vshl.i64 d3,d26,#32
Dihevc_inter_pred_luma_vert_w16inp_w16out.s135 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
182 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
196 vmlal.s16 q6,d6,d26
210 vmlal.s16 q7,d7,d26
239 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
254 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
278 vmlal.s16 q6,d6,d26
302 vmlal.s16 q7,d7,d26
326 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_filters_luma_vert.s135 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
166 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
187 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
207 vmlal.u8 q6,d6,d26
222 vmlal.u8 q7,d7,d26
253 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
278 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
303 vmlal.u8 q6,d6,d26
329 vmlal.u8 q7,d7,d26
351 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
[all …]
Dihevc_inter_pred_chroma_vert_w16inp.s226 vqshrn.s32 d26,q13,#6 @right shift
241 vqrshrun.s16 d26,q13,#6 @rounding shift
248 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
279 vqshrn.s32 d26,q13,#6 @right shift
295 vqrshrun.s16 d26,q13,#6 @rounding shift
300 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
326 vqshrn.s32 d26,q13,#6 @right shift
329 vqrshrun.s16 d26,q13,#6 @rounding shift
332 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/
Daecm_core_neon.S47 vld1.16 {d26, d27}, [r1]! @ far_spectrum[i]
50 vaddw.u16 q14, q14, d26
51 vmull.u16 q10, d26, d24
54 vmull.u16 q1, d26, d0
105 vld1.16 {d26, d27}, [r1]! @ &far_spectrum[i]
107 vmull.u16 q10, d26, d24
/external/openssl/crypto/modes/asm/
Dghash-armv4.S322 vshr.u64 d26,d6,#63
326 vorr d7,d26 @ H<<<=1
340 vldmia r1,{d26-d27} @ load twisted H
346 veor d28,d26,d27 @ Karatsuba pre-processing
358 vldmia r1,{d26-d27} @ load twisted H
364 veor d28,d26,d27 @ Karatsuba pre-processing
374 vext.8 d16, d26, d26, #1 @ A1
377 vmull.p8 q0, d26, d0 @ E = A*B1
378 vext.8 d18, d26, d26, #2 @ A2
381 vmull.p8 q11, d26, d22 @ G = A*B2
[all …]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
Dvp8_mse16x16_neon.asm55 vmlal.s16 q7, d26, d26
101 vmull.s16 q9, d26, d26

12345