/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
D | sha512-armv4.S | 455 vshr.u64 d26,d20,#41 459 vsli.64 d26,d20,#23 467 veor d24,d26 @ Sigma1(e) 473 vshr.u64 d26,d16,#39 476 vsli.64 d26,d16,#25 482 veor d23,d26 @ Sigma0(a) 492 vshr.u64 d26,d19,#41 496 vsli.64 d26,d19,#23 504 veor d24,d26 @ Sigma1(e) 510 vshr.u64 d26,d23,#39 [all …]
|
/external/openssl/crypto/sha/asm/ |
D | sha512-armv4.S | 455 vshr.u64 d26,d20,#41 459 vsli.64 d26,d20,#23 467 veor d24,d26 @ Sigma1(e) 473 vshr.u64 d26,d16,#39 476 vsli.64 d26,d16,#25 482 veor d23,d26 @ Sigma0(a) 492 vshr.u64 d26,d19,#41 496 vsli.64 d26,d19,#23 504 veor d24,d26 @ Sigma1(e) 510 vshr.u64 d26,d23,#39 [all …]
|
/external/jpeg/ |
D | jsimd_arm_neon.S | 199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]! 425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]! 440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29 441 transpose_4x4 d26, d27, d28, d29 447 vqmovun.s16 d26, q13 461 vst1.32 {d26[0]}, [TMP1]! 463 vst1.32 {d26[1]}, [TMP2]! 466 vst1.8 {d26[0]}, [TMP1]! 468 vst1.8 {d26[1]}, [TMP1]! 470 vst1.8 {d26[2]}, [TMP1]! [all …]
|
/external/openssl/crypto/bn/asm/ |
D | armv4-gf2m.S | 99 vmov.32 d26, r2, r1 105 vext.8 d2, d26, d26, #1 @ A1 108 vmull.p8 q0, d26, d0 @ E = A*B1 109 vext.8 d4, d26, d26, #2 @ A2 112 vmull.p8 q8, d26, d16 @ G = A*B2 113 vext.8 d6, d26, d26, #3 @ A3 118 vmull.p8 q0, d26, d0 @ I = A*B3 124 vmull.p8 q8, d26, d16 @ K = A*B4 135 vmull.p8 q0, d26, d27 @ D = A*B
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 69 vst1.u8 {d26}, [r8@64], r1 ; store oq1 98 vst1.u8 {d26}, [r8@64], r1 ; store op3 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r1 [all …]
|
D | vp9_convolve8_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 218 vld1.u32 {d26[0]}, [r4], r1 219 vld1.u32 {d26[1]}, [r7], r1 224 vmovl.u8 q13, d26 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | vp9_convolve8_avg_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 229 vld1.u32 {d26[0]}, [r4], r1 230 vld1.u32 {d26[1]}, [r7], r1 235 vmovl.u8 q13, d26 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | vp9_idct4x4_add_neon.asm | 93 vqrshrn.s32 d26, q13, #14 144 vqrshrn.s32 d26, q13, #14 167 vld1.32 {d26[0]}, [r1], r2 168 vld1.32 {d26[1]}, [r1], r2 173 vaddw.u8 q8, q8, d26 177 vqmovun.s16 d26, q8 185 vst1.32 {d26[1]}, [r1], r2 186 vst1.32 {d26[0]}, [r1] ; no post-increment
|
D | vp9_iht4x4_add_neon.asm | 37 vqrshrn.s32 d26, q13, #14 214 vld1.32 {d26[0]}, [r1], r2 215 vld1.32 {d26[1]}, [r1], r2 220 vaddw.u8 q8, q8, d26 224 vqmovun.s16 d26, q8 232 vst1.32 {d26[1]}, [r1], r2 233 vst1.32 {d26[0]}, [r1] ; no post-increment
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 69 vst1.u8 {d26}, [r8@64], r1 ; store oq1 98 vst1.u8 {d26}, [r8@64], r1 ; store op3 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r1 [all …]
|
D | vp9_convolve8_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 218 vld1.u32 {d26[0]}, [r4], r1 219 vld1.u32 {d26[1]}, [r7], r1 224 vmovl.u8 q13, d26 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | vp9_convolve8_avg_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 229 vld1.u32 {d26[0]}, [r4], r1 230 vld1.u32 {d26[1]}, [r7], r1 235 vmovl.u8 q13, d26 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all …]
|
D | vp9_idct4x4_add_neon.asm | 93 vqrshrn.s32 d26, q13, #14 144 vqrshrn.s32 d26, q13, #14 167 vld1.32 {d26[0]}, [r1], r2 168 vld1.32 {d26[1]}, [r1], r2 173 vaddw.u8 q8, q8, d26 177 vqmovun.s16 d26, q8 185 vst1.32 {d26[1]}, [r1], r2 186 vst1.32 {d26[0]}, [r1] ; no post-increment
|
D | vp9_iht4x4_add_neon.asm | 37 vqrshrn.s32 d26, q13, #14 214 vld1.32 {d26[0]}, [r1], r2 215 vld1.32 {d26[1]}, [r1], r2 220 vaddw.u8 q8, q8, d26 224 vqmovun.s16 d26, q8 232 vst1.32 {d26[1]}, [r1], r2 233 vst1.32 {d26[0]}, [r1] ; no post-increment
|
/external/libhevc/common/arm/ |
D | ihevc_inter_pred_chroma_horz.s | 124 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 183 vmlal.u8 q14,d5,d26 223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 239 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 252 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 271 vmlal.u8 q14,d5,d26 300 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 311 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 321 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_inter_pred_chroma_horz_w16out.s | 127 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 194 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 204 vmlal.u8 q14,d5,d26 239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 268 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 283 vmlal.u8 q14,d5,d26 309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 330 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ [all …]
|
D | ihevc_intra_pred_luma_vert.s | 190 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15) 195 @vsubl.u8 q0, d26, d22 202 @vaddl.s8 q0, d24, d26 203 vmovl.s8 q0, d26 327 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15) 330 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1 331 @vsubl.u8 q13, d26, d22 336 vmovl.s8 q13, d26 337 @vaddl.s8 q0, d24, d26
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 127 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 172 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 186 vmlal.s16 q6,d6,d26 199 vmlal.s16 q7,d7,d26 226 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 240 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 263 vmlal.s16 q6,d6,d26 286 vmlal.s16 q7,d7,d26 309 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_intra_pred_chroma_dc.s | 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 143 vpaddl.u8 d2, d26 159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 168 vpaddl.u8 d28, d26 253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 263 vshl.i64 d3,d26,#32
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 135 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 182 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 196 vmlal.s16 q6,d6,d26 210 vmlal.s16 q7,d7,d26 239 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 254 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 278 vmlal.s16 q6,d6,d26 302 vmlal.s16 q7,d7,d26 326 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 135 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 166 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 187 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 207 vmlal.u8 q6,d6,d26 222 vmlal.u8 q7,d7,d26 253 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 278 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 303 vmlal.u8 q6,d6,d26 329 vmlal.u8 q7,d7,d26 351 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 226 vqshrn.s32 d26,q13,#6 @right shift 241 vqrshrun.s16 d26,q13,#6 @rounding shift 248 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 279 vqshrn.s32 d26,q13,#6 @right shift 295 vqrshrun.s16 d26,q13,#6 @rounding shift 300 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 326 vqshrn.s32 d26,q13,#6 @right shift 329 vqrshrun.s16 d26,q13,#6 @rounding shift 332 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
|
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/ |
D | aecm_core_neon.S | 47 vld1.16 {d26, d27}, [r1]! @ far_spectrum[i] 50 vaddw.u16 q14, q14, d26 51 vmull.u16 q10, d26, d24 54 vmull.u16 q1, d26, d0 105 vld1.16 {d26, d27}, [r1]! @ &far_spectrum[i] 107 vmull.u16 q10, d26, d24
|
/external/openssl/crypto/modes/asm/ |
D | ghash-armv4.S | 322 vshr.u64 d26,d6,#63 326 vorr d7,d26 @ H<<<=1 340 vldmia r1,{d26-d27} @ load twisted H 346 veor d28,d26,d27 @ Karatsuba pre-processing 358 vldmia r1,{d26-d27} @ load twisted H 364 veor d28,d26,d27 @ Karatsuba pre-processing 374 vext.8 d16, d26, d26, #1 @ A1 377 vmull.p8 q0, d26, d0 @ E = A*B1 378 vext.8 d18, d26, d26, #2 @ A2 381 vmull.p8 q11, d26, d22 @ G = A*B2 [all …]
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | vp8_mse16x16_neon.asm | 55 vmlal.s16 q7, d26, d26 101 vmull.s16 q9, d26, d26
|