/external/libvpx/vp8/encoder/arm/neon/ |
D | sad16_neon.asm | 34 vabdl.u8 q13, d1, d9 40 vabal.u8 q13, d3, d11 46 vabal.u8 q13, d5, d13 53 vabal.u8 q13, d7, d15 59 vabal.u8 q13, d1, d9 65 vabal.u8 q13, d3, d11 71 vabal.u8 q13, d5, d13 78 vabal.u8 q13, d7, d15 84 vabal.u8 q13, d1, d9 90 vabal.u8 q13, d3, d11 [all …]
|
D | subtract_neon.asm | 48 vsubl.u8 q13, d6, d7 83 vsubl.u8 q13, d9, d11 92 vst1.16 {q13}, [r0]! 133 vsubl.u8 q13, d10, d11 142 vst1.16 {q13}, [r0]! 169 vsubl.u8 q13, d10, d11 178 vst1.16 {q13}, [r0]!
|
D | vp8_subpixelvariance16x16s_neon.asm | 48 vld1.8 {q13}, [r2], r3 161 vsubl.u8 q13, d4, d6 177 vpadal.s16 q8, q13 234 vmov.i8 q13, #0 ;q8 - sum 283 vpadal.s16 q13, q9 ;sum 287 vpadal.s16 q13, q10 ;sum 291 vpadal.s16 q13, q11 ;sum 295 vpadal.s16 q13, q12 ;sum 301 vpadal.s16 q13, q0 ;sum 305 vpadal.s16 q13, q1 ;sum [all …]
|
D | shortfdct_neon.asm | 36 vmull.s16 q13, d4, d2[0] ;i=2 41 vmlal.s16 q13, d5, d2[1] 46 vmlal.s16 q13, d6, d2[2] 51 vmlal.s16 q13, d7, d2[3] ;sumtemp for i=2 57 vrshrn.i32 d26, q13, #14
|
D | vp8_subpixelvariance16x16_neon.asm | 71 vmull.u8 q13, d11, d0 82 vmlal.u8 q13, d11, d1 102 vqrshrn.u16 d20, q13, #7 122 vmull.u8 q13, d8, d0 131 vmlal.u8 q13, d8, d1 162 vqrshrn.u16 d14, q13, #7 259 vmull.u8 q13, d11, d0 270 vmlal.u8 q13, d11, d1 290 vqrshrn.u16 d20, q13, #7 378 vsubl.u8 q13, d2, d6 [all …]
|
D | variance_neon.asm | 43 vsubl.u8 q13, d2, d6 58 vpadal.s16 q8, q13 116 vsubl.u8 q13, d2, d6 128 vpadal.s16 q8, q13 236 vsubl.u8 q13, d2, d6 248 vpadal.s16 q8, q13
|
D | fastfdct8x4_neon.asm | 70 vqdmulh.s16 q13, q12, d0[1] 77 vshr.s16 q13, q13, #1 121 vqdmulh.s16 q13, q11, d0[1] 128 vshr.s16 q13, q13, #1
|
D | vp8_mse16x16_neon.asm | 46 vsubl.u8 q13, d2, d6 99 vsubl.u8 q13, d2, d6 111 vpadal.s16 q8, q13 153 vsubl.u8 q13, d2, d6
|
D | vp8_memcpy_neon.asm | 42 vld1.8 {q12, q13}, [r1]! 45 vst1.8 {q12, q13}, [r0]!
|
/external/llvm/test/MC/ARM/ |
D | neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2] [all …]
|
D | neon-minmax-encoding.s | 23 vmax.u16 q13, q14, q15 53 @ CHECK: vmax.u16 q13, q14, q15 @ encoding: [0xee,0xa6,0x5c,0xf3] 85 vmin.u16 q13, q14, q15 115 @ CHECK: vmin.u16 q13, q14, q15 @ encoding: [0xfe,0xa6,0x5c,0xf3]
|
D | neont2-minmax-encoding.s | 25 vmax.u16 q13, q14, q15 55 @ CHECK: vmax.u16 q13, q14, q15 @ encoding: [0x5c,0xff,0xee,0xa6] 87 vmin.u16 q13, q14, q15 117 @ CHECK: vmin.u16 q13, q14, q15 @ encoding: [0x5c,0xff,0xfe,0xa6]
|
/external/libvpx/vp8/common/arm/neon/ |
D | mbloopfilter_neon.asm | 380 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 386 vmax.u8 q12, q13, q14 393 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh) * -1 420 vorr q14, q13, q14 ; vp8_hevmask 423 vsubl.s8 q13, d15, d13 428 vadd.s16 q11, q13, q13 432 vadd.s16 q13, q13, q11 437 vaddw.s8 q13, q13, d3 443 vqmovn.s16 d3, q13 449 vand q13, q1, q14 ; Filter2 &= hev [all …]
|
D | loopfiltersimpleverticaledge_neon.asm | 33 vld1.s8 {d26[], d27[]}, [r3] ; limit -> q13 74 vadd.u8 q1, q1, q13 ; flimit * 2 + limit 81 vsubl.s8 q13, d9, d11 87 vadd.s16 q14, q13, q13 89 vadd.s16 q13, q13, q14 93 vaddw.s8 q13, q13, d3 96 vqmovn.s16 d3, q13
|
D | recon16x16mb_neon.asm | 30 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 42 vld1.16 {q12, q13}, [r1]! 55 vadd.s16 q5, q5, q13 81 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 93 vld1.16 {q12, q13}, [r1]! 102 vadd.s16 q5, q5, q13
|
D | recon4b_neon.asm | 25 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 37 vld1.16 {q12, q13}, [r1]! 46 vadd.s16 q5, q5, q13
|
D | bilinearpredict16x16_neon.asm | 68 vmull.u8 q13, d11, d0 79 vmlal.u8 q13, d11, d1 99 vqrshrn.u16 d20, q13, #7 119 vmull.u8 q13, d8, d0 128 vmlal.u8 q13, d8, d1 159 vqrshrn.u16 d14, q13, #7 253 vmull.u8 q13, d11, d0 264 vmlal.u8 q13, d11, d1 284 vqrshrn.u16 d20, q13, #7
|
D | reconb_neon.asm | 32 vld1.16 {q12, q13}, [r1]! 34 vld1.16 {q13}, [r1]
|
D | sixtappredict16x16_neon.asm | 55 vabs.s32 q13, q15 83 vmull.u8 q13, d13, d0 99 vmlsl.u8 q13, d30, d1 115 vmlsl.u8 q13, d30, d4 131 vmlal.u8 q13, d30, d5 147 vmlal.u8 q13, d30, d2 173 vqadd.s16 q13, q3 180 vqrshrun.s16 d11, q13, #7 288 vabs.s32 q13, q15
|
D | copymem16x16_neon.asm | 46 vld1.u8 {q13}, [r0], r1 51 vst1.u8 {q13}, [r2], r3
|
D | loopfilter_neon.asm | 316 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 323 vmax.u8 q12, q13, q14 328 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 359 vorr q14, q13, q14 ; vp8_hevmask 389 vqadd.s8 q13, q5, q1 ; u = clamp(ps1 + vp8_filter) 392 veor q5, q13, q0 ; *op1 = u^0x80
|
/external/openssl/crypto/sha/asm/ |
D | sha512-armv4.s | 1046 vshr.u64 q13,q7,#61 1050 vsli.64 q13,q7,#3 1053 veor q15,q13 @ sigma1(X[i+14]) 1054 vshr.u64 q13,q14,#8 1058 vsli.64 q13,q14,#56 1064 veor q15,q13 @ sigma0(X[i+1]) 1136 vshr.u64 q13,q0,#61 1140 vsli.64 q13,q0,#3 1143 veor q15,q13 @ sigma1(X[i+14]) 1144 vshr.u64 q13,q14,#8 [all …]
|
/external/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_copyframeyonly_neon.asm | 53 vld1.8 {q12, q13}, [r10]! 64 vst1.8 {q12, q13}, [r11]! 125 vmov q13, q12 136 vst1.8 {q12, q13}, [r5], lr 158 vld1.8 {q12, q13}, [r2]! 172 vst1.8 {q12, q13}, [r6]! 288 vld1.8 {q12, q13}, [r2]! 302 vst1.8 {q12, q13}, [r6]! 430 vld1.8 {q12, q13}, [r10]! 441 vst1.8 {q12, q13}, [r11]!
|
/external/openssl/crypto/ |
D | armv4cpuid.S | 109 .word 0xf34aa1fa @ veor q13, q13, q13
|
/external/valgrind/main/none/tests/arm/ |
D | neon128.c | 362 TESTINSN_imm("vmov.i32 q13", q13, 0x7FF); in main() 375 TESTINSN_imm("vmvn.i32 q13", q13, 0x7000000); in main() 422 TESTINSN_bin("vadd.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); in main() 435 TESTINSN_bin("vsub.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); in main() 731 TESTINSN_bin_q("vqshl.s64 q13, q14, q15", q13, q14, i32, -17, q15, i32, -26); in main() 735 TESTINSN_bin_q("vqshl.s32 q12, q11, q13", q12, q11, i32, -120, q13, i32, -9); in main() 738 TESTINSN_bin_q("vqshl.s32 q13, q3, q5", q13, q3, i32, (1 << 27), q5, i32, 3); in main() 746 TESTINSN_bin_q("vqshl.s8 q13, q1, q2", q13, q1, i32, -4, q2, i32, 30); in main() 755 TESTINSN_bin_q("vqshl.u64 q13, q14, q15", q13, q14, i32, -17, q15, i32, -26); in main() 759 TESTINSN_bin_q("vqshl.u32 q12, q11, q13", q12, q11, i32, -120, q13, i32, -9); in main() [all …]
|