/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
D | shortfdct_neon.asm | 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000 89 vmlal.s16 q11, d7, d16 ; d1*5352 + 12000 97 vmlal.s16 q11, d6, d17 ; c1*2217 + d1*5352 + 12000 101 vshrn.s32 d1, q11, #16 ; op[4] = (c1*2217 + d1*5352 + 12000)>>16 130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3] 135 vshl.s16 q11, q11, #3 ; a1 << 3 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b1 143 vmov.s16 q11, q9 ; 14500 148 vmlal.s16 q11, d29, d16 ; B[1] = d1*5352 + 14500 [all …]
|
D | fastquantizeb_neon.asm | 58 vabs.s16 q11, q1 67 vadd.s16 q11, q7 72 vqdmulh.s16 q11, q9 94 vsub.s16 q11, q13 105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2 108 vmul.s16 q13, q7, q11 125 vtst.16 q3, q11, q8 ; non-zero element is set to all 1 130 vand q11, q7, q3 131 vmax.u16 q10, q10, q11 ; find maximum value in q10, q11 189 vld1.16 {q10, q11}, [r0@128]; load inverse scan order
|
D | vp8_shortwalsh4x4_neon.asm | 68 vsubl.s16 q11, d0, d2 ; b1 = ip[0]-ip[8] 71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1 72 vsub.s32 q2, q11, q10 ; c2 = b1 - c1 78 vclt.s32 q11, q3, #0 84 vsub.s32 q3, q3, q11 ; d2 += d2 < 0 89 vadd.s32 q11, q3, q15 ; d2 + 3 95 vshrn.s32 d3, q11, #3
|
D | subtract_neon.asm | 46 vsubl.u8 q11, d2, d3 86 vsubl.u8 q11, d5, d7 95 vst1.16 {q11}, [r5], r6 143 vsubl.u8 q11, d6, d7 152 vst1.16 {q11}, [r7], r12 179 vsubl.u8 q11, d6, d7 188 vst1.16 {q11}, [r7], r12
|
D | vp8_memcpy_neon.asm | 42 vld1.8 {q10, q11}, [r1]! 45 vst1.8 {q10, q11}, [r0]!
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
D | lattice_neon.S | 67 vmull.s32 q11, d1, d28 @ tmp32a = input0 * (*ptr0) 72 vrshrn.i64 d5, q11, #15 80 vmull.s32 q11, d7, d30 @ input2 * (*ptr2 + tmp32b) 83 vrshrn.i64 d17, q11, #16 86 vmull.s32 q11, d17, d28 @ input0 * (*ptr2) 90 vrshrn.i64 d19, q11, #15 107 vmull.s32 q11, d0, d28 @ tmp32a = input0 * (*ptr0) 111 vrshrn.i64 d4, q11, #15 114 vmull.s32 q11, d7, d30 @ input2 * (*ptr2 + tmp32b) 115 vrshrn.i64 d16, q11, #16 [all …]
|
D | lpc_masking_model_neon.S | 37 vmov.s64 q11, #0 @ Initialize shift_internal. 73 vshl.s64 q0, q11 101 vsub.s64 q11, q10 116 vshl.s64 q0, q11 145 vsub.s64 q11, q10
|
/external/valgrind/main/none/tests/arm/ |
D | neon128.c | 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); in main() 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); in main() 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); in main() 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 464 TESTINSN_bin("veor q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 474 TESTINSN_bin("vbsl q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 484 TESTINSN_bin("vbit q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() 494 TESTINSN_bin("vbif q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); in main() [all …]
|
/external/llvm/test/MC/ARM/ |
D | neont2-mul-accum-encoding.s | 45 vqdmlal.s16 q11, d11, d7[0] 46 vqdmlal.s16 q11, d11, d7[1] 47 vqdmlal.s16 q11, d11, d7[2] 48 vqdmlal.s16 q11, d11, d7[3] 52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63] 53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63] 54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63] 55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63] 85 vmlsl.u16 q11, d25, d1[3] 93 @ CHECK: vmlsl.u16 q11, d25, d1[3] @ encoding: [0xd9,0xff,0xe9,0x66]
|
D | neon-minmax-encoding.s | 22 vmax.u8 q10, q11, q12 30 vmax.u8 q11, q2 52 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0xe8,0x46,0x46,0xf3] 59 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0xc4,0x66,0x46,0xf3] 84 vmin.u8 q10, q11, q12 92 vmin.u8 q11, q2 114 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0xf8,0x46,0x46,0xf3] 121 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0xd4,0x66,0x46,0xf3]
|
D | neont2-minmax-encoding.s | 24 vmax.u8 q10, q11, q12 32 vmax.u8 q11, q2 54 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xe8,0x46] 61 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xc4,0x66] 86 vmin.u8 q10, q11, q12 94 vmin.u8 q11, q2 116 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xf8,0x46] 123 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xd4,0x66]
|
D | neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | idct_dequant_full_2x_neon.asm | 67 vqsub.s16 q11, q2, q3 ; b1 = 0 - 8 95 vqadd.s16 q5, q11, q2 96 vqsub.s16 q6, q11, q2 113 ; q11: 3 * cospi 117 vqdmulh.s16 q11, q7, d0[0] 124 vshr.s16 q11, q11, #1 127 ; q11: 3 + 3 * cospi : c1/temp2 129 vqadd.s16 q11, q7, q11 133 vqsub.s16 q8, q8, q11
|
D | loopfiltersimpleverticaledge_neon.asm | 59 vmov.s16 q11, #3 74 vmul.s16 q2, q2, q11 ; 3 * ( qs0 - ps0) 75 vmul.s16 q13, q13, q11 77 vmov.u8 q11, #0x03 ; 0x03 91 vqadd.s8 q2, q14, q11 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3) 97 vqadd.s8 q11, q5, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 100 veor q6, q11, q0 ; *op0 = u^0x80
|
D | variance_neon.asm | 41 vsubl.u8 q11, d0, d4 ;calculate diff 49 vpadal.s16 q8, q11 ;calculate sum 114 vsubl.u8 q11, d0, d4 ;calculate diff 119 vpadal.s16 q8, q11 ;calculate sum 177 vsubl.u8 q11, d0, d4 ;calculate diff 180 vpadal.s16 q8, q11 ;calculate sum 234 vsubl.u8 q11, d0, d4 ;calculate diff 239 vpadal.s16 q8, q11 ;calculate sum
|
D | mbloopfilter_neon.asm | 331 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 338 vmax.u8 q11, q11, q12 341 vmax.u8 q15, q11, q12 359 vmov.u16 q11, #3 ; #3 383 vmul.i16 q2, q2, q11 ; 3 * ( qs0 - ps0) 387 vmul.i16 q13, q13, q11 394 vmov.u8 q11, #4 ; #4 406 vqadd.s8 q2, q13, q11 ; Filter1 = clamp(Filter2+4) 414 vmov q11, q15 434 vmlal.s8 q11, d3, d5 [all …]
|
D | vp8_subpixelvariance16x16_neon.asm | 74 vmull.u8 q11, d8, d0 86 vmlal.u8 q11, d8, d1 105 vqrshrn.u16 d18, q11, #7 125 vmull.u8 q11, d5, d0 135 vmlal.u8 q11, d5, d1 165 vqrshrn.u16 d12, q11, #7 232 vmov q11, q15 262 vmull.u8 q11, d8, d0 274 vmlal.u8 q11, d8, d1 293 vqrshrn.u16 d18, q11, #7 [all …]
|
D | loopfilter_neon.asm | 306 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 313 vmax.u8 q11, q11, q12 316 vmax.u8 q15, q11, q12 346 vsubl.s8 q11, d15, d13 356 vmul.i16 q11, q11, q4 362 vaddw.s8 q11, q11, d3 368 vqmovn.s16 d3, q11 377 vqadd.s8 q11, q6, q2 ; u = clamp(ps0 + Filter2) 387 veor q6, q11, q0 ; *op0 = u^0x80
|
D | bilinearpredict16x16_neon.asm | 66 vmull.u8 q11, d8, d0 78 vmlal.u8 q11, d8, d1 97 vqrshrn.u16 d18, q11, #7 117 vmull.u8 q11, d5, d0 127 vmlal.u8 q11, d5, d1 157 vqrshrn.u16 d12, q11, #7 221 vmov q11, q15 251 vmull.u8 q11, d8, d0 263 vmlal.u8 q11, d8, d1 282 vqrshrn.u16 d18, q11, #7 [all …]
|
D | sixtappredict8x8_neon.asm | 172 vmull.u8 q11, d12, d0 184 vmlsl.u8 q11, d30, d1 196 vmlsl.u8 q11, d30, d4 208 vmlal.u8 q11, d30, d2 220 vmlal.u8 q11, d30, d5 238 vqadd.s16 q11, q6 252 vqrshrun.s16 d29, q11, #7 253 vld1.u8 {q11}, [lr]! 314 vmov q9, q11 318 vmov q11, q13 [all …]
|
D | sixtappredict16x16_neon.asm | 92 vmull.u8 q11, d10, d0 109 vmlsl.u8 q11, d29, d1 125 vmlsl.u8 q11, d29, d4 141 vmlal.u8 q11, d29, d5 157 vmlal.u8 q11, d29, d2 183 vqadd.s16 q11, q7 189 vqrshrun.s16 d9, q11, #7 275 vmov q9, q11 366 vmull.u8 q11, d27, d3 371 vqadd.s16 q8, q11 [all …]
|
D | vp8_subpixelvariance16x16s_neon.asm | 44 vld1.8 {q11}, [r2], r3 159 vsubl.u8 q11, d0, d2 ;diff 168 vpadal.s16 q8, q11 ;sum 275 vsubl.u8 q11, d2, d12 291 vpadal.s16 q13, q11 ;sum 431 vext.8 q11, q10, q11, #1 440 vrhadd.u8 q5, q10, q11 514 vsubl.u8 q11, d0, d2 ;diff 523 vpadal.s16 q8, q11 ;sum
|
/external/libvpx/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_extendframeborders_neon.asm | 56 vmov q11, q10 67 vst1.8 {q10, q11}, [r6], lr 90 vld1.8 {q10, q11}, [r2]! 104 vst1.8 {q10, q11}, [r6]! 178 vst1.8 {q11}, [r6], lr 201 vld1.8 {q10, q11}, [r2]! 211 vst1.8 {q10, q11}, [r6]!
|
D | vp8_vpxyv12_copyframe_func_neon.asm | 63 vld1.8 {q10, q11}, [r10]! 74 vst1.8 {q10, q11}, [r11]! 123 vld1.8 {q10, q11}, [r10]! 130 vst1.8 {q10, q11}, [r11]!
|
/external/openssl/crypto/ |
D | armv4cpuid.S | 107 .word 0xf34661f6 @ veor q11, q11, q11
|