/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 414 vqmovn.s16 d28, q15 449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0 450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3 451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2 453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2 455 vqrshrn.u16 d18, q15, #3 ; r_op2 457 vsub.i16 q15, q10 459 vadd.i16 q15, q14 [all …]
|
D | vp9_idct8x8_add_neon.asm | 20 ; loaded in q8-q15. The output will be stored back into q8-q15 registers. 88 vmull.s16 q15, d17, d0 96 vmlsl.s16 q15, d25, d0 107 vqrshrn.s32 d23, q15, #14 ; >> 14 134 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 137 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] 180 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7]; 183 ; Transpose a 8x8 16bit data matrix. Datas are loaded in q8-q15. 193 vtrn.32 q13, q15 197 vtrn.16 q14, q15 [all …]
|
D | vp9_iht4x4_add_neon.asm | 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use 29 vmull.s16 q15, d17, d2 ; input[1] * cospi_24_64 33 vmlsl.s16 q15, d19, d0 ; input[1] * cospi_24_64 - input[3] * cospi_8_64 39 vqrshrn.s32 d29, q15, #14 56 ; q14,q15 registers and use them as buffer during calculation. 64 vmovl.s16 q15, d16 ; expand x0 from 16 bit to 32 bit 65 vaddw.s16 q15, q15, d19 ; x0 + x3 67 vsubw.s16 q15, q15, d18 ; s7 = x0 + x3 - x2 75 vmul.s32 q15, q15, q8 ; x2 = sinpi_3_9 * s7 85 vqrshrn.s32 d18, q15, #14
|
D | vp9_idct16x16_add_neon.asm | 21 ; Transpose a 8x8 16bit data matrix. Datas are loaded in q8-q15. 31 vtrn.32 q13, q15 35 vtrn.16 q14, q15 46 ; idct16 stage1 - stage6 on all the elements loaded in q8-q15. The output 47 ; will be stored back into q8-q15 registers. This function will touch q0-q7 52 ; load elements of 0, 2, 4, 6, 8, 10, 12, 14 into q8 - q15 59 vld2.s16 {q14,q15}, [r0]! 61 vmov.s16 q15, q1 129 vmull.s16 q15, d27, d3 137 vmlal.s16 q15, d23, d2 [all …]
|
D | vp9_iht8x8_add_neon.asm | 101 ; Transpose a 8x8 16bits data matrix. Datas are loaded in q8-q15. 111 vtrn.32 q13, q15 115 vtrn.16 q14, q15 119 ; loaded in q8-q15. The IDCT constants are loaded in r3 - r9. The output 120 ; will be stored back into q8-q15 registers. This macro will touch q0-q7 187 vmull.s16 q15, d17, d0 195 vmlsl.s16 q15, d25, d0 206 vqrshrn.s32 d23, q15, #14 ; >> 14 232 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] [all …]
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
D | vp9_mb_lpf_neon.asm | 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 414 vqmovn.s16 d28, q15 449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0 450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3 451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2 453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2 455 vqrshrn.u16 d18, q15, #3 ; r_op2 457 vsub.i16 q15, q10 459 vadd.i16 q15, q14 [all …]
|
D | vp9_idct8x8_add_neon.asm | 20 ; loaded in q8-q15. The output will be stored back into q8-q15 registers. 88 vmull.s16 q15, d17, d0 96 vmlsl.s16 q15, d25, d0 107 vqrshrn.s32 d23, q15, #14 ; >> 14 134 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 137 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] 180 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7]; 183 ; Transpose a 8x8 16bit data matrix. Datas are loaded in q8-q15. 193 vtrn.32 q13, q15 197 vtrn.16 q14, q15 [all …]
|
D | vp9_iht4x4_add_neon.asm | 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use 29 vmull.s16 q15, d17, d2 ; input[1] * cospi_24_64 33 vmlsl.s16 q15, d19, d0 ; input[1] * cospi_24_64 - input[3] * cospi_8_64 39 vqrshrn.s32 d29, q15, #14 56 ; q14,q15 registers and use them as buffer during calculation. 64 vmovl.s16 q15, d16 ; expand x0 from 16 bit to 32 bit 65 vaddw.s16 q15, q15, d19 ; x0 + x3 67 vsubw.s16 q15, q15, d18 ; s7 = x0 + x3 - x2 75 vmul.s32 q15, q15, q8 ; x2 = sinpi_3_9 * s7 85 vqrshrn.s32 d18, q15, #14
|
D | vp9_idct16x16_add_neon.asm | 21 ; Transpose a 8x8 16bit data matrix. Datas are loaded in q8-q15. 31 vtrn.32 q13, q15 35 vtrn.16 q14, q15 46 ; idct16 stage1 - stage6 on all the elements loaded in q8-q15. The output 47 ; will be stored back into q8-q15 registers. This function will touch q0-q7 52 ; load elements of 0, 2, 4, 6, 8, 10, 12, 14 into q8 - q15 59 vld2.s16 {q14,q15}, [r0]! 61 vmov.s16 q15, q1 129 vmull.s16 q15, d27, d3 137 vmlal.s16 q15, d23, d2 [all …]
|
D | vp9_iht8x8_add_neon.asm | 101 ; Transpose a 8x8 16bits data matrix. Datas are loaded in q8-q15. 111 vtrn.32 q13, q15 115 vtrn.16 q14, q15 119 ; loaded in q8-q15. The IDCT constants are loaded in r3 - r9. The output 120 ; will be stored back into q8-q15 registers. This macro will touch q0-q7 187 vmull.s16 q15, d17, d0 195 vmlsl.s16 q15, d25, d0 206 vqrshrn.s32 d23, q15, #14 ; >> 14 232 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_8x8.s | 198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 206 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) 237 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3) 248 …vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(par… 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4) 274 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct) 305 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 310 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) 332 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) [all …]
|
D | ihevc_itrans_recon_32x32.s | 214 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3) 219 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3) 254 vmlsl.s16 q15,d14,d7[1] 260 vmlsl.s16 q15,d15,d3[3] 284 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3) 289 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3) 328 vmlsl.s16 q15,d14,d6[3] 334 vmlal.s16 q15,d15,d5[3] 360 vmlal.s16 q15,d8,d2[1] @// y1 * sin1(part of b3) 365 vmlal.s16 q15,d9,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) [all …]
|
D | ihevc_itrans_recon_16x16.s | 245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 250 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3) 272 vmlsl.s16 q15,d8,d0[3] 278 vmlal.s16 q15,d9,d3[3] 320 vmlal.s16 q15,d6,d0[1] @// y1 * sin1(part of b3) 325 vmlal.s16 q15,d7,d3[1] @// y1 * sin1 - y3 * sin3(part of b3) 332 vmlsl.s16 q15,d8,d1[1] 338 vmlsl.s16 q15,d9,d2[1] 380 vadd.s32 q8,q9,q15 381 vsub.s32 q14,q9,q15 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp.s | 156 vqrshrun.s16 d30,q15,#6 @rounding shift 187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 189 vmlal.s16 q15,d1,d13 190 vmlal.s16 q15,d2,d14 192 vmlal.s16 q15,d3,d15 204 vqshrn.s32 d30,q15,#6 @right shift 213 vqrshrun.s16 d30,q15,#6 @rounding shift 233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 235 vmlal.s16 q15,d1,d13 237 vmlal.s16 q15,d2,d14 [all …]
|
D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 188 vmlal.s16 q15,d1,d13 189 vmlal.s16 q15,d2,d14 191 vmlal.s16 q15,d3,d15 202 vqshrn.s32 d30,q15,#6 @right shift 230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 232 vmlal.s16 q15,d1,d13 234 vmlal.s16 q15,d2,d14 235 vmlal.s16 q15,d3,d15 248 vqshrn.s32 d30,q15,#6 @right shift [all …]
|
D | ihevc_inter_pred_chroma_vert_w16out.s | 232 vmull.u8 q15,d5,d1 @mul with coeff 1 234 vmlsl.u8 q15,d4,d0 236 vmlal.u8 q15,d6,d2 237 vmlsl.u8 q15,d7,d3 252 vst1.8 {q15},[r1]! @stores the loaded value 275 vmull.u8 q15,d5,d1 @mul with coeff 1 277 vmlsl.u8 q15,d4,d0 279 vmlal.u8 q15,d6,d2 281 vmlsl.u8 q15,d7,d3 306 vst1.8 {q15},[r1]! @stores the loaded value [all …]
|
/external/jpeg/ |
D | jsimd_arm_neon.S | 206 vmul.s16 q7, q7, q15 248 vmov.s16 q15, #(0x80 << 5) 249 vqadd.s16 q2, q2, q15 250 vqadd.s16 q3, q3, q15 251 vqadd.s16 q4, q4, q15 252 vqadd.s16 q5, q5, q15 253 vqadd.s16 q6, q6, q15 254 vqadd.s16 q7, q7, q15 255 vqadd.s16 q8, q8, q15 256 vqadd.s16 q9, q9, q15 [all …]
|
/external/valgrind/main/none/tests/arm/ |
D | neon128.c | 364 TESTINSN_imm("vmov.i64 q15", q15, 0xFF0000FF00FFFF00); in main() 378 TESTINSN_imm("vmvn.i64 q15", q15, 0xFF0000FF00FFFF00); in main() 386 TESTINSN_imm("vorr.i32 q15", q15, 0x7000000); in main() 394 TESTINSN_imm("vbic.i32 q15", q15, 0x7000000); in main() 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); in main() 403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24); in main() 409 TESTINSN_un("vmov q0, q15", q0, q15, i32, 7); in main() 422 TESTINSN_bin("vadd.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); in main() 435 TESTINSN_bin("vsub.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); in main() 441 TESTINSN_bin("vand q15, q15, q15", q15, q15, i8, 0xff, q15, i8, 0xff); in main() [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | loopfiltersimplehorizontaledge_neon.asm | 33 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 36 vqadd.u8 q15, q15, q15 ; abs(p0 - q0) * 2 40 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 47 vcge.u8 q15, q1, q15 ; (abs(p0 - q0)*2 + abs(p1-q1)/2 > limit)*-1 66 vand q14, q4, q15 ; vp8_filter &= mask
|
D | loopfiltersimpleverticaledge_neon.asm | 53 vabd.u8 q15, q5, q4 ; abs(p0 - q0) 56 vqadd.u8 q15, q15, q15 ; abs(p0 - q0) * 2 60 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 67 vcge.u8 q15, q1, q15 ; abs(p0 - q0)*2 + abs(p1-q1)/2 > flimit*2 + limit)*-1 89 vand q14, q14, q15 ; vp8_filter &= mask
|
/external/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 171 vrshr.u16 q15, q12, #8 174 vraddhn.u16 d22, q12, q15 282 vrshr.u16 q15, q12, #8 289 vraddhn.u16 d22, q12, q15 369 vrshr.u16 q15, q12, #8 372 vraddhn.u16 d22, q12, q15 503 vqadd.u8 q15, q1, q3 525 vqadd.u8 q15, q1, q3 557 vqadd.u8 q15, q1, q3 594 vrshr.u16 q15, q9, #8 [all …]
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
D | loopfiltersimpleverticaledge_neon.asm | 54 vabd.u8 q15, q5, q4 ; abs(p0 - q0) 57 vqadd.u8 q15, q15, q15 ; abs(p0 - q0) * 2 61 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 68 vcge.u8 q15, q1, q15 ; abs(p0 - q0)*2 + abs(p1-q1)/2 > flimit*2 + limit)*-1 90 vand q14, q14, q15 ; vp8_filter &= mask
|
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
D | transform_neon.S | 53 vmov.u32 q15, #0 @ Initialize the maximum values for tmpInRe. 449 vmax.u32 q7, q15 532 vneg.s32 q15, q8 @ -sh 547 vshl.s32 q10, q10, q15 548 vshl.s32 q11, q11, q15 549 vshl.s32 q8, q8, q15 550 vshl.s32 q9, q9, q15 562 vshl.s32 q0, q0, q15 563 vshl.s32 q1, q1, q15 564 vshl.s32 q2, q2, q15 [all …]
|
/external/openssl/crypto/aes/asm/ |
D | bsaes-armv7.S | 1091 vstmia r12, {q15} @ save last round key 1107 vstmia r12, {q15} @ save last round key 1115 vld1.8 {q15}, [r8] @ load IV 1134 vstmia r9, {q15} @ put aside IV 1147 vld1.8 {q14-q15}, [r0]! 1175 vstmia r9, {q15} @ put aside IV 1201 vld1.8 {q15}, [r0]! 1224 vld1.8 {q15}, [r0]! 1242 vld1.8 {q15}, [r0]! 1260 vld1.8 {q15}, [r0]! [all …]
|
/external/chromium_org/third_party/openssl/openssl/crypto/ |
D | armv4cpuid.S | 10 .word 0xf26ee1fe @ vorr q15,q15,q15 111 .word 0xf34ee1fe @ veor q15, q15, q15
|