/external/libvpx/vp8/encoder/arm/neon/ |
D | sad8_neon.asm | 32 vld1.8 {d10}, [r2], r3 39 vabal.u8 q12, d2, d10 52 vld1.8 {d10}, [r2], r3 59 vabal.u8 q12, d2, d10 89 vld1.8 {d10}, [r2], r3 96 vabal.u8 q12, d2, d10 109 vld1.8 {d10}, [r2], r3 116 vabal.u8 q12, d2, d10 129 vld1.8 {d10}, [r2], r3 136 vabal.u8 q12, d2, d10 [all …]
|
D | vp8_subpixelvariance16x16s_neon.asm | 47 vld1.u8 {d8, d9, d10, d11}, [r0], r1 82 vmlal.s16 q9, d10, d10 115 vshr.s32 d10, d10, #8 116 vsub.s32 d0, d1, d10 163 vsubl.u8 q0, d8, d10 211 vshr.s32 d10, d10, #8 212 vsub.s32 d0, d1, d10 246 vld1.u8 {d8, d9, d10, d11}, [r0], r1 273 vsubl.u8 q9, d0, d10 ;diff 310 vmlal.s16 q14, d10, d10 ;sse [all …]
|
D | variance_neon.asm | 86 vshr.s32 d10, d10, #8 87 vsub.s32 d0, d1, d10 148 vshr.s32 d10, d10, #7 149 vsub.s32 d0, d1, d10 203 vshr.s32 d10, d10, #7 204 vsub.s32 d0, d1, d10 268 vshr.s32 d10, d10, #6 269 vsub.s32 d0, d1, d10
|
D | sad16_neon.asm | 39 vabal.u8 q12, d2, d10 64 vabal.u8 q12, d2, d10 89 vabal.u8 q12, d2, d10 114 vabal.u8 q12, d2, d10 158 vabal.u8 q12, d2, d10 182 vabal.u8 q12, d2, d10
|
D | vp8_subpixelvariance8x8_neon.asm | 80 vmull.u8 q10, d10, d0 86 vext.8 d11, d10, d11, #1 183 vmlal.s16 q9, d10, d10 209 vshr.s32 d10, d10, #6 210 vsub.s32 d0, d1, d10
|
D | vp8_subpixelvariance16x16_neon.asm | 52 vld1.u8 {d8, d9, d10}, [r0], r1 86 vext.8 d9, d9, d10, #1 109 vld1.u8 {d8, d9, d10}, [r0], r1 135 vext.8 d9, d9, d10, #1 158 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 169 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 246 vld1.u8 {d8, d9, d10}, [r0], r1 274 vext.8 d9, d9, d10, #1 408 vshr.s32 d10, d10, #8 409 vsub.s32 d0, d1, d10
|
D | subtract_neon.asm | 82 vsubl.u8 q12, d8, d10 121 vld1.8 {d10}, [r1], r12 133 vsubl.u8 q13, d10, d11 157 vld1.8 {d10}, [r2], r12 169 vsubl.u8 q13, d10, d11
|
D | fastfdct8x4_neon.asm | 50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3] 64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 65 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1 106 vadd.s16 d10, d2, d8 ;a1 = ip[0]+ip[12] 115 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 116 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1
|
D | fastfdct4x4_neon.asm | 52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 94 vadd.s16 d2, d10, d12 ;a2 = ((temp1 * x_c2 )>>16) + temp1
|
/external/llvm/test/MC/ARM/ |
D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 13 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 16 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 18 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec]
|
/external/valgrind/main/none/tests/arm/ |
D | neon64.c | 621 TESTINSN_imm("vmov.i32 d10", d10, 0x70000); in main() 633 TESTINSN_imm("vmvn.i32 d10", d10, 0x70000); in main() 652 TESTINSN_imm("vbic.i32 d10", d10, 0x70000); in main() 657 TESTINSN_un("vmvn d10, d15", d10, d15, i32, 24); in main() 662 TESTINSN_un("vmov d10, d15", d10, d15, i32, 24); in main() 667 TESTINSN_un("vmov d10, d11", d10, d11, i16, 7); in main() 680 TESTINSN_bin("vadd.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); in main() 693 TESTINSN_bin("vsub.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); in main() 699 TESTINSN_bin("vand d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() 705 TESTINSN_bin("vbic d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed); in main() [all …]
|
D | vfp.c | 1078 TESTINSN_core_to_scalar("vmov.8 d10[1], r5", d10, r5, f2u(NAN)); in main() 1089 TESTINSN_scalar_to_core("vmov.32 r4, d10[0]", r4, d10, i32, f2u(-INFINITY)); in main() 1100 TESTINSN_scalar_to_core("vmov.u16 r0, d10[1]", r0, d10, i32, 0x11223344); in main() 1116 TESTINSN_scalar_to_core("vmov.s16 r0, d10[1]", r0, d10, i32, 0x11223344); in main() 1132 …TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0… in main() 1133 …TESTINSN_bin_f64("vmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN… in main() 1140 …TESTINSN_bin_f64("vmla.f64 d10, d11, d2", d10, d11, i32, f2u0(48755), f2u1(48755), d2, i32, f2u0(… in main() 1146 …TESTINSN_bin_f64("vmla.f64 d10, d11, d2", d10, d11, i32, f2u0(487.587), f2u1(487.587), d2, i32, f… in main() 1152 …TESTINSN_bin_f64("vmla.f64 d10, d23, d15", d10, d23, i32, f2u0(INFINITY), f2u1(INFINITY), d15, i32… in main() 1182 …TESTINSN_bin_f64("vnmla.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.… in main() [all …]
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | idct_dequant_dc_0_2x_neon.asm | 34 vld1.32 {d10[0]}, [r1], r12 35 vld1.32 {d10[1]}, [r1] 49 vaddw.u8 q5, q3, d10 54 vqmovun.s16 d10, q5 63 vst1.32 {d10[0]}, [r0], r3 64 vst1.32 {d10[1]}, [r0]
|
D | idct_dequant_0_2x_neon.asm | 33 vld1.32 {d10[0]}, [r12], r3 34 vld1.32 {d10[1]}, [r12] 56 vaddw.u8 q5, q3, d10 64 vqmovun.s16 d10, q5 73 vst1.32 {d10[0]}, [r0], r3 74 vst1.32 {d10[1]}, [r0]
|
D | dequant_idct_neon.asm | 59 vqsub.s16 d10, d6, d9 ;c1 63 vqadd.s16 d3, d13, d10 64 vqsub.s16 d4, d13, d10 90 vqsub.s16 d10, d6, d9 ;c1 94 vqadd.s16 d3, d13, d10 95 vqsub.s16 d4, d13, d10
|
/external/libvpx/vp8/common/arm/neon/ |
D | sixtappredict16x16_neon.asm | 71 vld1.u8 {d9, d10, d11}, [r0], r1 81 vmull.u8 q11, d10, d0 86 vext.8 d29, d9, d10, #1 94 vext.8 d29, d10, d11, #1 102 vext.8 d29, d9, d10, #4 110 vext.8 d29, d10, d11, #4 118 vext.8 d29, d9, d10, #5 126 vext.8 d29, d10, d11, #5 134 vext.8 d29, d9, d10, #2 142 vext.8 d29, d10, d11, #2 [all …]
|
D | sixtappredict4x4_neon.asm | 66 vext.8 d20, d10, d11, #5 81 vzip.32 d10, d11 85 vmlal.u8 q8, d10, d0 95 vzip.32 d10, d11 99 vmlsl.u8 q8, d10, d4 109 vzip.32 d10, d11 111 vmull.u8 q10, d10, d3 130 vext.8 d20, d10, d11, #5 147 vzip.32 d10, d11 152 vmlal.u8 q8, d10, d0 [all …]
|
D | loopfiltersimpleverticaledge_neon.asm | 43 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 45 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 47 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 49 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 50 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 51 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 52 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1 53 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1 55 vswp d7, d10 80 vsubl.s8 q2, d8, d10 ; ( qs0 - ps0)
|
D | loopfilter_neon.asm | 84 vld1.u8 {d10}, [r3], r1 ; p1 110 vst1.u8 {d10}, [r0], r1 ; store u op1 143 vld1.u8 {d10}, [r2], r1 185 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 186 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 187 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 188 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 189 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 190 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 191 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1 [all …]
|
D | sixtappredict8x4_neon.asm | 70 vmull.u8 q9, d10, d0 75 vext.8 d30, d10, d11, #1 85 vext.8 d30, d10, d11, #4 95 vext.8 d30, d10, d11, #2 105 vext.8 d30, d10, d11, #5 115 vext.8 d30, d10, d11, #3 147 vmull.u8 q10, d10, d0 153 vext.8 d29, d10, d11, #1 165 vext.8 d29, d10, d11, #4 177 vext.8 d29, d10, d11, #2 [all …]
|
D | sixtappredict8x8_neon.asm | 74 vmull.u8 q9, d10, d0 79 vext.8 d30, d10, d11, #1 89 vext.8 d30, d10, d11, #4 99 vext.8 d30, d10, d11, #2 109 vext.8 d30, d10, d11, #5 119 vext.8 d30, d10, d11, #3 160 vmull.u8 q10, d10, d0 166 vext.8 d29, d10, d11, #1 178 vext.8 d29, d10, d11, #4 190 vext.8 d29, d10, d11, #2 [all …]
|
D | save_neon_reg.asm | 22 vst1.i64 {d8, d9, d10, d11}, [r0]! 29 vld1.i64 {d8, d9, d10, d11}, [r0]!
|
D | bilinearpredict16x16_neon.asm | 49 vld1.u8 {d8, d9, d10}, [r0], r1 83 vext.8 d9, d9, d10, #1 106 vld1.u8 {d8, d9, d10}, [r0], r1 132 vext.8 d9, d9, d10, #1 155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 240 vld1.u8 {d8, d9, d10}, [r0], r1 268 vext.8 d9, d9, d10, #1
|
/external/llvm/test/CodeGen/ARM/ |
D | 2010-12-07-PEIBug.ll | 10 ; CHECK-NEXT: vpush {d10, d11} 34 ; CHECK: vpop {d10, d11}
|
/external/libvpx/vp8/encoder/x86/ |
D | fwalsh_sse2.asm | 78 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10 84 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10 91 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10
|