/external/kernel-headers/original/asm-generic/ |
D | xor.h | 109 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_2() local 116 d6 = p1[6]; in xor_32regs_2() 124 d6 ^= p2[6]; in xor_32regs_2() 132 p1[6] = d6; in xor_32regs_2() 146 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_3() local 153 d6 = p1[6]; in xor_32regs_3() 161 d6 ^= p2[6]; in xor_32regs_3() 169 d6 ^= p3[6]; in xor_32regs_3() 177 p1[6] = d6; in xor_32regs_3() 192 register long d0, d1, d2, d3, d4, d5, d6, d7; in xor_32regs_4() local [all …]
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | sad8_neon.asm | 41 vld1.8 {d6}, [r0], r1 49 vabal.u8 q12, d6, d14 61 vld1.8 {d6}, [r0], r1 65 vabal.u8 q12, d6, d14 98 vld1.8 {d6}, [r0], r1 106 vabal.u8 q12, d6, d14 118 vld1.8 {d6}, [r0], r1 126 vabal.u8 q12, d6, d14 138 vld1.8 {d6}, [r0], r1 146 vabal.u8 q12, d6, d14 [all …]
|
D | vp8_subpixelvariance16x16_neon.asm | 49 vld1.u8 {d5, d6, d7}, [r0], r1 68 vmull.u8 q10, d6, d0 75 vext.8 d5, d5, d6, #1 85 vext.8 d6, d6, d7, #1 90 vmlal.u8 q10, d6, d1 106 vld1.u8 {d5, d6, d7}, [r0], r1 121 vmull.u8 q12, d6, d0 126 vext.8 d5, d5, d6, #1 134 vext.8 d6, d6, d7, #1 138 vmlal.u8 q12, d6, d1 [all …]
|
D | fastfdct8x4_neon.asm | 39 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[1], d6=ip[2], d8=ip[3] 41 vtrn.32 d2, d6 47 vtrn.16 d6, d8 51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2] 52 vsub.s16 d12, d4, d6 ;ip[1]-ip[2] 87 vadd.s16 d6, d15, d17 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 95 ;transpose d2, d4, d6, d8. Then, d2=ip[0], d4=ip[4], d6=ip[8], d8=ip[12] 97 vtrn.32 d2, d6 103 vtrn.16 d6, d8 107 vadd.s16 d11, d4, d6 ;b1 = ip[4]+ip[8] [all …]
|
D | shortfdct_neon.asm | 44 vmlal.s16 q11, d6, d0[2] 45 vmlal.s16 q12, d6, d1[2] 46 vmlal.s16 q13, d6, d2[2] 47 vmlal.s16 q14, d6, d3[2] 71 vmlal.s16 q4, d26, d6[0] 72 vmlal.s16 q5, d26, d6[1] 73 vmlal.s16 q6, d26, d6[2] 74 vmlal.s16 q7, d26, d6[3]
|
D | vp8_shortwalsh4x4_neon.asm | 34 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[3] 39 vadd.s16 d2, d6, d7 ;op[0] = a1 + b1 40 vsub.s16 d4, d6, d7 ;op[2] = a1 - b1 51 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12] 56 vadd.s16 d2, d6, d7 ;a2 = a1 + b1; 57 vsub.s16 d4, d6, d7 ;c2 = a1 - b1;
|
D | subtract_neon.asm | 32 vld1.8 {d6}, [r1], r3 38 vsubl.u8 q13, d6, d7 67 vsubl.u8 q10, d4, d6 104 vld1.8 {d6}, [r1], r12 118 vsubl.u8 q11, d6, d7 140 vld1.8 {d6}, [r2], r12 154 vsubl.u8 q11, d6, d7
|
D | vp8_subpixelvariance16x16s_neon.asm | 45 vld1.u8 {d4, d5, d6, d7}, [r0], r1 72 vsubl.u8 q2, d6, d28 101 vmlal.s16 q9, d6, d6 161 vsubl.u8 q13, d4, d6 197 vmlal.s16 q9, d6, d6 245 vld1.u8 {d4, d5, d6, d7}, [r0], r1 280 vsubl.u8 q5, d6, d16 372 vld1.u8 {d4, d5, d6, d7}, [r0], r1 399 vst1.u8 {d4, d5, d6, d7}, [r3]! 414 vld1.u8 {d4, d5, d6, d7}, [r0], r1 [all …]
|
D | sad16_neon.asm | 52 vabal.u8 q12, d6, d14 77 vabal.u8 q12, d6, d14 102 vabal.u8 q12, d6, d14 123 vabal.u8 q12, d6, d14 170 vabal.u8 q12, d6, d14 191 vabal.u8 q12, d6, d14
|
D | fastfdct4x4_neon.asm | 45 vadd.s16 d6, d2, d5 ;ip[0]+ip[3] 52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 53 vsub.s16 d11, d6, d7 ;temp2 = a1 - b1 76 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12] 81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 82 vsub.s16 d11, d6, d7 ;temp2 = a1 - b1
|
D | variance_neon.asm | 43 vsubl.u8 q13, d2, d6 116 vsubl.u8 q13, d2, d6 175 vld1.8 {d6}, [r2], r3 178 vsubl.u8 q12, d2, d6 230 vld1.8 {d6}, [r2], r3 236 vsubl.u8 q13, d2, d6
|
D | vp8_mse16x16_neon.asm | 46 vsubl.u8 q13, d2, d6 99 vsubl.u8 q13, d2, d6 147 vld1.8 {d6}, [r2], r3 153 vsubl.u8 q13, d2, d6
|
/external/libvpx/vp8/common/arm/neon/ |
D | bilinearpredict16x16_neon.asm | 46 vld1.u8 {d5, d6, d7}, [r0], r1 65 vmull.u8 q10, d6, d0 72 vext.8 d5, d5, d6, #1 82 vext.8 d6, d6, d7, #1 87 vmlal.u8 q10, d6, d1 103 vld1.u8 {d5, d6, d7}, [r0], r1 118 vmull.u8 q12, d6, d0 123 vext.8 d5, d5, d6, #1 131 vext.8 d6, d6, d7, #1 135 vmlal.u8 q12, d6, d1 [all …]
|
D | sixtappredict16x16_neon.asm | 70 vld1.u8 {d6, d7, d8}, [r0], r1 ;load src data 78 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 85 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 101 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 117 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 133 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 149 vext.8 d28, d6, d7, #3 ;construct src_ptr[1] 155 vext.8 d6, d13, d14, #3 167 vmull.u8 q3, d6, d3 175 vqrshrun.s16 d6, q8, #7 ;shift/round/saturate to u8 [all …]
|
D | sixtappredict4x4_neon.asm | 64 vext.8 d18, d6, d7, #5 ;construct src_ptr[3] 80 vzip.32 d6, d7 ;construct src_ptr[-2], and put 2-line data together 84 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) 94 vzip.32 d6, d7 ;put 2-line data in 1 register (src_ptr[2]) 98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 108 vzip.32 d6, d7 ;put 2-line data in 1 register (src_ptr[1]) 110 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3]) 128 vext.8 d18, d6, d7, #5 ;construct src_ptr[3] 146 vzip.32 d6, d7 ;construct src_ptr[-2], and put 2-line data together 151 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) [all …]
|
D | sixtappredict8x4_neon.asm | 68 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 73 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 83 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 93 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 103 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 113 vext.8 d28, d6, d7, #3 ;construct src_ptr[1] 145 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 151 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1] 163 vext.8 d27, d6, d7, #4 ;construct src_ptr[2] 175 vext.8 d27, d6, d7, #2 ;construct src_ptr[0] [all …]
|
D | sixtappredict8x8_neon.asm | 72 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 77 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 87 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 97 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 107 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 117 vext.8 d28, d6, d7, #3 ;construct src_ptr[1] 158 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 164 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1] 176 vext.8 d27, d6, d7, #4 ;construct src_ptr[2] 188 vext.8 d27, d6, d7, #2 ;construct src_ptr[0] [all …]
|
D | iwalsh_neon.asm | 29 vsub.s16 d6, d1, d2 ;c = [4] - [8] 33 vadd.s16 d1, d6, d7 ;c + d 35 vsub.s16 d3, d7, d6 ;d - c 51 vsub.s16 d6, d1, d2 ;c = [1] - [2] 55 vadd.s16 d1, d6, d7 ;f = c + d 57 vsub.s16 d3, d7, d6 ;h = d - c
|
D | loopfiltersimpleverticaledge_neon.asm | 31 vld4.8 {d6[0], d7[0], d8[0], d9[0]}, [r0], r1 34 vld4.8 {d6[1], d7[1], d8[1], d9[1]}, [r0], r1 36 vld4.8 {d6[2], d7[2], d8[2], d9[2]}, [r0], r1 37 vld4.8 {d6[3], d7[3], d8[3], d9[3]}, [r0], r1 38 vld4.8 {d6[4], d7[4], d8[4], d9[4]}, [r0], r1 39 vld4.8 {d6[5], d7[5], d8[5], d9[5]}, [r0], r1 40 vld4.8 {d6[6], d7[6], d8[6], d9[6]}, [r0], r1 41 vld4.8 {d6[7], d7[7], d8[7], d9[7]}, [r0], r1
|
D | bilinearpredict8x8_neon.asm | 48 vmull.u8 q8, d6, d0 53 vext.8 d7, d6, d7, #1 75 vmull.u8 q8, d6, d0 81 vext.8 d7, d6, d7, #1 133 vqrshrn.u16 d6, q5, #7 142 vst1.u8 {d6}, [r1], lr
|
D | reconb_neon.asm | 37 vmovl.u8 q1, d29 ;Pred data in d0, d2, d4, d6 44 vadd.s16 d6, d6, d26
|
D | copymem8x8_neon.asm | 33 vld1.u8 {d6}, [r0], r1 36 vst1.u8 {d6}, [r2], r3
|
D | bilinearpredict4x4_neon.asm | 46 vld1.u8 {d6}, [r0], r1 50 vshr.u64 d12, d6, #8 59 vmull.u8 q9, d6, d0
|
/external/qemu/distrib/sdl-1.2.12/src/video/ataricommon/ |
D | SDL_ataric2p.S | 55 movel #0x55555555,d6 177 andl d6,d7 185 andl d6,d7 317 movel c2p_width,d6 318 lsrw #4,d6 319 subql #1,d6 365 dbra d6,c2p4_bclx 376 movel c2p_width,d6 377 lsrw #3,d6 378 subql #1,d6 [all …]
|
/external/sonivox/arm-wt-22k/vectors/ |
D | greensleeves.rtttl | 1 …=4, o=5, b=140:g, 2a#, c6, d.6, 8d#6, d6, 2c6, a, f., 8g, a, 2a#, g, g., 8f, g, 2a, f, 2d, g, 2a#,…
|