/external/libvpx/vp8/common/arm/neon/ |
D | sixtappredict8x4_neon.asm | 73 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 78 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 83 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 93 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 98 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 103 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 108 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 113 vext.8 d28, d6, d7, #3 ;construct src_ptr[1] 118 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]) [all …]
|
D | sixtappredict8x8_neon.asm | 77 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 87 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 97 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 107 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 117 vext.8 d28, d6, d7, #3 ;construct src_ptr[1] 122 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]) [all …]
|
D | bilinearpredict4x4_neon.asm | 65 vqrshrn.u16 d28, q7, #7 ;shift/round/saturate to u8 80 vmull.u8 q1, d28, d0 83 vext.8 d26, d28, d29, #4 ;construct src_ptr[pixel_step] 106 vld1.32 {d28[0]}, [r0], r1 ;load src data 107 vld1.32 {d28[1]}, [r0], r1 116 vst1.32 {d28[0]}, [r4], lr ;store result 117 vst1.32 {d28[1]}, [r4], lr
|
D | sixtappredict16x16_neon.asm | 85 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 89 vmlsl.u8 q8, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 93 vext.8 d28, d7, d8, #1 97 vmlsl.u8 q9, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 101 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 105 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 109 vext.8 d28, d7, d8, #4 113 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 117 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 121 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5]) [all …]
|
D | sixtappredict4x4_neon.asm | 123 vqrshrun.s16 d28, q8, #7 198 vext.8 d23, d27, d28, #4 209 vext.8 d24, d28, d29, #4 221 vmull.u8 q4, d28, d0 232 vmlal.u8 q3, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 333 vqrshrun.s16 d28, q8, #7 337 vst1.32 {d28[0]}, [r1] 338 vst1.32 {d28[1]}, [r2] 352 vld1.32 {d28[0]}, [r0], r1 354 vld1.32 {d28[1]}, [r0], r1 [all …]
|
D | bilinearpredict8x8_neon.asm | 93 vqrshrn.u16 d28, q8, #7 117 vmull.u8 q7, d28, d0 125 vmlal.u8 q6, d28, d1 157 vld1.u8 {d28}, [r0], r1 171 vst1.u8 {d28}, [r4], lr
|
D | reconb_neon.asm | 27 vld1.u8 {d28}, [r0], r12 ;load 4 data/line from pred_ptr 36 vmovl.u8 q0, d28 ;modify Pred data from 8 bits to 16 bits
|
D | bilinearpredict16x16_neon.asm | 188 vld1.u8 {d28, d29}, [lr]! 195 vmull.u8 q7, d28, d0 202 vmlal.u8 q5, d28, d1 312 vld1.u8 {d28, d29}, [r0], r1 319 vmull.u8 q7, d28, d0 326 vmlal.u8 q5, d28, d1
|
D | recon16x16mb_neon.asm | 39 vmovl.u8 q4, d28 90 vmovl.u8 q4, d28
|
D | recon4b_neon.asm | 34 vmovl.u8 q4, d28
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_mse16x16_neon.asm | 58 vmlal.s16 q9, d28, d28 115 vmlal.s16 q9, d28, d28 159 vmull.s16 q10, d28, d28
|
D | shortfdct_neon.asm | 58 vrshrn.i32 d28, q14, #14 76 vmlal.s16 q4, d28, d7[0] ;sumtemp for i=0 77 vmlal.s16 q5, d28, d7[1] ;sumtemp for i=1 78 vmlal.s16 q6, d28, d7[2] ;sumtemp for i=2 79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3
|
D | variance_neon.asm | 62 vmlal.s16 q9, d28, d28 132 vmlal.s16 q9, d28, d28 252 vmlal.s16 q9, d28, d28
|
D | vp8_subpixelvariance8x8_neon.asm | 96 vqrshrn.u16 d28, q8, #7 119 vmull.u8 q7, d28, d0 127 vmlal.u8 q6, d28, d1 137 vqrshrn.u16 d28, q7, #7 150 vld1.u8 {d28}, [r0], r1
|
D | vp8_subpixelvariance16x16_neon.asm | 194 vld1.u8 {d28, d29}, [lr]! 201 vmull.u8 q7, d28, d0 208 vmlal.u8 q5, d28, d1 321 vld1.u8 {d28, d29}, [r0], r1 328 vmull.u8 q7, d28, d0 335 vmlal.u8 q5, d28, d1 394 vmlal.s16 q9, d28, d28
|
D | fastfdct8x4_neon.asm | 81 …vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>… 90 …vadd.s16 d5, d28, d31 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr… 132 …vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>… 141 …vadd.s16 d7, d28, d31 ;b2 = temp1 + temp2 -- q is not necessary, just for prote…
|
D | vp8_subpixelvariance16x16s_neon.asm | 72 vsubl.u8 q2, d6, d28 181 vmlal.s16 q9, d28, d28 429 vld1.u8 {d28, d29, d30, d31}, [r0], r1 536 vmlal.s16 q9, d28, d28
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | idct_dequant_full_2x_neon.asm | 34 vld1.32 {d28[0]}, [r2], r1 ; l pre 35 vld1.32 {d28[1]}, [r12], r1 ; r pre 160 vaddw.u8 q4, q4, d28
|
D | idct_dequant_dc_full_2x_neon.asm | 34 vld1.32 {d28[0]}, [r2], r1 ; l pre 35 vld1.32 {d28[1]}, [r12], r1 ; r pre 168 vaddw.u8 q4, q4, d28
|
/external/libvpx/vpx_scale/arm/neon/ |
D | vp8_vpxyv12_extendframeborders_neon.asm | 59 vld1.8 {d28[], d29[]}, [r2], lr 172 vld1.8 {d28[], d29[]}, [r1], lr 339 vld1.8 {d28[], d29[]}, [r2], lr 443 vld1.8 {d28[]}, [r1], lr 462 vst1.8 {d28}, [r5], lr
|
D | vp8_vpxyv12_copyframeyonly_neon.asm | 117 vld1.8 {d28[], d29[]}, [r2], lr 256 vld1.8 {d28[], d29[]}, [r2], lr
|
/external/valgrind/main/none/tests/arm/ |
D | vfp.c | 1071 TESTINSN_core_to_scalar("vmov.16 d28[2], r6", d28, r6, 14); in main() 1576 TESTINSN_un_f64("vabs.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main() 1598 TESTINSN_un_f64("vneg.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main() 1620 TESTINSN_un_f64("vmov.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main() 1642 TESTINSN_un_f64("vsqrt.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main() 1806 …TESTINSN_cmp_f64("vcmp.f64 d7, d28", d7, f2u0(425.5), f2u1(425.5), d28, f2u0(-456.3), f2u1(-45… in main() 1816 …TESTINSN_cmp_f64("vcmp.f64 d7, d28", d7, f2u0(INFINITY), f2u1(INFINITY), d28, f2u0(-8567.456),… in main() 1825 …TESTINSN_cmp_f64("vcmpe.f64 d7, d28", d7, f2u0(425.5), f2u1(425.5), d28, f2u0(-456.3), f2u1(-45… in main() 1833 …TESTINSN_cmp_f64("vcmpe.f64 d7, d28", d7, f2u0(INFINITY), f2u1(INFINITY), d28, f2u0(-8567.456),… in main() 2273 TESTINSN_vpush_vpop_f64(d24, 0x99234f, 0x3457ff, d25, 0x1aac, 0x1002cba, d28, d29); in main()
|
D | neon64.c | 1853 TESTINSN_VLDn("vld4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main() 1861 TESTINSN_VLDn("vld4.32 {d28[],d29[],d30[],d31[]}", d28, d29, d30, d31); in main() 1995 TESTINSN_VSTn("vst4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main() 2159 TESTINSN_VLDn_WB("vld4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main() 2167 TESTINSN_VLDn_WB("vld4.32 {d28[],d29[],d30[],d31[]}", d28, d29, d30, d31); in main() 2301 TESTINSN_VSTn_WB("vst4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main() 2465 TESTINSN_VLDn_RI("vld4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31, r5, 13); in main() 2473 TESTINSN_VLDn_RI("vld4.32 {d28[],d29[],d30[],d31[]}", d28, d29, d30, d31, r5, 13); in main() 2607 TESTINSN_VSTn_RI("vst4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31, r5, 13); in main() 2959 TESTINSN_un("vdup.8 d4, d28[4]", d4, d28, i32, 0x7b1c3); in main() [all …]
|
D | vfp.stdout.exp | 62 vmov.16 d28[2], r6 :: Dd 0x5555000e 0x55555555 Dm 0x0000000e 729 vcmp.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x407a9800 00000000 Dm 0xc07c84cc cccccccd 739 vcmp.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x7ff00000 00000000 Dm 0xc0c0bbba 5e353f7d 748 vcmpe.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x407a9800 00000000 Dm 0xc07c84cc cccccccd 756 vcmpe.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x7ff00000 00000000 Dm 0xc0c0bbba 5e353f7d 1219 d24 0x0099234f 003457ff d25 0x00001aac 01002cba d28 0x0099234f 003457ff d29 0x00001aac 01002cba
|
/external/llvm/lib/Target/ARM/ |
D | ARMRegisterInfo.td | 124 def D28 : ARMFReg<28, "d28">, DwarfRegNum<[284]>;
|