Home
last modified time | relevance | path

Searched refs:d28 (Results 1 – 25 of 33) sorted by relevance

12

/external/libvpx/vp8/common/arm/neon/
Dsixtappredict8x4_neon.asm73 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
78 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
83 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
93 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
98 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
103 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
108 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
113 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
118 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3])
[all …]
Dsixtappredict8x8_neon.asm77 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
87 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
97 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
107 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
117 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
122 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3])
[all …]
Dbilinearpredict4x4_neon.asm65 vqrshrn.u16 d28, q7, #7 ;shift/round/saturate to u8
80 vmull.u8 q1, d28, d0
83 vext.8 d26, d28, d29, #4 ;construct src_ptr[pixel_step]
106 vld1.32 {d28[0]}, [r0], r1 ;load src data
107 vld1.32 {d28[1]}, [r0], r1
116 vst1.32 {d28[0]}, [r4], lr ;store result
117 vst1.32 {d28[1]}, [r4], lr
Dsixtappredict16x16_neon.asm85 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
89 vmlsl.u8 q8, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
93 vext.8 d28, d7, d8, #1
97 vmlsl.u8 q9, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
101 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
105 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
109 vext.8 d28, d7, d8, #4
113 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
117 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
121 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5])
[all …]
Dsixtappredict4x4_neon.asm123 vqrshrun.s16 d28, q8, #7
198 vext.8 d23, d27, d28, #4
209 vext.8 d24, d28, d29, #4
221 vmull.u8 q4, d28, d0
232 vmlal.u8 q3, d28, d2 ;(src_ptr[0] * vp8_filter[2])
333 vqrshrun.s16 d28, q8, #7
337 vst1.32 {d28[0]}, [r1]
338 vst1.32 {d28[1]}, [r2]
352 vld1.32 {d28[0]}, [r0], r1
354 vld1.32 {d28[1]}, [r0], r1
[all …]
Dbilinearpredict8x8_neon.asm93 vqrshrn.u16 d28, q8, #7
117 vmull.u8 q7, d28, d0
125 vmlal.u8 q6, d28, d1
157 vld1.u8 {d28}, [r0], r1
171 vst1.u8 {d28}, [r4], lr
Dreconb_neon.asm27 vld1.u8 {d28}, [r0], r12 ;load 4 data/line from pred_ptr
36 vmovl.u8 q0, d28 ;modify Pred data from 8 bits to 16 bits
Dbilinearpredict16x16_neon.asm188 vld1.u8 {d28, d29}, [lr]!
195 vmull.u8 q7, d28, d0
202 vmlal.u8 q5, d28, d1
312 vld1.u8 {d28, d29}, [r0], r1
319 vmull.u8 q7, d28, d0
326 vmlal.u8 q5, d28, d1
Drecon16x16mb_neon.asm39 vmovl.u8 q4, d28
90 vmovl.u8 q4, d28
Drecon4b_neon.asm34 vmovl.u8 q4, d28
/external/libvpx/vp8/encoder/arm/neon/
Dvp8_mse16x16_neon.asm58 vmlal.s16 q9, d28, d28
115 vmlal.s16 q9, d28, d28
159 vmull.s16 q10, d28, d28
Dshortfdct_neon.asm58 vrshrn.i32 d28, q14, #14
76 vmlal.s16 q4, d28, d7[0] ;sumtemp for i=0
77 vmlal.s16 q5, d28, d7[1] ;sumtemp for i=1
78 vmlal.s16 q6, d28, d7[2] ;sumtemp for i=2
79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3
Dvariance_neon.asm62 vmlal.s16 q9, d28, d28
132 vmlal.s16 q9, d28, d28
252 vmlal.s16 q9, d28, d28
Dvp8_subpixelvariance8x8_neon.asm96 vqrshrn.u16 d28, q8, #7
119 vmull.u8 q7, d28, d0
127 vmlal.u8 q6, d28, d1
137 vqrshrn.u16 d28, q7, #7
150 vld1.u8 {d28}, [r0], r1
Dvp8_subpixelvariance16x16_neon.asm194 vld1.u8 {d28, d29}, [lr]!
201 vmull.u8 q7, d28, d0
208 vmlal.u8 q5, d28, d1
321 vld1.u8 {d28, d29}, [r0], r1
328 vmull.u8 q7, d28, d0
335 vmlal.u8 q5, d28, d1
394 vmlal.s16 q9, d28, d28
Dfastfdct8x4_neon.asm81 …vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>…
90 …vadd.s16 d5, d28, d31 ;op[1] = temp1 + temp2 -- q is not necessary, just for pr…
132 …vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>…
141 …vadd.s16 d7, d28, d31 ;b2 = temp1 + temp2 -- q is not necessary, just for prote…
Dvp8_subpixelvariance16x16s_neon.asm72 vsubl.u8 q2, d6, d28
181 vmlal.s16 q9, d28, d28
429 vld1.u8 {d28, d29, d30, d31}, [r0], r1
536 vmlal.s16 q9, d28, d28
/external/libvpx/vp8/decoder/arm/neon/
Didct_dequant_full_2x_neon.asm34 vld1.32 {d28[0]}, [r2], r1 ; l pre
35 vld1.32 {d28[1]}, [r12], r1 ; r pre
160 vaddw.u8 q4, q4, d28
Didct_dequant_dc_full_2x_neon.asm34 vld1.32 {d28[0]}, [r2], r1 ; l pre
35 vld1.32 {d28[1]}, [r12], r1 ; r pre
168 vaddw.u8 q4, q4, d28
/external/libvpx/vpx_scale/arm/neon/
Dvp8_vpxyv12_extendframeborders_neon.asm59 vld1.8 {d28[], d29[]}, [r2], lr
172 vld1.8 {d28[], d29[]}, [r1], lr
339 vld1.8 {d28[], d29[]}, [r2], lr
443 vld1.8 {d28[]}, [r1], lr
462 vst1.8 {d28}, [r5], lr
Dvp8_vpxyv12_copyframeyonly_neon.asm117 vld1.8 {d28[], d29[]}, [r2], lr
256 vld1.8 {d28[], d29[]}, [r2], lr
/external/valgrind/main/none/tests/arm/
Dvfp.c1071 TESTINSN_core_to_scalar("vmov.16 d28[2], r6", d28, r6, 14); in main()
1576 TESTINSN_un_f64("vabs.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main()
1598 TESTINSN_un_f64("vneg.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main()
1620 TESTINSN_un_f64("vmov.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main()
1642 TESTINSN_un_f64("vsqrt.f64 d28, d7", d28, d7, i32, f2u0(-4856.234), f2u1(-4856.234)); in main()
1806 …TESTINSN_cmp_f64("vcmp.f64 d7, d28", d7, f2u0(425.5), f2u1(425.5), d28, f2u0(-456.3), f2u1(-45… in main()
1816 …TESTINSN_cmp_f64("vcmp.f64 d7, d28", d7, f2u0(INFINITY), f2u1(INFINITY), d28, f2u0(-8567.456),… in main()
1825 …TESTINSN_cmp_f64("vcmpe.f64 d7, d28", d7, f2u0(425.5), f2u1(425.5), d28, f2u0(-456.3), f2u1(-45… in main()
1833 …TESTINSN_cmp_f64("vcmpe.f64 d7, d28", d7, f2u0(INFINITY), f2u1(INFINITY), d28, f2u0(-8567.456),… in main()
2273 TESTINSN_vpush_vpop_f64(d24, 0x99234f, 0x3457ff, d25, 0x1aac, 0x1002cba, d28, d29); in main()
Dneon64.c1853 TESTINSN_VLDn("vld4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main()
1861 TESTINSN_VLDn("vld4.32 {d28[],d29[],d30[],d31[]}", d28, d29, d30, d31); in main()
1995 TESTINSN_VSTn("vst4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main()
2159 TESTINSN_VLDn_WB("vld4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main()
2167 TESTINSN_VLDn_WB("vld4.32 {d28[],d29[],d30[],d31[]}", d28, d29, d30, d31); in main()
2301 TESTINSN_VSTn_WB("vst4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31); in main()
2465 TESTINSN_VLDn_RI("vld4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31, r5, 13); in main()
2473 TESTINSN_VLDn_RI("vld4.32 {d28[],d29[],d30[],d31[]}", d28, d29, d30, d31, r5, 13); in main()
2607 TESTINSN_VSTn_RI("vst4.8 {d28[0],d29[0],d30[0],d31[0]}", d28, d29, d30, d31, r5, 13); in main()
2959 TESTINSN_un("vdup.8 d4, d28[4]", d4, d28, i32, 0x7b1c3); in main()
[all …]
Dvfp.stdout.exp62 vmov.16 d28[2], r6 :: Dd 0x5555000e 0x55555555 Dm 0x0000000e
729 vcmp.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x407a9800 00000000 Dm 0xc07c84cc cccccccd
739 vcmp.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x7ff00000 00000000 Dm 0xc0c0bbba 5e353f7d
748 vcmpe.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x407a9800 00000000 Dm 0xc07c84cc cccccccd
756 vcmpe.f64 d7, d28 :: FPSCR 0x20000000 Dd 0x7ff00000 00000000 Dm 0xc0c0bbba 5e353f7d
1219 d24 0x0099234f 003457ff d25 0x00001aac 01002cba d28 0x0099234f 003457ff d29 0x00001aac 01002cba
/external/llvm/lib/Target/ARM/
DARMRegisterInfo.td124 def D28 : ARMFReg<28, "d28">, DwarfRegNum<[284]>;

12