/external/libvpx/libvpx/vp9/common/arm/neon/ |
D | vp9_short_idct16x16_1_add_neon.asm | 68 vqmovun.s16 d31, q12 ; clip_pixel 72 vst1.64 {d31}, [r12], r2 81 vqmovun.s16 d31, q12 ; clip_pixel 85 vst1.64 {d31}, [r12], r2 104 vqmovun.s16 d31, q12 ; clip_pixel 108 vst1.64 {d31}, [r12], r2 117 vqmovun.s16 d31, q12 ; clip_pixel 121 vst1.64 {d31}, [r12], r2 140 vqmovun.s16 d31, q12 ; clip_pixel 144 vst1.64 {d31}, [r12], r2 [all …]
|
D | vp9_short_idct16x16_add_neon.asm | 97 vmlsl.s16 q3, d31, d1 101 vmlal.s16 q6, d31, d0 163 vdup.16 d31, r3 ; duplicate cospi_8_64 183 vmull.s16 q0, d20, d31 184 vmull.s16 q1, d21, d31 195 vmlsl.s16 q12, d28, d31 196 vmlsl.s16 q13, d29, d31 273 vst1.64 {d31}, [r1], r2 344 vmlsl.s16 q3, d31, d13 348 vmlal.s16 q4, d31, d12 [all …]
|
D | vp9_short_iht8x8_add_neon.asm | 140 vmlsl.s16 q3, d31, d1 164 vmlal.s16 q3, d31, d0 230 vqrshrn.s32 d31, q12, #14 ; >> 14 292 vmull.s16 q2, d31, d14 296 vmull.s16 q4, d31, d15 299 vdup.16 d31, r5 ; duplicate cospi_14_64 314 vmull.s16 q7, d22, d31 315 vmull.s16 q8, d23, d31 318 vmlal.s16 q5, d24, d31 319 vmlal.s16 q6, d25, d31 [all …]
|
D | vp9_short_idct8x8_1_add_neon.asm | 66 vqmovun.s16 d31, q12 ; clip_pixel 70 vst1.64 {d31}, [r12], r2 79 vqmovun.s16 d31, q12 ; clip_pixel 83 vst1.64 {d31}, [r12], r2
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | sixtappredict8x4_neon.asm | 87 vext.8 d31, d12, d13, #1 92 vmlsl.u8 q10, d31, d1 97 vext.8 d31, d12, d13, #4 102 vmlsl.u8 q10, d31, d4 107 vext.8 d31, d12, d13, #2 112 vmlal.u8 q10, d31, d2 117 vext.8 d31, d12, d13, #5 122 vmlal.u8 q10, d31, d5 127 vext.8 d31, d12, d13, #3 132 vmull.u8 q6, d31, d3 [all …]
|
D | sixtappredict8x8_neon.asm | 91 vext.8 d31, d12, d13, #1 96 vmlsl.u8 q10, d31, d1 101 vext.8 d31, d12, d13, #4 106 vmlsl.u8 q10, d31, d4 111 vext.8 d31, d12, d13, #2 116 vmlal.u8 q10, d31, d2 121 vext.8 d31, d12, d13, #5 126 vmlal.u8 q10, d31, d5 131 vext.8 d31, d12, d13, #3 136 vmull.u8 q6, d31, d3 [all …]
|
D | bilinearpredict16x16_neon.asm | 39 vld1.s32 {d31}, [r2] ;load first_pass filter 51 vdup.8 d0, d31[0] ;first_pass filter (d0 d1) 54 vdup.8 d1, d31[4] 175 vld1.u32 {d31}, [r3] ;load second_pass filter 179 vdup.8 d0, d31[0] ;second_pass filter parameters (d0 d1) 180 vdup.8 d1, d31[4] 190 vld1.u8 {d30, d31}, [lr]! 205 vmlal.u8 q8, d31, d1 233 vdup.8 d0, d31[0] ;first_pass filter (d0 d1) 234 vdup.8 d1, d31[4] [all …]
|
D | bilinearpredict4x4_neon.asm | 40 vld1.u32 {d31}, [r2] ;first_pass filter 43 vdup.8 d0, d31[0] ;first_pass filter (d0-d1) 45 vdup.8 d1, d31[4] 75 vld1.u32 {d31}, [r3] ;load second_pass filter 77 vdup.8 d0, d31[0] ;second_pass filter parameters (d0-d5) 78 vdup.8 d1, d31[4]
|
D | bilinearpredict8x4_neon.asm | 39 vld1.u32 {d31}, [r2] ;load first_pass filter 41 vdup.8 d0, d31[0] ;first_pass filter (d0 d1) 43 vdup.8 d1, d31[4] 79 vld1.u32 {d31}, [r3] ;load second_pass filter 82 vdup.8 d0, d31[0] ;second_pass filter parameters (d0 d1) 83 vdup.8 d1, d31[4]
|
D | vp8_subpixelvariance16x16_neon.asm | 47 vld1.s32 {d31}, [r2] ;load first_pass filter 59 vdup.8 d0, d31[0] ;first_pass filter (d0 d1) 62 vdup.8 d1, d31[4] 183 vld1.u32 {d31}, [r3] ;load second_pass filter 190 vdup.8 d0, d31[0] ;second_pass filter parameters (d0 d1) 191 vdup.8 d1, d31[4] 201 vld1.u8 {d30, d31}, [lr]! 216 vmlal.u8 q8, d31, d1 243 vdup.8 d0, d31[0] ;first_pass filter (d0 d1) 244 vdup.8 d1, d31[4] [all …]
|
D | sixtappredict4x4_neon.asm | 149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 152 vmull.u8 q12, d31, d5 ;(src_ptr[3] * vp8_filter[5]) 170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] 174 vmlsl.u8 q12, d31, d1 ;-(src_ptr[-1] * vp8_filter[1]) 180 vext.8 d31, d22, d23, #4 ;construct src_ptr[2] 184 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 190 vext.8 d31, d22, d23, #2 ;construct src_ptr[0] 194 vmlal.u8 q12, d31, d2 ;(src_ptr[0] * vp8_filter[2]) 198 vext.8 d31, d22, d23, #3 ;construct src_ptr[1] 201 vmull.u8 q11, d31, d3 ;(src_ptr[1] * vp8_filter[3]) [all …]
|
D | bilinearpredict8x8_neon.asm | 39 vld1.u32 {d31}, [r2] ;load first_pass filter 41 vdup.8 d0, d31[0] ;first_pass filter (d0 d1) 43 vdup.8 d1, d31[4] 105 vld1.u32 {d31}, [r3] ;load second_pass filter 108 vdup.8 d0, d31[0] ;second_pass filter parameters (d0 d1) 109 vdup.8 d1, d31[4]
|
D | vp8_subpixelvariance8x8_neon.asm | 42 vld1.u32 {d31}, [r2] ;load first_pass filter 44 vdup.8 d0, d31[0] ;first_pass filter (d0 d1) 46 vdup.8 d1, d31[4] 108 vld1.u32 {d31}, [r3] ;load second_pass filter 110 vdup.8 d0, d31[0] ;second_pass filter parameters (d0 d1) 111 vdup.8 d1, d31[4]
|
/external/valgrind/main/none/tests/arm/ |
D | neon64.c | 964 TESTINSN_bin("vshl.s8 d10, d31, d7", d10, d31, i32, 24, d7, i32, 4); in main() 998 TESTINSN_bin_q("vqshl.s64 d13, d14, d31", d13, d14, i32, -17, d31, i32, -26); in main() 1026 TESTINSN_bin_q("vqshl.u32 d12, d31, d13", d12, d31, i32, -120, d13, i32, -9); in main() 1045 TESTINSN_un_q("vqshl.s64 d31, d30, #1", d31, d30, i32, -127); in main() 1056 TESTINSN_un_q("vqshl.s32 d31, d30, #1", d31, d30, i32, -127); in main() 1067 TESTINSN_un_q("vqshl.s16 d31, d30, #1", d31, d30, i32, -127); in main() 1078 TESTINSN_un_q("vqshl.s8 d31, d30, #1", d31, d30, i32, -127); in main() 1089 TESTINSN_un_q("vqshl.u64 d31, d30, #1", d31, d30, i32, -127); in main() 1100 TESTINSN_un_q("vqshl.u32 d31, d30, #1", d31, d30, i32, -127); in main() 1111 TESTINSN_un_q("vqshl.u16 d31, d30, #1", d31, d30, i32, -127); in main() [all …]
|
D | neon128.c | 1205 TESTINSN_bin("vabal.s32 q10, d31, d12", q10, d31, i32, 24, d12, i32, 120); in main() 1240 TESTINSN_bin("vabdl.s32 q10, d31, d12", q10, d31, i32, 24, d12, i32, 120); in main() 1366 TESTINSN_bin("vmull.s16 q10, d31, d7[3]", q10, d31, i32, 0x140, d7, i32, 0x120); in main() 1375 TESTINSN_bin("vmull.u16 q10, d31, d7[3]", q10, d31, i32, 0x140, d7, i32, 0x120); in main() 1386 TESTINSN_bin("vmlal.s16 q10, d31, d7[3]", q10, d31, i32, 0x140, d7, i32, 0x120); in main() 1395 TESTINSN_bin("vmlal.u16 q10, d31, d7[3]", q10, d31, i32, 0x140, d7, i32, 0x120); in main() 1406 TESTINSN_bin("vmlsl.s16 q10, d31, d7[3]", q10, d31, i32, 0x140, d7, i32, 0x120); in main() 1415 TESTINSN_bin("vmlsl.u16 q10, d31, d7[3]", q10, d31, i32, 0x140, d7, i32, 0x120); in main() 1518 TESTINSN_un("vmovl.u8 q3, d31", q0, d31, i32, 0x42); in main() 1521 TESTINSN_un("vmovl.s8 q3, d31", q0, d31, i32, 0x42); in main() [all …]
|
/external/pixman/pixman/ |
D | pixman-arm-neon-asm.S | 470 vmov.u8 d31, #255 482 vst4.8 {d28, d29, d30, d31}, [DST_W, :128]! 516 vst1.8 {d28, d29, d30, d31}, [DST_W, :128]! 548 vst1.32 {d28, d29, d30, d31}, [DST_W, :128]! 600 vraddhn.u16 d31, q13, q11 617 vraddhn.u16 d31, q13, q11 622 vst4.8 {d28, d29, d30, d31}, [DST_W, :128]! 669 vraddhn.u16 d31, q13, q11 676 vst4.8 {d28, d29, d30, d31}, [DST_W, :128]! 728 vraddhn.u16 d31, q3, q11 [all …]
|
D | pixman-arm-neon-asm-bilinear.S | 522 vmlsl.u16 q10, d22, d31 523 vmlal.u16 q10, d23, d31 552 vmlsl.u16 q10, d22, d31 553 vmlal.u16 q10, d23, d31 562 vmlsl.u16 q8, d18, d31 563 vmlal.u16 q8, d19, d31 937 vmlsl.u16 q1, d18, d31 938 vmlal.u16 q1, d19, d31 948 vmlsl.u16 q3, d22, d31 949 vmlal.u16 q3, d23, d31 [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-saturating-add-sub.s | 88 sqadd d17, d31, d8 101 uqadd d17, d31, d8 114 sqsub d17, d31, d8 127 uqsub d17, d31, d8
|
D | neon-rounding-shift.s | 47 srshl d17, d31, d8 54 urshl d17, d31, d8
|
D | neon-shift.s | 47 sshl d17, d31, d8 54 ushl d17, d31, d8
|
D | neon-saturating-shift.s | 50 sqshl d17, d31, d8 63 uqshl d17, d31, d8
|
D | neon-saturating-rounding-shift.s | 50 sqrshl d17, d31, d8 63 uqrshl d17, d31, d8
|
/external/llvm/test/MC/ARM/ |
D | eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | thumb-v8fp.s | 69 vselge.f64 d30, d31, d23 70 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0x6f,0xfe,0xa7,0xeb] 81 vselvs.f64 d0, d1, d31 82 @ CHECK: vselvs.f64 d0, d1, d31 @ encoding: [0x11,0xfe,0x2f,0x0b]
|
D | v8fp.s | 66 vselge.f64 d30, d31, d23 67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe] 78 vselvs.f64 d0, d1, d31 79 @ CHECK: vselvs.f64 d0, d1, d31 @ encoding: [0x2f,0x0b,0x11,0xfe]
|