/external/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
D | neon-minmax-encoding.s | 20 vmax.s16 q4, q5, q6 24 vmax.u32 q6, q7, q8 28 vmax.s16 q5, q6 50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2] 54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3] 57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2] 82 vmin.s16 q4, q5, q6 86 vmin.u32 q6, q7, q8 90 vmin.s16 q5, q6 112 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x5c,0x86,0x1a,0xf2] [all …]
|
D | neont2-minmax-encoding.s | 22 vmax.s16 q4, q5, q6 26 vmax.u32 q6, q7, q8 30 vmax.s16 q5, q6 52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86] 56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6] 59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6] 84 vmin.s16 q4, q5, q6 88 vmin.u32 q6, q7, q8 92 vmin.s16 q5, q6 114 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x5c,0x86] [all …]
|
D | neon-shift-encoding.s | 115 vsra.s32 q3, q6, #31 124 vsra.s32 q6, #31 133 @ CHECK: vsra.s32 q3, q6, #31 @ encoding: [0x5c,0x61,0xa1,0xf2] 141 @ CHECK: vsra.s32 q6, q6, #31 @ encoding: [0x5c,0xc1,0xa1,0xf2] 151 vsra.u32 q3, q6, #31 160 vsra.u32 q6, #31 169 @ CHECK: vsra.u32 q3, q6, #31 @ encoding: [0x5c,0x61,0xa1,0xf3] 177 @ CHECK: vsra.u32 q6, q6, #31 @ encoding: [0x5c,0xc1,0xa1,0xf3] 187 vsri.32 q3, q6, #31 196 vsri.32 q6, #31 [all …]
|
D | neont2-pairwise-encoding.s | 22 vpaddl.s16 q5, q6 23 vpaddl.s32 q6, q5 35 @ CHECK: vpaddl.s16 q5, q6 @ encoding: [0xb4,0xff,0x4c,0xa2] 36 @ CHECK: vpaddl.s32 q6, q5 @ encoding: [0xb8,0xff,0x4a,0xc2] 50 vpadal.s32 q6, q12 63 @ CHECK: vpadal.s32 q6, q12 @ encoding: [0xb8,0xff,0x68,0xc6]
|
D | neon-add-encoding.s | 80 vhadd.u32 q6, q7 93 @ CHECK: vhadd.u32 q6, q6, q7 @ encoding: [0x4e,0xc0,0x2c,0xf3] 244 vadd.i8 q6, q5 254 @ CHECK: vadd.i8 q6, q6, q5 @ encoding: [0x4a,0xc8,0x0c,0xf2] 260 vaddw.s8 q6, d5 264 vaddw.u8 q6, d5 268 @ CHECK: vaddw.s8 q6, q6, d5 @ encoding: [0x05,0xc1,0x8c,0xf2] 272 @ CHECK: vaddw.u8 q6, q6, d5 @ encoding: [0x05,0xc1,0x8c,0xf3]
|
/external/libvpx/vp8/common/arm/neon/ |
D | sixtappredict4x4_neon.asm | 55 vld1.u8 {q6}, [r0], r1 77 vmov q4, q3 ;keep original src data in q4 q6 78 vmov q6, q5 83 vshr.u64 q10, q6, #8 90 vshr.u64 q5, q6, #32 97 vshr.u64 q10, q6, #16 104 vshr.u64 q5, q6, #24 120 vld1.u8 {q6}, [r0], r1 143 vmov q4, q3 ;keep original src data in q4 q6 144 vmov q6, q5 [all …]
|
D | sixtappredict16x16_neon.asm | 159 vmull.u8 q6, d30, d3 163 vqadd.s16 q12, q6 165 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3]) 171 vqadd.s16 q9, q6 192 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 196 vabs.s32 q8, q6 224 vmull.u8 q6, d21, d0 229 vmlsl.u8 q6, d22, d1 234 vmlsl.u8 q6, d25, d4 239 vmlal.u8 q6, d23, d2 [all …]
|
D | sixtappredict8x4_neon.asm | 62 vld1.u8 {q6}, [r0], r1 121 vmull.u8 q6, d31, d3 126 vqadd.s16 q10, q6 139 vld1.u8 {q6}, [r0], r1 208 vmull.u8 q6, d30, d3 214 vqadd.s16 q11, q6 228 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 232 vabs.s32 q8, q6 246 vmull.u8 q6, d25, d0 251 vmlsl.u8 q6, d26, d1 [all …]
|
D | sixtappredict8x8_neon.asm | 65 vld1.u8 {q6}, [r0], r1 125 vmull.u8 q6, d31, d3 132 vqadd.s16 q10, q6 146 vld1.u8 {q6}, [r0], r1 155 ;vld1.u8 {q6}, [r0], r1 221 vmull.u8 q6, d30, d3 227 vqadd.s16 q11, q6 239 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 245 vabs.s32 q8, q6 264 vmull.u8 q6, d21, d0 [all …]
|
D | loopfiltersimplehorizontaledge_neon.asm | 35 vld1.u8 {q6}, [r0], r1 ; p0 42 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 50 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 92 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 97 veor q6, q11, q0 ; *op0 = u^0x80 100 vst1.u8 {q6}, [r0] ; store op0
|
D | mbloopfilter_neon.asm | 46 vld1.u8 {q6}, [r0], r1 ; p0 61 vst1.u8 {q6}, [r3], r1 ; store op0 171 vtrn.32 q6, q10 174 vtrn.16 q4, q6 179 vtrn.8 q5, q6 204 vtrn.32 q6, q10 208 vtrn.16 q4, q6 213 vtrn.8 q5, q6 285 vtrn.32 q6, q10 288 vtrn.16 q4, q6 [all …]
|
D | recon16x16mb_neon.asm | 41 vmovl.u8 q6, d30 56 vadd.s16 q6, q6, q14 66 vqmovun.s16 d6, q6 92 vmovl.u8 q6, d30 103 vadd.s16 q6, q6, q14 115 vqmovun.s16 d6, q6
|
D | bilinearpredict8x8_neon.asm | 46 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 56 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 62 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 73 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 85 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 91 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 116 vmull.u8 q6, d27, d0 125 vmlal.u8 q6, d28, d1 134 vqrshrn.u16 d7, q6, #7
|
D | loopfilter_neon.asm | 46 vld1.u8 {q6}, [r2], r1 ; p0 57 vst1.u8 {q6}, [r0], r1 ; store op0 165 vtrn.32 q6, q10 168 vtrn.16 q4, q6 173 vtrn.8 q5, q6 249 vtrn.32 q6, q10 252 vtrn.16 q4, q6 257 vtrn.8 q5, q6 305 ; q6 p0 316 vabd.u8 q13, q5, q6 ; abs(p1 - p0) [all …]
|
D | recon4b_neon.asm | 36 vmovl.u8 q6, d30 47 vadd.s16 q6, q6, q14 56 vqmovun.s16 d6, q6
|
/external/libvpx/vp8/decoder/arm/neon/ |
D | idct_dequant_dc_full_2x_neon.asm | 67 ; q6: 4 * sinpi : c1/temp1 71 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2 97 vqsub.s16 q2, q6, q5 106 vqsub.s16 q6, q11, q2 110 vtrn.32 q4, q6 113 vtrn.16 q6, q7 117 ; q6: l 2, 6,10,14 r 2, 6,10,14 129 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2 130 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2 152 vqsub.s16 q6, q3, q8 [all …]
|
D | idct_dequant_full_2x_neon.asm | 59 ; q6: 4 * sinpi : c1/temp1 63 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2 89 vqsub.s16 q2, q6, q5 98 vqsub.s16 q6, q11, q2 102 vtrn.32 q4, q6 105 vtrn.16 q6, q7 109 ; q6: l 2, 6,10,14 r 2, 6,10,14 121 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2 122 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2 144 vqsub.s16 q6, q3, q8 [all …]
|
/external/libvpx/vp8/encoder/arm/neon/ |
D | vp8_subpixelvariance8x8_neon.asm | 49 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 76 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 118 vmull.u8 q6, d27, d0 127 vmlal.u8 q6, d28, d1 136 vqrshrn.u16 d27, q6, #7 174 vsubl.u8 q6, d24, d2 [all …]
|
D | vp8_subpixelvariance16x16s_neon.asm | 58 vext.8 q7, q6, q7, #1 64 vrhadd.u8 q3, q6, q7 68 vsubl.u8 q6, d2, d24 84 vpadal.s16 q8, q6 149 vld1.u8 {q6}, [r0], r1 156 vrhadd.u8 q4, q4, q6 157 vrhadd.u8 q6, q6, q15 256 vext.8 q7, q6, q7, #1 261 vrhadd.u8 q3, q6, q7 266 vld1.8 {q6}, [r2], r3 [all …]
|
D | fastfdct8x4_neon.asm | 60 vshl.i16 q6, q6, #1 ; c1, d1 71 vqdmulh.s16 q10, q6, d0[0] 73 vqdmulh.s16 q9, q6, d0[2] 82 …vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x… 122 vqdmulh.s16 q10, q6, d0[0] 124 vqdmulh.s16 q9, q6, d0[2] 133 …vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x… 146 vclt.s16 q6, q2, #0 151 vsub.s16 q2, q2, q6
|
D | sad16_neon.asm | 37 vld1.8 {q6}, [r2], r3 62 vld1.8 {q6}, [r2], r3 87 vld1.8 {q6}, [r2], r3 112 vld1.8 {q6}, [r2], r3 156 vld1.8 {q6}, [r2], r3 180 vld1.8 {q6}, [r2], r3
|
D | fastfdct4x4_neon.asm | 55 vqdmulh.s16 q6, q5, d0[1] 59 vshr.s16 q6, q6, #1 85 vqdmulh.s16 q6, q5, d0[1] 89 vshr.s16 q6, q6, #1
|
D | shortfdct_neon.asm | 63 vmull.s16 q6, d22, d4[2] ;i=2 68 vmlal.s16 q6, d24, d5[2] 73 vmlal.s16 q6, d26, d6[2] 78 vmlal.s16 q6, d28, d7[2] ;sumtemp for i=2 83 vrshr.s32 q2, q6, #16
|
/external/llvm/test/CodeGen/X86/ |
D | avx2-vbroadcast.ll | 13 %q6 = insertelement <16 x i8> %q5, i8 %q, i32 6 14 %q7 = insertelement <16 x i8> %q6, i8 %q, i32 7 35 %q6 = insertelement <32 x i8> %q5, i8 %q, i32 6 36 %q7 = insertelement <32 x i8> %q6, i8 %q, i32 7 75 %q6 = insertelement <8 x i16> %q5, i16 %q, i32 6 76 %q7 = insertelement <8 x i16> %q6, i16 %q, i32 7 89 %q6 = insertelement <16 x i16> %q5, i16 %q, i32 6 90 %q7 = insertelement <16 x i16> %q6, i16 %q, i32 7 121 %q6 = insertelement <8 x i32> %q5, i32 %q, i32 6 122 %q7 = insertelement <8 x i32> %q6, i32 %q, i32 7
|