/external/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/CodeGen/ARM/ |
D | thumb-big-stack.ll | 145 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 147 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 149 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 151 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 153 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 155 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 157 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 159 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 161 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… 163 …tail call void asm sideeffect "", "~{q0}{q1}{q2}{q3}{q4}{q5}{q6}{q7}{q8}{q9}{q10}{q11}{q12}{q13}{q… [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
D | neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1] 87 vrsra.u8 q5, q6, #8 88 vrsra.u16 q6, q7, #16 [all …]
|
D | neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3] 84 vrsra.u8 q5, q6, #8 85 vrsra.u16 q6, q7, #16 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all …]
|
D | neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3] 84 vrsra.u8 q5, q6, #8 85 vrsra.u16 q6, q7, #16 [all …]
|
D | neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1] 87 vrsra.u8 q5, q6, #8 88 vrsra.u16 q6, q7, #16 [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-shuffle-encoding.s.cs | 47 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 48 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 49 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 50 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6 51 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 52 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 53 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 54 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6 55 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6 56 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6 [all …]
|
D | neon-shiftaccum-encoding.s.cs | 7 0x5c,0x61,0x90,0xf2 = vsra.s16 q3, q6, #16 16 0x5c,0x61,0xab,0xf3 = vsra.u32 q3, q6, #21 23 0x5c,0xc1,0x90,0xf2 = vsra.s16 q6, q6, #16 32 0x5c,0xc1,0xab,0xf3 = vsra.u32 q6, q6, #21 46 0x5c,0xa3,0x88,0xf3 = vrsra.u8 q5, q6, #8 47 0x5e,0xc3,0x90,0xf3 = vrsra.u16 q6, q7, #16 62 0x5c,0xc3,0x88,0xf3 = vrsra.u8 q6, q6, #8 81 0xdc,0x24,0xc0,0xf3 = vsri.64 q9, q6, #64 97 0xdc,0xc4,0x80,0xf3 = vsri.64 q6, q6, #64
|
D | neont2-shiftaccum-encoding.s.cs | 7 0x90,0xef,0x5c,0x61 = vsra.s16 q3, q6, #16 16 0xab,0xff,0x5c,0x61 = vsra.u32 q3, q6, #21 23 0x90,0xef,0x5c,0xc1 = vsra.s16 q6, q6, #16 32 0xab,0xff,0x5c,0xc1 = vsra.u32 q6, q6, #21 46 0x88,0xff,0x5c,0xa3 = vrsra.u8 q5, q6, #8 47 0x90,0xff,0x5e,0xc3 = vrsra.u16 q6, q7, #16 62 0x88,0xff,0x5c,0xc3 = vrsra.u8 q6, q6, #8 81 0xc0,0xff,0xdc,0x24 = vsri.64 q9, q6, #64 97 0x80,0xff,0xdc,0xc4 = vsri.64 q6, q6, #64
|
/external/libavc/encoder/arm/ |
D | ih264e_evaluate_intra4x4_modes_a9q.s | 238 vaddl.u8 q6, d0, d2 243 vqrshrun.s16 d10, q6, #1 245 vadd.u16 q11, q6, q8 258 vext.8 q15, q6, q6, #5 260 vext.8 q15, q6, q6, #15 262 vext.8 q15, q6, q6, #2 265 vext.8 q15, q6, q6, #4 287 vext.8 q15, q6, q6, #3 289 vext.8 q15, q6, q6, #1 291 vext.8 q15, q6, q6, #4 [all …]
|
/external/boringssl/src/crypto/curve25519/asm/ |
D | x25519-asm-arm.S | 40 vpush {q4,q5,q6,q7} 110 vshr.u64 q6,q6,#3 118 vand q6,q6,q2 142 vadd.i64 q6,q6,q12 144 vadd.i64 q14,q6,q1 155 vsub.i64 q6,q6,q12 176 vshl.i64 q6,q13,#4 179 vadd.i64 q4,q4,q6 180 vadd.i64 q6,q10,q0 182 vadd.i64 q8,q6,q1 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_planar.s | 183 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1] 185 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col] 187 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] 189 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row] 205 vadd.i16 q6, q6, q8 @add (nt) 207 vshl.s16 q6, q6, q7 @shr 222 vmovn.i16 d12, q6 250 vmull.u8 q6, d18, d0 @(row+1) * src[nt-1] 252 vmlal.u8 q6, d19, d10 @(nt-1-row) * src[2nt+1+col] 255 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] [all …]
|
D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 195 vmull.s16 q6,d3,d23 197 vmlal.s16 q6,d2,d22 199 vmlal.s16 q6,d4,d24 200 vmlal.s16 q6,d5,d25 201 vmlal.s16 q6,d6,d26 202 vmlal.s16 q6,d7,d27 203 vmlal.s16 q6,d16,d28 204 vmlal.s16 q6,d17,d29 225 vsub.s32 q6, q6, q15 251 vshrn.s32 d12, q6, #6 [all …]
|
D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 185 vmull.s16 q6,d3,d23 187 vmlal.s16 q6,d2,d22 189 vmlal.s16 q6,d4,d24 190 vmlal.s16 q6,d5,d25 191 vmlal.s16 q6,d6,d26 192 vmlal.s16 q6,d7,d27 193 vmlal.s16 q6,d16,d28 194 vmlal.s16 q6,d17,d29 214 vqshrn.s32 d12, q6, #6 238 vqrshrun.s16 d12,q6,#6 [all …]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
D | vp8_loopfilter_neon.c | 21 uint8x16_t q6, // p0 in vp8_loop_filter_neon() argument 38 q13u8 = vabdq_u8(q5, q6); in vp8_loop_filter_neon() 48 q9 = vabdq_u8(q6, q7); in vp8_loop_filter_neon() 65 q6 = veorq_u8(q6, q10); in vp8_loop_filter_neon() 74 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon() 76 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_loop_filter_neon() 108 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8); in vp8_loop_filter_neon() 130 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_loop_filter_horizontal_edge_y_neon() local 143 q6 = vld1q_u8(src); in vp8_loop_filter_horizontal_edge_y_neon() 153 vp8_loop_filter_neon(qblimit, qlimit, qthresh, q3, q4, q5, q6, q7, q8, q9, in vp8_loop_filter_horizontal_edge_y_neon() [all …]
|
D | mbloopfilter_neon.c | 20 uint8x16_t q6, // p0 in vp8_mbloop_filter_neon() argument 40 q13u8 = vabdq_u8(q5, q6); in vp8_mbloop_filter_neon() 50 q12u8 = vabdq_u8(q6, q7); in vp8_mbloop_filter_neon() 68 q6 = veorq_u8(q6, q0u8); in vp8_mbloop_filter_neon() 79 vget_low_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon() 81 vget_high_s8(vreinterpretq_s8_u8(q6))); in vp8_mbloop_filter_neon() 109 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8); in vp8_mbloop_filter_neon() 158 uint8x16_t q5, q6, q7, q8, q9, q10; in vp8_mbloop_filter_horizontal_edge_y_neon() local 172 q6 = vld1q_u8(src); in vp8_mbloop_filter_horizontal_edge_y_neon() 182 vp8_mbloop_filter_neon(qblimit, qlimit, qthresh, q3, q4, q5, q6, q7, q8, q9, in vp8_mbloop_filter_horizontal_edge_y_neon() [all …]
|
/external/libjpeg-turbo/simd/arm/ |
D | jsimd_neon.S | 111 JLONG q1, q2, q3, q4, q5, q6, q7; \ 126 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ 132 q4 = q6; \ 134 q6 += MULTIPLY(row5, -FIX_2_562915447) + \ 141 q1 = q1 + q6; \ 149 q1 = q1 - q6; \ 152 q1 = q1 - q6; \ 153 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ 161 q2 = q1 + q6; \ 162 q1 = q1 - q6; \ [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_vert_a9q.s | 126 vaddl.u8 q6, d4, d6 @ temp1 = src[2_0] + src[3_0] 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 137 vaddl.u8 q6, d6, d8 141 vmla.u16 q8, q6, q11 144 vaddl.u8 q6, d7, d9 148 vmla.u16 q7, q6, q11 152 vaddl.u8 q6, d8, d10 155 vmla.u16 q9, q6, q11 159 vaddl.u8 q6, d9, d11 162 vmla.u16 q8, q6, q11 [all …]
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
D | vpx_convolve8_vert_filter_type1_neon.asm.S | 127 vdup.16 q6, r11 143 vmlsl.u8 q6, d3, d23 145 vmlsl.u8 q6, d2, d22 147 vmlal.u8 q6, d4, d24 150 vmlal.u8 q6, d5, d25 151 vmlal.u8 q6, d6, d26 152 vmlal.u8 q6, d7, d27 153 vmlsl.u8 q6, d16, d28 154 vmlsl.u8 q6, d17, d29 165 vhadd.s16 q6, q6, q15 [all …]
|
D | vpx_convolve8_avg_vert_filter_type2_neon.asm.S | 127 vdup.16 q6, r11 144 vmlal.u8 q6, d3, d23 146 vmlsl.u8 q6, d2, d22 149 vmlsl.u8 q6, d4, d24 152 vmlal.u8 q6, d5, d25 153 vmlal.u8 q6, d6, d26 155 vmlsl.u8 q6, d7, d27 156 vmlal.u8 q6, d16, d28 158 vmlsl.u8 q6, d17, d29 169 vhadd.s16 q6, q6, q15 [all …]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | vpx_convolve8_vert_filter_type1_neon.asm | 120 vdup.16 q6, r11 136 vmlsl.u8 q6, d3, d23 138 vmlsl.u8 q6, d2, d22 140 vmlal.u8 q6, d4, d24 143 vmlal.u8 q6, d5, d25 144 vmlal.u8 q6, d6, d26 145 vmlal.u8 q6, d7, d27 146 vmlsl.u8 q6, d16, d28 147 vmlsl.u8 q6, d17, d29 158 vhadd.s16 q6, q6, q15 [all …]
|
D | vpx_convolve8_avg_vert_filter_type2_neon.asm | 120 vdup.16 q6, r11 137 vmlal.u8 q6, d3, d23 139 vmlsl.u8 q6, d2, d22 142 vmlsl.u8 q6, d4, d24 145 vmlal.u8 q6, d5, d25 146 vmlal.u8 q6, d6, d26 148 vmlsl.u8 q6, d7, d27 149 vmlal.u8 q6, d16, d28 151 vmlsl.u8 q6, d17, d29 162 vhadd.s16 q6, q6, q15 [all …]
|
D | vpx_convolve8_vert_filter_type2_neon.asm | 120 vdup.16 q6, r11 137 vmlal.u8 q6, d3, d23 139 vmlsl.u8 q6, d2, d22 141 vmlsl.u8 q6, d4, d24 144 vmlal.u8 q6, d5, d25 145 vmlal.u8 q6, d6, d26 146 vmlsl.u8 q6, d7, d27 147 vmlal.u8 q6, d16, d28 148 vmlsl.u8 q6, d17, d29 159 vhadd.s16 q6, q6, q15 [all …]
|