/external/XNNPACK/src/f32-gemm/ |
D | 4x8-minmax-aarch32-neon-cortex-a53.S | 84 VMOV q10, q8 87 VMOV q11, q9 90 VMOV q12, q8 93 VMOV q13, q9 96 VMOV q14, q8 99 VMOV q15, q9 124 VMOV d15, r0, r2 // b1 VMOV b from second group 134 VMOV d5, r0, r2 // a1 VMOV define 144 VMOV d9, r0, r2 // b0 VMOV define 154 VMOV d7, r0, r2 // a3 VMOV define [all …]
|
D | 4x8-minmax-aarch32-neon-ld64.S.in | 83 VMOV q10, q8 84 VMOV q11, q9 85 VMOV q12, q8 86 VMOV q13, q9 87 VMOV q14, q8 88 VMOV q15, q9 209 VMOV q8, q9 211 VMOV q10, q11 213 VMOV q12, q13 215 VMOV q14, q15 [all …]
|
D | 4x8-minmax-aarch32-neon-cortex-a7.S.in | 83 VMOV q10, q8 84 VMOV q11, q9 85 VMOV q12, q8 86 VMOV q13, q9 87 VMOV q14, q8 88 VMOV q15, q9 204 VMOV q8, q9 206 VMOV q10, q11 208 VMOV q12, q13 210 VMOV q14, q15 [all …]
|
D | 4x4-aarch32-vfp-ld64.S | 77 VMOV.F64 d10, d8 78 VMOV.F64 d12, d8 79 VMOV.F64 d14, d8 80 VMOV.F64 d11, d9 81 VMOV.F64 d13, d9 82 VMOV.F64 d15, d9 198 VMOV.F32 s16, s18 200 VMOV.F32 s20, s22 202 VMOV.F32 s24, s26 204 VMOV.F32 s28, s30
|
D | 4x8-minmax-aarch32-neon-cortex-a55.S | 81 VMOV q10, q8 84 VMOV q11, q9 87 VMOV q12, q8 90 VMOV q13, q9 93 VMOV q14, q8 96 VMOV q15, q9 383 VMOV q8, q9 385 VMOV q10, q11 387 VMOV q12, q13 389 VMOV q14, q15 [all …]
|
/external/XNNPACK/src/f32-igemm/ |
D | 4x8-minmax-aarch32-neon-cortex-a53.S | 77 VMOV q10, q8 78 VMOV q11, q9 79 VMOV q12, q8 80 VMOV q13, q9 83 VMOV q14, q8 86 VMOV q15, q9 147 VMOV d15, r0, r2 // b1 VMOV b from second group 157 VMOV d5, r0, r2 // a1 VMOV define 167 VMOV d9, r0, r2 // b0 VMOV define 177 VMOV d7, r0, r2 // a3 VMOV define [all …]
|
D | 4x8-minmax-aarch32-neon-cortex-a7.S.in | 78 VMOV q10, q8 79 VMOV q11, q9 80 VMOV q12, q8 81 VMOV q13, q9 82 VMOV q14, q8 83 VMOV q15, q9 232 VMOV q14, q15 234 VMOV q12, q13 236 VMOV q10, q11 238 VMOV q8, q9 [all …]
|
D | 4x8-minmax-aarch32-neon-ld64.S.in | 78 VMOV q10, q8 79 VMOV q11, q9 80 VMOV q12, q8 81 VMOV q13, q9 82 VMOV q14, q8 83 VMOV q15, q9 236 VMOV q14, q15 238 VMOV q12, q13 240 VMOV q10, q11 242 VMOV q8, q9 [all …]
|
D | 4x8-minmax-aarch32-neon-cortex-a55.S | 74 VMOV q10, q8 75 VMOV q11, q9 76 VMOV q12, q8 77 VMOV q13, q9 80 VMOV q14, q8 83 VMOV q15, q9 410 VMOV q14, q15 412 VMOV q12, q13 414 VMOV q10, q11 416 VMOV q8, q9 [all …]
|
/external/XNNPACK/src/f32-gemm/gen/ |
D | 4x8-minmax-aarch32-neon-ld64.S | 87 VMOV q10, q8 88 VMOV q11, q9 89 VMOV q12, q8 90 VMOV q13, q9 91 VMOV q14, q8 92 VMOV q15, q9 186 VMOV q8, q9 188 VMOV q10, q11 190 VMOV q12, q13 192 VMOV q14, q15 [all …]
|
D | 4x8-minmax-aarch32-neon-cortex-a7.S | 87 VMOV q10, q8 88 VMOV q11, q9 89 VMOV q12, q8 90 VMOV q13, q9 91 VMOV q14, q8 92 VMOV q15, q9 206 VMOV q8, q9 208 VMOV q10, q11 210 VMOV q12, q13 212 VMOV q14, q15 [all …]
|
D | 4x8-minmax-aarch32-neon-cortex-a75.S | 84 VMOV q10, q8 85 VMOV q11, q9 86 VMOV q12, q8 87 VMOV q13, q9 88 VMOV q14, q8 89 VMOV q15, q9 304 VMOV q8, q9 306 VMOV q10, q11 308 VMOV q12, q13 310 VMOV q14, q15 [all …]
|
D | 4x8-minmax-aarch32-neon-pld-cortex-a75.S | 84 VMOV q10, q8 85 VMOV q11, q9 86 VMOV q12, q8 87 VMOV q13, q9 88 VMOV q14, q8 89 VMOV q15, q9 325 VMOV q8, q9 327 VMOV q10, q11 329 VMOV q12, q13 331 VMOV q14, q15 [all …]
|
/external/XNNPACK/src/f32-igemm/gen/ |
D | 4x8-minmax-aarch32-neon-ld64.S | 82 VMOV q10, q8 83 VMOV q11, q9 84 VMOV q12, q8 85 VMOV q13, q9 86 VMOV q14, q8 87 VMOV q15, q9 212 VMOV q14, q15 214 VMOV q12, q13 216 VMOV q10, q11 218 VMOV q8, q9 [all …]
|
D | 4x8-minmax-aarch32-neon-cortex-a7.S | 82 VMOV q10, q8 83 VMOV q11, q9 84 VMOV q12, q8 85 VMOV q13, q9 86 VMOV q14, q8 87 VMOV q15, q9 233 VMOV q14, q15 235 VMOV q12, q13 237 VMOV q10, q11 239 VMOV q8, q9 [all …]
|
D | 4x8-minmax-aarch32-neon-cortex-a75.S | 78 VMOV q10, q8 79 VMOV q11, q9 80 VMOV q12, q8 81 VMOV q13, q9 82 VMOV q14, q8 83 VMOV q15, q9 328 VMOV q14, q15 330 VMOV q12, q13 332 VMOV q10, q11 334 VMOV q8, q9 [all …]
|
D | 4x8-minmax-aarch32-neon-pld-cortex-a75.S | 78 VMOV q10, q8 79 VMOV q11, q9 80 VMOV q12, q8 81 VMOV q13, q9 82 VMOV q14, q8 83 VMOV q15, q9 349 VMOV q14, q15 351 VMOV q12, q13 353 VMOV q10, q11 355 VMOV q8, q9 [all …]
|
/external/libxaac/decoder/armv7/ |
D | ixheaacd_calcmaxspectralline.s | 31 VMOV.S32 D6, #0x00000000 32 VMOV.S32 D7, #0x00000000 51 VMOV.32 R4, D6[0] 52 VMOV.32 R1, D6[1] 53 VMOV.32 R2, D7[0] 55 VMOV.32 R3, D7[1]
|
D | ixheaacd_post_twiddle_overlap.s | 45 VMOV.S16 D18, #50 47 VMOV.S32 Q10, #0x00008000 242 VMOV Q13, Q15 243 VMOV Q12, Q14 292 VMOV Q0, Q11 293 VMOV Q7, Q12 333 VMOV Q13, Q14 341 VMOV.S32 D1, #0 350 VMOV.S32 D1, #0 369 VMOV.S32 D1, #0 [all …]
|
D | ixheaacd_post_twiddle.s | 138 VMOV Q13, Q15 141 VMOV Q12, Q14 172 VMOV Q9, Q11 175 VMOV Q8, Q10 246 VMOV Q13, Q15 249 VMOV Q12, Q14 280 VMOV Q9, Q11 283 VMOV Q8, Q10 354 VMOV Q13, Q15 357 VMOV Q12, Q14 [all …]
|
D | ixheaacd_tns_ar_filter_fixed.s | 152 @VMOV R11,D6[0] 160 VMOV.32 D15[1], R2 @state[0] 192 @VMOV R11,D6[0] 200 VMOV.32 D15[1], R2 @state[0] 237 @VMOV R11,D6[0] 246 VMOV.32 D15[1], R2 @state[0] 284 @VMOV R11,D6[0] 293 VMOV.32 D15[1], R2 @state[0] 334 @VMOV R11,D6[0] 343 VMOV.32 D15[1], R2 @state[0] [all …]
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 118 VMOV.16 D0[0],R10 @//C1 121 VMOV.16 D0[1],R10 @//C2 124 VMOV.16 D0[2],R10 @//C3 127 VMOV.16 D0[3],R10 @//C4 176 @VMOV.I8 Q1,#128 230 VMOV.I8 D17,#0 240 VMOV.I8 D23,#0 281 VMOV.I8 D17,#0 291 VMOV.I8 D23,#0 313 @VMOV.I8 Q1,#128 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class0_chroma.s | 93 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2) 97 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0) 101 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1) 143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14) 150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 164 …VMOV.16 D15[3],r11 @vsetq_lane_u16(pu1_src_left[ht - row], pu1_cur_row_tmp, 1… [all …]
|
D | ihevc_sao_edge_offset_class3_chroma.s | 285 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 286 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 287 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 330 VMOV.I8 Q9,#0 361 VMOV.I8 Q9,#0 @I [all …]
|
D | ihevc_sao_edge_offset_class2_chroma.s | 273 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 277 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 281 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 374 VMOV.I8 Q9,#0 378 …VMOV.16 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd +… [all …]
|