Home
last modified time | relevance | path

Searched refs:VMOV (Results 1 – 25 of 93) sorted by relevance

1234

/external/XNNPACK/src/f32-gemm/
D4x8-minmax-aarch32-neon-cortex-a53.S84 VMOV q10, q8
87 VMOV q11, q9
90 VMOV q12, q8
93 VMOV q13, q9
96 VMOV q14, q8
99 VMOV q15, q9
124 VMOV d15, r0, r2 // b1 VMOV b from second group
134 VMOV d5, r0, r2 // a1 VMOV define
144 VMOV d9, r0, r2 // b0 VMOV define
154 VMOV d7, r0, r2 // a3 VMOV define
[all …]
D4x8-minmax-aarch32-neon-ld64.S.in83 VMOV q10, q8
84 VMOV q11, q9
85 VMOV q12, q8
86 VMOV q13, q9
87 VMOV q14, q8
88 VMOV q15, q9
209 VMOV q8, q9
211 VMOV q10, q11
213 VMOV q12, q13
215 VMOV q14, q15
[all …]
D4x8-minmax-aarch32-neon-cortex-a7.S.in83 VMOV q10, q8
84 VMOV q11, q9
85 VMOV q12, q8
86 VMOV q13, q9
87 VMOV q14, q8
88 VMOV q15, q9
204 VMOV q8, q9
206 VMOV q10, q11
208 VMOV q12, q13
210 VMOV q14, q15
[all …]
D4x4-aarch32-vfp-ld64.S77 VMOV.F64 d10, d8
78 VMOV.F64 d12, d8
79 VMOV.F64 d14, d8
80 VMOV.F64 d11, d9
81 VMOV.F64 d13, d9
82 VMOV.F64 d15, d9
198 VMOV.F32 s16, s18
200 VMOV.F32 s20, s22
202 VMOV.F32 s24, s26
204 VMOV.F32 s28, s30
D4x8-minmax-aarch32-neon-cortex-a55.S81 VMOV q10, q8
84 VMOV q11, q9
87 VMOV q12, q8
90 VMOV q13, q9
93 VMOV q14, q8
96 VMOV q15, q9
383 VMOV q8, q9
385 VMOV q10, q11
387 VMOV q12, q13
389 VMOV q14, q15
[all …]
/external/XNNPACK/src/f32-igemm/
D4x8-minmax-aarch32-neon-cortex-a53.S77 VMOV q10, q8
78 VMOV q11, q9
79 VMOV q12, q8
80 VMOV q13, q9
83 VMOV q14, q8
86 VMOV q15, q9
147 VMOV d15, r0, r2 // b1 VMOV b from second group
157 VMOV d5, r0, r2 // a1 VMOV define
167 VMOV d9, r0, r2 // b0 VMOV define
177 VMOV d7, r0, r2 // a3 VMOV define
[all …]
D4x8-minmax-aarch32-neon-cortex-a7.S.in78 VMOV q10, q8
79 VMOV q11, q9
80 VMOV q12, q8
81 VMOV q13, q9
82 VMOV q14, q8
83 VMOV q15, q9
232 VMOV q14, q15
234 VMOV q12, q13
236 VMOV q10, q11
238 VMOV q8, q9
[all …]
D4x8-minmax-aarch32-neon-ld64.S.in78 VMOV q10, q8
79 VMOV q11, q9
80 VMOV q12, q8
81 VMOV q13, q9
82 VMOV q14, q8
83 VMOV q15, q9
236 VMOV q14, q15
238 VMOV q12, q13
240 VMOV q10, q11
242 VMOV q8, q9
[all …]
D4x8-minmax-aarch32-neon-cortex-a55.S74 VMOV q10, q8
75 VMOV q11, q9
76 VMOV q12, q8
77 VMOV q13, q9
80 VMOV q14, q8
83 VMOV q15, q9
410 VMOV q14, q15
412 VMOV q12, q13
414 VMOV q10, q11
416 VMOV q8, q9
[all …]
/external/XNNPACK/src/f32-gemm/gen/
D4x8-minmax-aarch32-neon-ld64.S87 VMOV q10, q8
88 VMOV q11, q9
89 VMOV q12, q8
90 VMOV q13, q9
91 VMOV q14, q8
92 VMOV q15, q9
186 VMOV q8, q9
188 VMOV q10, q11
190 VMOV q12, q13
192 VMOV q14, q15
[all …]
D4x8-minmax-aarch32-neon-cortex-a7.S87 VMOV q10, q8
88 VMOV q11, q9
89 VMOV q12, q8
90 VMOV q13, q9
91 VMOV q14, q8
92 VMOV q15, q9
206 VMOV q8, q9
208 VMOV q10, q11
210 VMOV q12, q13
212 VMOV q14, q15
[all …]
D4x8-minmax-aarch32-neon-cortex-a75.S84 VMOV q10, q8
85 VMOV q11, q9
86 VMOV q12, q8
87 VMOV q13, q9
88 VMOV q14, q8
89 VMOV q15, q9
304 VMOV q8, q9
306 VMOV q10, q11
308 VMOV q12, q13
310 VMOV q14, q15
[all …]
D4x8-minmax-aarch32-neon-pld-cortex-a75.S84 VMOV q10, q8
85 VMOV q11, q9
86 VMOV q12, q8
87 VMOV q13, q9
88 VMOV q14, q8
89 VMOV q15, q9
325 VMOV q8, q9
327 VMOV q10, q11
329 VMOV q12, q13
331 VMOV q14, q15
[all …]
/external/XNNPACK/src/f32-igemm/gen/
D4x8-minmax-aarch32-neon-ld64.S82 VMOV q10, q8
83 VMOV q11, q9
84 VMOV q12, q8
85 VMOV q13, q9
86 VMOV q14, q8
87 VMOV q15, q9
212 VMOV q14, q15
214 VMOV q12, q13
216 VMOV q10, q11
218 VMOV q8, q9
[all …]
D4x8-minmax-aarch32-neon-cortex-a7.S82 VMOV q10, q8
83 VMOV q11, q9
84 VMOV q12, q8
85 VMOV q13, q9
86 VMOV q14, q8
87 VMOV q15, q9
233 VMOV q14, q15
235 VMOV q12, q13
237 VMOV q10, q11
239 VMOV q8, q9
[all …]
D4x8-minmax-aarch32-neon-cortex-a75.S78 VMOV q10, q8
79 VMOV q11, q9
80 VMOV q12, q8
81 VMOV q13, q9
82 VMOV q14, q8
83 VMOV q15, q9
328 VMOV q14, q15
330 VMOV q12, q13
332 VMOV q10, q11
334 VMOV q8, q9
[all …]
D4x8-minmax-aarch32-neon-pld-cortex-a75.S78 VMOV q10, q8
79 VMOV q11, q9
80 VMOV q12, q8
81 VMOV q13, q9
82 VMOV q14, q8
83 VMOV q15, q9
349 VMOV q14, q15
351 VMOV q12, q13
353 VMOV q10, q11
355 VMOV q8, q9
[all …]
/external/libxaac/decoder/armv7/
Dixheaacd_calcmaxspectralline.s31 VMOV.S32 D6, #0x00000000
32 VMOV.S32 D7, #0x00000000
51 VMOV.32 R4, D6[0]
52 VMOV.32 R1, D6[1]
53 VMOV.32 R2, D7[0]
55 VMOV.32 R3, D7[1]
Dixheaacd_post_twiddle_overlap.s45 VMOV.S16 D18, #50
47 VMOV.S32 Q10, #0x00008000
242 VMOV Q13, Q15
243 VMOV Q12, Q14
292 VMOV Q0, Q11
293 VMOV Q7, Q12
333 VMOV Q13, Q14
341 VMOV.S32 D1, #0
350 VMOV.S32 D1, #0
369 VMOV.S32 D1, #0
[all …]
Dixheaacd_post_twiddle.s138 VMOV Q13, Q15
141 VMOV Q12, Q14
172 VMOV Q9, Q11
175 VMOV Q8, Q10
246 VMOV Q13, Q15
249 VMOV Q12, Q14
280 VMOV Q9, Q11
283 VMOV Q8, Q10
354 VMOV Q13, Q15
357 VMOV Q12, Q14
[all …]
Dixheaacd_tns_ar_filter_fixed.s152 @VMOV R11,D6[0]
160 VMOV.32 D15[1], R2 @state[0]
192 @VMOV R11,D6[0]
200 VMOV.32 D15[1], R2 @state[0]
237 @VMOV R11,D6[0]
246 VMOV.32 D15[1], R2 @state[0]
284 @VMOV R11,D6[0]
293 VMOV.32 D15[1], R2 @state[0]
334 @VMOV R11,D6[0]
343 VMOV.32 D15[1], R2 @state[0]
[all …]
/external/libhevc/decoder/arm/
Dihevcd_fmt_conv_420sp_to_rgba8888.s118 VMOV.16 D0[0],R10 @//C1
121 VMOV.16 D0[1],R10 @//C2
124 VMOV.16 D0[2],R10 @//C3
127 VMOV.16 D0[3],R10 @//C4
176 @VMOV.I8 Q1,#128
230 VMOV.I8 D17,#0
240 VMOV.I8 D23,#0
281 VMOV.I8 D17,#0
291 VMOV.I8 D23,#0
313 @VMOV.I8 Q1,#128
[all …]
/external/libhevc/common/arm/
Dihevc_sao_edge_offset_class0_chroma.s93 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2)
97 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0)
101 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1)
143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14)
150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
164VMOV.16 D15[3],r11 @vsetq_lane_u16(pu1_src_left[ht - row], pu1_cur_row_tmp, 1…
[all …]
Dihevc_sao_edge_offset_class3_chroma.s285 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
286 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
287 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
330 VMOV.I8 Q9,#0
361 VMOV.I8 Q9,#0 @I
[all …]
Dihevc_sao_edge_offset_class2_chroma.s273 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
277 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
281 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
374 VMOV.I8 Q9,#0
378VMOV.16 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd +…
[all …]

1234