Home
last modified time | relevance | path

Searched refs:d6 (Results 1 – 25 of 735) sorted by relevance

12345678910>>...30

/external/libhevc/common/arm/
Dihevc_intra_pred_luma_planar.s153 vdup.s8 d6, r9 @nt - 1 - row
196 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col]
204 vsub.s8 d6, d6, d7 @(1)
212 vmlal.u8 q15, d6, d3 @(2)
218 vsub.s8 d6, d6, d7 @(2)
227 vmlal.u8 q14, d6, d3 @(3)
235 vsub.s8 d6, d6, d7 @(3)
244 vmlal.u8 q5, d6, d3 @(4)
252 vsub.s8 d6, d6, d7 @(4)
261 vmlal.u8 q8, d6, d3 @(5)
[all …]
Dihevc_itrans_recon_32x32.s118 @d4[0]= 64 d6[0]=36
119 @d4[1]= 61 d6[1]=31
120 @d4[2]= 57 d6[2]=25
121 @d4[3]= 54 d6[3]=22
178 vld1.16 {d4,d5,d6,d7},[r14]!
259 vmlal.s16 q14,d14,d6[1]
288 vmlal.s16 q13,d8,d6[3] @// y1 * cos3(part of b1)
305 vmlal.s16 q11,d10,d6[0]
308 vmlsl.s16 q8,d10,d6[0]
332 vmlsl.s16 q13,d14,d6[1]
[all …]
Dihevc_padding.s146 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
147 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
148 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
149 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
150 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
265 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
266 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
267 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
268 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
269 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store
[all …]
Dihevc_itrans_recon_8x8.s196 vld1.16 d6,[r0]!
198 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
200 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
202 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
204 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
277 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
295 vld1.16 d6,[r0]!
308 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
309 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
310 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
[all …]
Dihevc_intra_pred_luma_mode_3_to_9.s180 vmovn.s16 d6, q11
195 vand d6, d6, d29 @fract values in d1/ idx values in d0
206 vsub.s8 d7, d28, d6 @32-fract
214 vmlal.u8 q12, d13, d6 @mul (row 0)
224 vmlal.u8 q11, d17, d6 @mul (row 1)
235 vmlal.u8 q10, d15, d6 @mul (row 2)
246 vmlal.u8 q9, d11, d6 @mul (row 3)
257 vmlal.u8 q12, d13, d6 @mul (row 4)
268 vmlal.u8 q11, d17, d6 @mul (row 5)
279 vmlal.u8 q10, d15, d6 @mul (row 6)
[all …]
Dihevc_itrans_recon_16x16.s225 vld1.16 d6,[r0],r10
238 @d6= r1
243 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
244 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
245 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
246 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
308 vld1.16 d6,[r0],r10
318 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
319 vmlsl.s16 q13,d6,d1[1] @// y1 * cos3(part of b1)
320 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2)
[all …]
Dihevc_intra_pred_filters_luma_mode_11_to_17.s290 vmovn.s16 d6, q11
307 vand d6, d6, d29 @fract values in d1/ idx values in d0
316 vsub.s8 d7, d28, d6 @32-fract
324 vmlal.u8 q12, d13, d6 @mul (row 0)
334 vmlal.u8 q11, d17, d6 @mul (row 1)
345 vmlal.u8 q10, d15, d6 @mul (row 2)
356 vmlal.u8 q9, d11, d6 @mul (row 3)
367 vmlal.u8 q12, d13, d6 @mul (row 4)
378 vmlal.u8 q11, d17, d6 @mul (row 5)
389 vmlal.u8 q10, d15, d6 @mul (row 6)
[all …]
Dihevc_inter_pred_filters_luma_vert.s171 vld1.u8 {d6},[r3],r2 @src_tmp3 = vld1_u8(pu1_src_tmp)@
176 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
213 vmlal.u8 q6,d6,d26
226 vmlal.u8 q7,d6,d25
233 vld1.u8 {d6},[r3],r2 @src_tmp3 = vld1_u8(pu1_src_tmp)@
264 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
287 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
309 vmlal.u8 q6,d6,d26
333 vmlal.u8 q7,d6,d25
[all …]
/external/libavc/common/arm/
Dih264_inter_pred_filters_luma_horz_a9q.s125 vld1.8 {d5, d6, d7}, [r0], r2 @// Load row1
128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
[all …]
Dih264_inter_pred_luma_horz_qpel_a9q.s132 vld1.8 {d5, d6, d7}, [r0], r2 @// Load row1
135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
[all …]
Dih264_inter_pred_chroma_a9q.s144 vld1.8 {d5, d6, d7}, [r0], r2 @ Load row1
146 vext.8 d8, d5, d6, #2
152 vext.8 d9, d6, d7, #2
156 vmull.u8 q6, d6, d30
164 vmov d1, d6
167 vld1.8 {d5, d6, d7}, [r0], r2 @ Load row1
170 vext.8 d8, d5, d6, #2
172 vext.8 d9, d6, d7, #2
181 vmull.u8 q6, d6, d30
211 vqrshrun.s16 d6, q2, #6
[all …]
Dih264_deblk_chroma_a9.s96 vld2.8 {d6, d7}, [r0], r1 @D6 = p1u , D7 = p1v
101 vaddl.u8 q4, d6, d0 @
113 vmlal.u8 q7, d6, d31 @
174 vld4.16 {d0[0], d2[0], d4[0], d6[0]}, [r0], r1
175 vld4.16 {d0[1], d2[1], d4[1], d6[1]}, [r0], r1
176 vld4.16 {d0[2], d2[2], d4[2], d6[2]}, [r0], r1
177 vld4.16 {d0[3], d2[3], d4[3], d6[3]}, [r0], r1
191 vaddl.u8 q7, d2, d6
201 vmlal.u8 q9, d6, d31
213 vst4.16 {d0[0], d2[0], d4[0], d6[0]}, [r12], r1
[all …]
/external/capstone/suite/MC/ARM/
Dneon-vld-encoding.s.cs11 0x5f,0x46,0x23,0xf4 = vld1.16 {d4, d5, d6}, [r3:64]
12 0x8f,0x56,0x23,0xf4 = vld1.32 {d5, d6, d7}, [r3]
13 0xdf,0x66,0x23,0xf4 = vld1.64 {d6, d7, d8}, [r3:64]
15 0x5f,0x42,0x23,0xf4 = vld1.16 {d4, d5, d6, d7}, [r3:64]
16 0x8f,0x52,0x23,0xf4 = vld1.32 {d5, d6, d7, d8}, [r3]
17 0xdf,0x62,0x23,0xf4 = vld1.64 {d6, d7, d8, d9}, [r3:64]
35 0x5d,0x46,0x23,0xf4 = vld1.16 {d4, d5, d6}, [r3:64]!
36 0x8d,0x56,0x23,0xf4 = vld1.32 {d5, d6, d7}, [r3]!
37 0xdd,0x66,0x23,0xf4 = vld1.64 {d6, d7, d8}, [r3:64]!
39 0x56,0x46,0x23,0xf4 = vld1.16 {d4, d5, d6}, [r3:64], r6
[all …]
/external/llvm/test/MC/ARM/
Dneon-vld-encoding.s12 vld1.16 {d4, d5, d6}, [r3:64]
13 vld1.32 {d5, d6, d7}, [r3]
14 vld1.64 {d6, d7, d8}, [r3:64]
16 vld1.16 {d4, d5, d6, d7}, [r3:64]
17 vld1.32 {d5, d6, d7, d8}, [r3]
18 vld1.64 {d6, d7, d8, d9}, [r3:64]
39 vld1.16 {d4, d5, d6}, [r3:64]!
40 vld1.32 {d5, d6, d7}, [r3]!
41 vld1.64 {d6, d7, d8}, [r3:64]!
44 vld1.16 {d4, d5, d6}, [r3:64], r6
[all …]
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
Dneon-vld-encoding.s12 vld1.16 {d4, d5, d6}, [r3:64]
13 vld1.32 {d5, d6, d7}, [r3]
14 vld1.64 {d6, d7, d8}, [r3:64]
16 vld1.16 {d4, d5, d6, d7}, [r3:64]
17 vld1.32 {d5, d6, d7, d8}, [r3]
18 vld1.64 {d6, d7, d8, d9}, [r3:64]
39 vld1.16 {d4, d5, d6}, [r3:64]!
40 vld1.32 {d5, d6, d7}, [r3]!
41 vld1.64 {d6, d7, d8}, [r3:64]!
44 vld1.16 {d4, d5, d6}, [r3:64], r6
[all …]
/external/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"},
113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"},
114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"},
123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"},
124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"},
126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"},
127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"},
128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"},
140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"},
113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"},
114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"},
123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"},
124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"},
126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"},
127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"},
128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"},
140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"},
[all …]
/external/boringssl/ios-arm/crypto/fipsmodule/
Dghash-armv4.S387 vld1.64 d6,[r1]
391 vshr.u64 d26,d6,#63
410 vld1.64 d6,[r0]!
443 vld1.64 d6,[r2]!
450 vmull.p8 q8, d16, d6 @ F = A1*B
451 vext.8 d0, d6, d6, #1 @ B1
454 vmull.p8 q9, d18, d6 @ H = A2*B
455 vext.8 d22, d6, d6, #2 @ B2
459 vmull.p8 q10, d20, d6 @ J = A3*B
460 vext.8 d0, d6, d6, #3 @ B3
[all …]
/external/libhevc/decoder/arm/
Dihevcd_itrans_recon_dc_chroma.s94 vld2.8 {d6,d7},[r7],r2
107 vaddw.u8 q13,q0,d6
117 vqmovun.s16 d6,q13
129 vst2.8 {d6,d7},[r11],r3
161 vld2.8 {d6,d7},[r0],r2
169 vaddw.u8 q13,q0,d6
176 vqmovun.s16 d6,q13
182 vzip.8 d6,d7
187 vst1.u32 {d6},[r1],r3
/external/compiler-rt/lib/builtins/arm/
Dsubdf3vfp.S21 vmov d6, r0, r1 // move first param from r0/r1 pair into d6
23 vsub.f64 d6, d6, d7
24 vmov r0, r1, d6 // move result back to r0/r1 pair
Dadddf3vfp.S21 vmov d6, r0, r1 // move first param from r0/r1 pair into d6
23 vadd.f64 d6, d6, d7
24 vmov r0, r1, d6 // move result back to r0/r1 pair
Dmuldf3vfp.S21 vmov d6, r0, r1 // move first param from r0/r1 pair into d6
23 vmul.f64 d6, d6, d7
24 vmov r0, r1, d6 // move result back to r0/r1 pair
/external/boringssl/linux-arm/crypto/fipsmodule/
Dghash-armv4.S380 vld1.64 d6,[r1]
384 vshr.u64 d26,d6,#63
401 vld1.64 d6,[r0]!
432 vld1.64 d6,[r2]!
439 vmull.p8 q8, d16, d6 @ F = A1*B
440 vext.8 d0, d6, d6, #1 @ B1
443 vmull.p8 q9, d18, d6 @ H = A2*B
444 vext.8 d22, d6, d6, #2 @ B2
448 vmull.p8 q10, d20, d6 @ J = A3*B
449 vext.8 d0, d6, d6, #3 @ B3
[all …]
/external/pdfium/third_party/libpng16/arm/
Dfilter_neon.S69 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
72 vadd.u8 d2, d1, d6
91 vext.8 d6, d22, d23, #6
96 vadd.u8 d2, d1, d6
124 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
131 vadd.u8 d2, d2, d6
155 vext.8 d6, d22, d23, #6
165 vadd.u8 d2, d2, d6
197 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
204 vadd.u8 d2, d2, d6
[all …]
/external/libpng/arm/
Dfilter_neon.S69 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
72 vadd.u8 d2, d1, d6
91 vext.8 d6, d22, d23, #6
96 vadd.u8 d2, d1, d6
124 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
131 vadd.u8 d2, d2, d6
155 vext.8 d6, d22, d23, #6
165 vadd.u8 d2, d2, d6
197 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
204 vadd.u8 d2, d2, d6
[all …]

12345678910>>...30