Home
last modified time | relevance | path

Searched refs:d6 (Results 1 – 25 of 302) sorted by relevance

12345678910>>...13

/third_party/ffmpeg/libavcodec/arm/
Daacpsdsp_neon.S32 vpadd.f32 d6, d0, d1
43 vpadd.f32 d6, d0, d1
57 vmul.f32 d4, d0, d6[0]
58 vmul.f32 d5, d1, d6[1]
60 vmul.f32 d6, d2, d7[0]
67 vmul.f32 d4, d0, d6[0]
68 vmul.f32 d5, d1, d6[1]
70 vmul.f32 d6, d2, d7[0]
79 vmul.f32 d4, d0, d6[0]
80 vmul.f32 d5, d1, d6[1]
[all …]
Didctdsp_neon.S38 vqmovun.s16 d6, q14
43 vst1.8 {d6}, [r1,:64], r2
74 vqmovn.s16 d6, q12
78 vadd.u8 d6, d6, d31
80 vst1.8 {d6}, [r1,:64], r2
100 vld1.16 {d6-d7}, [r0,:128]!
105 vqmovun.s16 d6, q3
112 vst1.8 {d6}, [r3,:64], r2
121 vld1.16 {d6-d7}, [r0,:128]!
124 vqmovun.s16 d6, q3
[all …]
Dsbcdsp_neon.S45 vld1.16 {d6, d7}, [r0, :64]!
49 vmlal.s16 q0, d6, d10
55 vld1.16 {d6, d7}, [r0, :64]!
59 vmlal.s16 q0, d6, d10
82 vpadd.s32 d0, d6, d7 /* TODO: can be eliminated */
98 vld1.16 {d6, d7}, [r0, :64]!
101 vmull.s16 q8, d6, d10
107 vld1.16 {d6, d7}, [r0, :64]!
110 vmlal.s16 q8, d6, d10
116 vld1.16 {d6, d7}, [r0, :64]!
[all …]
Dsbrdsp_neon.S94 vld1.32 {d5,d6}, [r0,:128]!
100 vmov d2, d6
139 vswp d6, d7
144 vst2.32 {d4,d6}, [r0,:128]!
182 vsub.f32 d1, d1, d6
233 vrev64.32 d21, d6
235 vmla.f32 d6, d4, d18
237 vmla.f32 d6, d3, d0[1]
239 vmla.f32 d6, d5, d1
263 vmla.f32 d6, d0, d4
[all …]
Dmdct_neon.S43 vmul.f32 d6, d17, d2
50 vsub.f32 d4, d6, d4
61 vmul.f32 d6, d17, d2
98 vmul.f32 d6, d20, d19
104 vadd.f32 d6, d6, d23
112 vst2.32 {d4,d6}, [r0,:128], r7
117 vst2.32 {d4,d6}, [r0,:128]
193 vmul.f32 d6, d1, d20 @ -R*c
202 vsub.f32 d6, d6, d7 @ -R*c-I*s
225 vst2.32 {d6[0],d7[0]}, [r6,:64]
[all …]
Dh264cmc_neon.S64 1: vld1.8 {d6, d7}, [r1], r2
67 vext.8 d7, d6, d7, #1
69 vmlal.u8 q8, d6, d2
73 vmull.u8 q9, d6, d0
109 3: vld1.8 {d6}, [r1], r2
111 vmlal.u8 q8, d6, d1
113 vmull.u8 q9, d6, d0
139 vld1.8 {d6, d7}, [r1], r2
141 vext.8 d7, d6, d7, #1
146 vmull.u8 q9, d6, d0
[all …]
Dvp9lpf_neon.S163 vabd.u8 d6, d22, d23 @ abs(p1 - p0)
168 vmax.u8 d5, d6, d7
170 vabd.u8 d6, d23, d24 @ abs(p0 - q0)
172 vqadd.u8 d6, d6, d6 @ abs(p0 - q0) * 2
177 vqadd.u8 d6, d6, d5 @ abs(p0 - q0) * 2 + abs(p1 - q1) >> 1
178 vcle.u8 d5, d6, d0
190 vabd.u8 d6, d20, d23 @ abs(p3 - p0)
196 vmax.u8 d6, d6, d2
201 vmax.u8 d6, d6, d1
203 vmax.u8 d6, d6, \tmp2
[all …]
Drdft_neon.S82 vadd.f32 d1, d6, d25 @ -d1[0]+d2[0], d1[1]+d2[1]
86 veor d6, d20, d17 @ ev.re,-ev.im
90 vmla.f32 d6, d2, d4[1]
91 vmla.f32 d6, d21, d5[1]
108 vst1.32 {d6}, [lr,:64], r8
124 veor d6, d20, d17 @ ev.re,-ev.im
134 vmla.f32 d6, d2, d4[1]
135 vmla.f32 d6, d21, d5[1]
138 vst1.32 {d6}, [lr,:64]
Dvp8dsp_neon.S32 vadd.i16 d6, d1, d2
50 vadd.i16 d6, d1, d2
200 vld1.8 {d6}, [r0,:64], r2
203 vaddw.u8 q13, q9, d6
248 vaddw.u8 q13, q8, d6
324 vsubl.s8 q10, d8, d6 @ QS0 - PS0
509 vld1.8 {d6}, [r0,:64], r2 @ P0
537 vst1.8 {d6}, [r0,:64], r2 @ P0
566 vld1.8 {d6}, [r0], r1
597 vst1.8 {d6}, [r0], r1
[all …]
Dvp3dsp_neon.S135 vshrn.s32 d6, q4, #16
151 vshrn.s32 d6, q4, #16 // ip[7] * C7
167 vshrn.s32 d6, q4, #16
184 vshrn.s32 d6, q4, #16
205 vshrn.s32 d6, q4, #16
289 vqshrun.s16 d6, q14, #4
294 vst1.64 {d6}, [r0,:64], r1
322 vld1.64 {d6}, [r0,:64], r1
341 vaddw.u8 q14, q14, d6
345 vqmovun.s16 d6, q14
[all …]
Dvp9mc_neon.S177 vld1.32 {d6[]}, [r2], r3
181 vrhadd.u8 d2, d2, d6
322 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 1, \size
323 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 2, \size
324 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx1, \size
325 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 5, \size
326 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 6, \size
327 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 7, \size
328 extmulqadd q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx2, \size
332 vqrshrun.s16 d6, q3, #7
[all …]
/third_party/openh264/codec/common/arm/
Ddeblocking_neon.S197 DIFF_LUMA_LT4_P0_Q0 d2, d4, d6, d8, d16, q12, q13
263 DIFF_LUMA_EQ4_P2P1P0 d30, d28, d26, d24, d22, d20, d4, d6
285 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 0
286 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 1
287 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 2
288 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 3
289 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 4
290 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 5
291 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 6
292 LOAD_LUMA_DATA_3 d0, d1, d2, d6, d7, d8, 7
[all …]
Dmc_neon.S165 FILTER_6TAG_8BITS d0, d4, d6, d16, d18, d20, d2, q14, q15
194 vext.8 d6, d0, d1, #5 //d6=src[3]
196 FILTER_6TAG_8BITS d0, d2, d3, d4, d5, d6, d1, q14, q15
227 vtrn.32 d6, d7 //d6:[0:3]; d7[1:4]
231 FILTER_6TAG_8BITS d0, d4, d6, d7, d2, d5, d1, q14, q15
264 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d4, d6, d16, d18, d20, d2, q14, q15
293 vext.8 d6, d0, d1, #5 //d6=src[3]
295 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d2, d3, d4, d5, d6, d1, q14, q15
326 vtrn.32 d6, d7 //d6:[0:3]; d7[1:4]
330 FILTER_6TAG_8BITS_AVERAGE_WITH_0 d0, d4, d6, d7, d2, d5, d1, q14, q15
[all …]
Dcopy_mb_neon.S79 LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
81 STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1
147 LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
149 STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1
155 LOAD_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r2, r3
157 STORE_UNALIGNED_DATA_WITH_STRIDE d4, d5, d6, d7, r0, r1
/third_party/vixl/test/aarch32/
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"},
113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"},
114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"},
123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"},
124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"},
126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"},
127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"},
128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"},
140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"},
113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"},
114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"},
115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"},
123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"},
124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"},
126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"},
127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"},
128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"},
140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"},
[all …]
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"},
104 {{F32, d15, d1, d6}, false, al, "F32 d15 d1 d6", "F32_d15_d1_d6"},
110 {{F64, d4, d30, d6}, false, al, "F64 d4 d30 d6", "F64_d4_d30_d6"},
117 {{F32, d29, d19, d6}, false, al, "F32 d29 d19 d6", "F32_d29_d19_d6"},
126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"},
153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"},
164 {{F64, d3, d6, d7}, false, al, "F64 d3 d6 d7", "F64_d3_d6_d7"},
178 {{F64, d6, d2, d12}, false, al, "F64 d6 d2 d12", "F64_d6_d2_d12"},
183 {{F32, d9, d6, d23}, false, al, "F32 d9 d6 d23", "F32_d9_d6_d23"},
196 {{F32, d6, d31, d23}, false, al, "F32 d6 d31 d23", "F32_d6_d31_d23"}};
Dtest-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"},
104 {{F32, d15, d1, d6}, false, al, "F32 d15 d1 d6", "F32_d15_d1_d6"},
110 {{F64, d4, d30, d6}, false, al, "F64 d4 d30 d6", "F64_d4_d30_d6"},
117 {{F32, d29, d19, d6}, false, al, "F32 d29 d19 d6", "F32_d29_d19_d6"},
126 {{F64, d19, d12, d6}, false, al, "F64 d19 d12 d6", "F64_d19_d12_d6"},
153 {{F64, d26, d6, d19}, false, al, "F64 d26 d6 d19", "F64_d26_d6_d19"},
164 {{F64, d3, d6, d7}, false, al, "F64 d3 d6 d7", "F64_d3_d6_d7"},
178 {{F64, d6, d2, d12}, false, al, "F64 d6 d2 d12", "F64_d6_d2_d12"},
183 {{F32, d9, d6, d23}, false, al, "F32 d9 d6 d23", "F32_d9_d6_d23"},
196 {{F32, d6, d31, d23}, false, al, "F32 d6 d31 d23", "F32_d6_d31_d23"}};
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/
Dghash-armv4.S359 vld1.64 d6,[r1]
363 vshr.u64 d26,d6,#63
379 vld1.64 d6,[r0]!
409 vld1.64 d6,[r2]!
416 vmull.p8 q8, d16, d6 @ F = A1*B
417 vext.8 d0, d6, d6, #1 @ B1
420 vmull.p8 q9, d18, d6 @ H = A2*B
421 vext.8 d22, d6, d6, #2 @ B2
425 vmull.p8 q10, d20, d6 @ J = A3*B
426 vext.8 d0, d6, d6, #3 @ B3
[all …]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/
Dghash-armv4.S359 vld1.64 d6,[r1]
363 vshr.u64 d26,d6,#63
379 vld1.64 d6,[r0]!
409 vld1.64 d6,[r2]!
416 vmull.p8 q8, d16, d6 @ F = A1*B
417 vext.8 d0, d6, d6, #1 @ B1
420 vmull.p8 q9, d18, d6 @ H = A2*B
421 vext.8 d22, d6, d6, #2 @ B2
425 vmull.p8 q10, d20, d6 @ J = A3*B
426 vext.8 d0, d6, d6, #3 @ B3
[all …]
/third_party/skia/third_party/externals/libpng/arm/
Dfilter_neon.S69 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
72 vadd.u8 d2, d1, d6
91 vext.8 d6, d22, d23, #6
96 vadd.u8 d2, d1, d6
124 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
131 vadd.u8 d2, d2, d6
155 vext.8 d6, d22, d23, #6
165 vadd.u8 d2, d2, d6
197 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128]
204 vadd.u8 d2, d2, d6
[all …]
/third_party/ffmpeg/libavcodec/
Djrevdct.c218 int32_t d0, d1, d2, d3, d4, d5, d6, d7; variable
245 d6 = dataptr[3];
251 if ((d1 | d2 | d3 | d4 | d5 | d6 | d7) == 0) {
271 if (d6) {
274 z1 = MULTIPLY(d2 + d6, FIX_0_541196100);
275 tmp2 = z1 + MULTIPLY(-d6, FIX_1_847759065);
287 tmp2 = MULTIPLY(-d6, FIX_1_306562965);
288 tmp3 = MULTIPLY(d6, FIX_0_541196100);
612 d6 = dataptr[DCTSIZE*6];
617 if (d6) {
[all …]
/third_party/openh264/codec/encoder/core/arm/
Dreconstruct_neon.S285 LOAD_4x4_DATA_FOR_DCT d4, d5, d6, d7, r1, r2, r3, r4
287 vsubl.u8 q0, d4, d6
293 DCT_ROW_TRANSFORM_TOTAL_16BITS d0, d1, d2, d3, d4, d5, d6, d7
299 DCT_ROW_TRANSFORM_TOTAL_16BITS d0, d1, d2, d3, d4, d5, d6, d7
332 vswp d5, d6
356 vswp d5, d6
372 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11
375 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
389 NEWQUANT_COEF_EACH_16BITS q0, q2, d4, d5, d6, d7, q9, q10, q11
392 NEWQUANT_COEF_EACH_16BITS q1, q8, d16, d17, d6, d7, q9, q10, q11
[all …]
Dpixel_neon.S46 vsubl.u8 q9, d4, d6
61 vsubl.u8 q13, d4, d6
141 vld1.64 {d6}, [r0,:64], r1
144 vsubl.u8 q11, d6, d7
195 vabal.u8 q12, d4, d6
215 vld1.64 {d6}, [r0, :64], r1
218 vabal.u8 q13, d6, d7
235 vabdl.u8 q12, d4, d6
278 vabdl.u8 q12, d4, d6
320 vld1.64 {d6}, [r0, :64], r1
[all …]
/third_party/glslang/Test/
Dspv.loops.frag21 in float d6;
155 if (color.x < d6) {
156 while (color.y < d6)
159 while (color.z < d6)
164 if (color.x < d6) {
165 while (color.y < d6) {
172 while (color.z < d6)
252 if (color.w < d6)

12345678910>>...13