/external/libxaac/decoder/armv7/ |
D | ixheaacd_post_twiddle_overlap.s | 192 VUZP.16 D0, D1 193 VUZP.16 D2, D3 202 VUZP.16 D4, D5 205 VUZP.16 D6, D7 214 VUZP.16 D10, D11 217 VUZP.16 D12, D13 245 VUZP.16 D24, D25 248 VUZP.16 D26, D27 296 VUZP.16 D24, D25 298 VUZP.16 D22, D23 [all …]
|
D | ixheaacd_dec_DCT2_64_asm.s | 101 VUZP.16 D20, D21 103 VUZP.16 D18, D19 153 VUZP.16 D20, D21 156 VUZP.16 D18, D19 198 VUZP.16 D20, D21 199 VUZP.16 D18, D19 256 VUZP.16 D20, D21 258 VUZP.16 D18, D19 333 VUZP.16 D0, D1 335 VUZP.16 D2, D3 [all …]
|
D | ixheaacd_overlap_add1.s | 53 VUZP.16 D1, D0 55 VUZP.16 D7, D6 89 VUZP.16 D26, D27 109 VUZP.16 D1, D0 111 VUZP.16 D7, D6 116 VUZP.16 D18, D19 164 VUZP.16 D1, D0 166 VUZP.16 D7, D6 174 VUZP.16 D26, D27 178 VUZP.16 D18, D19 [all …]
|
D | ixheaacd_post_twiddle.s | 144 VUZP.16 D26, D27 147 VUZP.16 D24, D25 178 VUZP.16 D18, D19 181 VUZP.16 D16, D17 252 VUZP.16 D26, D27 255 VUZP.16 D24, D25 286 VUZP.16 D18, D19 289 VUZP.16 D16, D17 360 VUZP.16 D26, D27 363 VUZP.16 D24, D25 [all …]
|
D | ixheaacd_dct3_32.s | 67 VUZP.16 D4, D5 83 VUZP.16 D10, D11 106 VUZP.16 D4, D5 127 VUZP.16 D10, D11 162 VUZP.16 D4, D5 170 VUZP.16 D10, D11 216 VUZP.16 D4, D5 219 VUZP.16 D10, D11 264 VUZP.16 D4, D5 271 VUZP.16 D2, D3 [all …]
|
D | ixheaacd_no_lap1.s | 51 VUZP.16 D27, D26 71 VUZP.16 D21, D20 83 VUZP.16 D27, D26 101 VUZP.16 D21, D20
|
D | ia_xheaacd_mps_mulshift.s | 37 VUZP.32 Q4, Q6 38 VUZP.32 Q5, Q7
|
D | ixheaacd_overlap_add2.s | 164 VUZP.16 D1, D0 181 VUZP.16 D24, D25 194 VUZP.16 D9, D8 211 VUZP.16 D1, D0 236 VUZP.16 D9, D8
|
D | ixheaacd_sbr_qmfsyn64_winadd.s | 137 VUZP.16 D28, D29 228 VUZP.16 D28, D29 304 VUZP.16 D28, D29 369 VUZP.16 D28, D29
|
D | ixheaacd_pre_twiddle_compute.s | 314 VUZP.16 D0, D1 315 VUZP.16 D2, D3 323 VUZP.16 D4, D5 324 VUZP.16 D6, D7
|
D | ixheaacd_sbr_imdct_using_fft.s | 273 VUZP.16 d2, d3 276 VUZP.16 d26, d27 279 VUZP.16 d24, d25 282 VUZP.16 d28, d29
|
D | ixheaacd_imdct_using_fft.s | 269 VUZP.16 d2, d3 272 VUZP.16 d26, d27 275 VUZP.16 d24, d25 278 VUZP.16 d28, d29
|
D | ixheaacd_fft32x32_ld.s | 277 VUZP.16 d2, d3 @ D0 = b_data5_r_low, D1= b_data5_r_high 280 VUZP.16 d26, d27 283 VUZP.16 d24, d25 286 VUZP.16 d28, d29
|
/external/libhevc/common/arm/ |
D | ihevc_sao_edge_offset_class1_chroma.s | 187 VUZP.8 D12,D13 202 VUZP.8 D22,D23 258 VUZP.8 D22,D23 337 VUZP.8 D12,D13 355 VUZP.8 D22,D23 394 VUZP.8 D22,D23
|
D | ihevc_sao_edge_offset_class0_chroma.s | 222 VUZP.8 D14,D15 242 VUZP.8 D24,D25 @II 387 VUZP.8 D14,D15 409 VUZP.8 D28,D29 @II
|
D | ihevc_sao_edge_offset_class3_chroma.s | 420 VUZP.8 D18,D19 @I 533 VUZP.8 D26,D27 @II 558 VUZP.8 D18,D19 @III 651 VUZP.8 D18,D19 828 VUZP.8 D26,D27 1002 VUZP.8 D26,D27
|
D | ihevc_sao_edge_offset_class2_chroma.s | 430 VUZP.8 D22,D23 @I 531 VUZP.8 D26,D27 @II 565 VUZP.8 D18,D19 @III 651 VUZP.8 D26,D27 804 VUZP.8 D26,D27 952 VUZP.8 D26,D27
|
/external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
D | vuzp.ll | 27 ; VUZP.32 is equivalent to VTRN.32 for 64-bit vectors. 77 ; Undef shuffle indices should not prevent matching to VUZP:
|
/external/libhevc/decoder/arm/ |
D | ihevcd_fmt_conv_420sp_to_rgba8888.s | 177 VUZP.8 D2,D3 314 VUZP.8 D2,D3
|
/external/arm-neon-tests/ |
D | ref-rvct-neon-nofp16.txt | 3095 VUZP/VUZPQ chunk 0 output: 3096 VUZP/VUZPQ:0:result_int8x8 [] = { fffffff0, fffffff1, fffffff2, fffffff3, fffffff4, fffffff5, fffff… 3097 VUZP/VUZPQ:1:result_int16x4 [] = { fffffff0, fffffff1, fffffff2, fffffff3, } 3098 VUZP/VUZPQ:2:result_int32x2 [] = { fffffff0, fffffff1, } 3099 VUZP/VUZPQ:3:result_int64x1 [] = { 3333333333333333, } 3100 VUZP/VUZPQ:4:result_uint8x8 [] = { f0, f1, f2, f3, f4, f5, f6, f7, } 3101 VUZP/VUZPQ:5:result_uint16x4 [] = { fff0, fff1, fff2, fff3, } 3102 VUZP/VUZPQ:6:result_uint32x2 [] = { fffffff0, fffffff1, } 3103 VUZP/VUZPQ:7:result_uint64x1 [] = { 3333333333333333, } 3104 VUZP/VUZPQ:8:result_poly8x8 [] = { f0, f1, f2, f3, f4, f5, f6, f7, } [all …]
|
D | ref-rvct-neon.txt | 3527 VUZP/VUZPQ chunk 0 output: 3528 VUZP/VUZPQ:0:result_int8x8 [] = { fffffff0, fffffff1, fffffff2, fffffff3, fffffff4, fffffff5, fffff… 3529 VUZP/VUZPQ:1:result_int16x4 [] = { fffffff0, fffffff1, fffffff2, fffffff3, } 3530 VUZP/VUZPQ:2:result_int32x2 [] = { fffffff0, fffffff1, } 3531 VUZP/VUZPQ:3:result_int64x1 [] = { 3333333333333333, } 3532 VUZP/VUZPQ:4:result_uint8x8 [] = { f0, f1, f2, f3, f4, f5, f6, f7, } 3533 VUZP/VUZPQ:5:result_uint16x4 [] = { fff0, fff1, fff2, fff3, } 3534 VUZP/VUZPQ:6:result_uint32x2 [] = { fffffff0, fffffff1, } 3535 VUZP/VUZPQ:7:result_uint64x1 [] = { 3333333333333333, } 3536 VUZP/VUZPQ:8:result_poly8x8 [] = { f0, f1, f2, f3, f4, f5, f6, f7, } [all …]
|
D | ref-rvct-all.txt | 3527 VUZP/VUZPQ chunk 0 output: 3528 VUZP/VUZPQ:0:result_int8x8 [] = { fffffff0, fffffff1, fffffff2, fffffff3, fffffff4, fffffff5, fffff… 3529 VUZP/VUZPQ:1:result_int16x4 [] = { fffffff0, fffffff1, fffffff2, fffffff3, } 3530 VUZP/VUZPQ:2:result_int32x2 [] = { fffffff0, fffffff1, } 3531 VUZP/VUZPQ:3:result_int64x1 [] = { 3333333333333333, } 3532 VUZP/VUZPQ:4:result_uint8x8 [] = { f0, f1, f2, f3, f4, f5, f6, f7, } 3533 VUZP/VUZPQ:5:result_uint16x4 [] = { fff0, fff1, fff2, fff3, } 3534 VUZP/VUZPQ:6:result_uint32x2 [] = { fffffff0, fffffff1, } 3535 VUZP/VUZPQ:7:result_uint64x1 [] = { 3333333333333333, } 3536 VUZP/VUZPQ:8:result_poly8x8 [] = { f0, f1, f2, f3, f4, f5, f6, f7, } [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-uzp.ll | 81 ; Undef shuffle indices should not prevent matching to VUZP:
|
/external/swiftshader/third_party/LLVM/lib/Target/ARM/ |
D | ARMISelLowering.h | 159 VUZP, // unzip (deinterleave) enumerator
|
/external/llvm/test/CodeGen/ARM/ |
D | vuzp.ll | 67 ; VUZP.32 is equivalent to VTRN.32 for 64-bit vectors. 201 ; Undef shuffle indices should not prevent matching to VUZP:
|