/external/libhevc/common/arm/ |
D | ihevc_intra_pred_chroma_ver.s | 123 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31) 134 vst2.8 {d22,d23}, [r2], r11 135 vst2.8 {d22,d23}, [r5], r11 136 vst2.8 {d22,d23}, [r8], r11 137 vst2.8 {d22,d23}, [r10], r11 147 vst2.8 {d22,d23}, [r2], r11 148 vst2.8 {d22,d23}, [r5], r11 149 vst2.8 {d22,d23}, [r8], r11 150 vst2.8 {d22,d23}, [r10], r11 160 vst2.8 {d22,d23}, [r2], r11 [all …]
|
D | ihevc_intra_pred_luma_vert.s | 124 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31) 133 vst1.8 {d22,d23}, [r2], r11 134 vst1.8 {d22,d23}, [r5], r11 135 vst1.8 {d22,d23}, [r8], r11 136 vst1.8 {d22,d23}, [r10], r11 146 vst1.8 {d22,d23}, [r2], r11 147 vst1.8 {d22,d23}, [r5], r11 148 vst1.8 {d22,d23}, [r8], r11 149 vst1.8 {d22,d23}, [r10], r11 158 vst1.8 {d22,d23}, [r2], r11 [all …]
|
/external/libavc/encoder/arm/ |
D | ih264e_half_pel.s | 172 …vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,r… 177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0 317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1) 322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2) 327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2) 330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2) 332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2) 337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2) 344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3) 345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3) [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-compare.s | 9 cmeq d20, d21, d22 25 cmhs d20, d21, d22 33 cmge d20, d21, d22 49 cmhi d20, d21, d22 56 cmgt d20, d21, d22 88 cmtst d20, d21, d22
|
D | neon-scalar-fp-compare.s | 11 fcmeq d20, d21, d22 41 fcmge d20, d21, d22 71 fcmgt d20, d21, d22 137 facge d20, d21, d22 149 facgt d20, d21, d22
|
/external/capstone/suite/MC/AArch64/ |
D | neon-scalar-compare.s.cs | 2 0xb4,0x8e,0xf6,0x7e = cmeq d20, d21, d22 4 0xb4,0x3e,0xf6,0x7e = cmhs d20, d21, d22 5 0xb4,0x3e,0xf6,0x5e = cmge d20, d21, d22 7 0xb4,0x36,0xf6,0x7e = cmhi d20, d21, d22 8 0xb4,0x36,0xf6,0x5e = cmgt d20, d21, d22 12 0xb4,0x8e,0xf6,0x5e = cmtst d20, d21, d22
|
D | neon-scalar-fp-compare.s.cs | 3 0xb4,0xe6,0x76,0x5e = fcmeq d20, d21, d22 7 0xb4,0xe6,0x76,0x7e = fcmge d20, d21, d22 11 0xb4,0xe6,0xf6,0x7e = fcmgt d20, d21, d22 19 0xb4,0xee,0x76,0x7e = facge d20, d21, d22 21 0xb4,0xee,0xf6,0x7e = facgt d20, d21, d22
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
D | loopfilter_16_neon.asm | 88 vst1.u8 {d22}, [r8@64], r1 ; store oq1 106 vst1.u8 {d22}, [r8@64], r1 ; store oq2 242 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1 244 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1 246 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1 248 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1 250 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1 252 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1 254 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1 256 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r1 [all …]
|
D | vpx_convolve8_neon_asm.asm | 124 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 125 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 126 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 127 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 201 vld1.u32 {d22[0]}, [r4], r1 206 vmovl.u8 q11, d22 223 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 228 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 233 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 238 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 [all …]
|
D | vpx_convolve8_avg_neon_asm.asm | 132 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 133 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 134 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 135 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 212 vld1.u32 {d22[0]}, [r4], r1 217 vmovl.u8 q11, d22 239 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 244 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 249 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 254 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 [all …]
|
/external/llvm/test/MC/ARM/ |
D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
D | neon-vld-encoding.s | 175 vld3.p16 {d20, d22, d24}, [r5]! 195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4] 204 vld4.32 {d16, d18, d20, d22}, [r8] 211 vld4.u32 {d16, d18, d20, d22}, [r8]! 216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2 217 vld4.i16 {d16, d18, d20, d22}, [r6], r3 225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4] 231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4] 235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4] 236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x66,0xf4] [all …]
|
D | neon-vst-encoding.s | 79 vst3.p16 {d20, d22, d24}, [r5]! 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8] 114 vst4.u32 {d16, d18, d20, d22}, [r8]! 119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2 120 vst4.i16 {d16, d18, d20, d22}, [r6], r3 128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4] 134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4] 138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4] 139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x46,0xf4] [all …]
|
D | neont2-vld-encoding.s | 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01] 61 vld4.8 {d16, d18, d20, d22}, [r0:256]! 64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01] 65 vld4.16 {d16, d18, d20, d22}, [r0]! 68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01] 69 vld4.32 {d16, d18, d20, d22}, [r0]! 108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07] 109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
|
/external/capstone/suite/MC/ARM/ |
D | neon-vld-encoding.s.cs | 84 0x4d,0x45,0x65,0xf4 = vld3.16 {d20, d22, d24}, [r5]! 91 0x8f,0x01,0x68,0xf4 = vld4.32 {d16, d18, d20, d22}, [r8] 97 0x8d,0x01,0x68,0xf4 = vld4.32 {d16, d18, d20, d22}, [r8]! 101 0x32,0x01,0x64,0xf4 = vld4.8 {d16, d18, d20, d22}, [r4:256], r2 102 0x43,0x01,0x66,0xf4 = vld4.16 {d16, d18, d20, d22}, [r6], r3 126 0x8f,0x6d,0xe1,0xf4 = vld2.32 {d22[], d23[]}, [r1] 127 0xaf,0x6d,0xe1,0xf4 = vld2.32 {d22[], d24[]}, [r1] 130 0x84,0x6d,0xe5,0xf4 = vld2.32 {d22[], d23[]}, [r5], r4 131 0xa4,0x6d,0xe6,0xf4 = vld2.32 {d22[], d24[]}, [r6], r4 145 0xad,0x46,0xe5,0xf4 = vld3.16 {d20[2], d21[2], d22[2]}, [r5]! [all …]
|
D | neon-vst-encoding.s.cs | 44 0x4d,0x45,0x45,0xf4 = vst3.16 {d20, d22, d24}, [r5]! 51 0x8f,0x01,0x48,0xf4 = vst4.32 {d16, d18, d20, d22}, [r8] 57 0x8d,0x01,0x48,0xf4 = vst4.32 {d16, d18, d20, d22}, [r8]! 61 0x32,0x01,0x44,0xf4 = vst4.8 {d16, d18, d20, d22}, [r4:256], r2 62 0x43,0x01,0x46,0xf4 = vst4.16 {d16, d18, d20, d22}, [r6], r3 91 0x6d,0x46,0xc5,0xf4 = vst3.16 {d20[1], d21[1], d22[1]}, [r5]! 97 0xcf,0x0b,0xc8,0xf4 = vst4.32 {d16[1], d18[1], d20[1], d22[1]}, [r8] 102 0xcd,0x0b,0xc8,0xf4 = vst4.32 {d16[1], d18[1], d20[1], d22[1]}, [r8]! 106 0x63,0x07,0xc6,0xf4 = vst4.16 {d16[1], d18[1], d20[1], d22[1]}, [r6], r3
|
/external/swiftshader/third_party/subzero/tests_lit/assembler/arm32/ |
D | vabs.ll | 7 ; RUN: -reg-use s20,d22 \ 13 ; RUN: -reg-use s20,d22 \ 18 ; RUN: -reg-use s20,d22 \ 24 ; RUN: -reg-use s20,d22 \ 54 ; ASM: vabs.f64 d22, d22
|
D | vadd.ll | 10 ; RUN: -reg-use s20,s22,d20,d22 \ 16 ; RUN: -reg-use s20,s22,d20,d22 \ 21 ; RUN: -reg-use s20,s22,d20,d22 \ 27 ; RUN: -reg-use s20,s22,d20,d22 \ 53 ; ASM: vadd.f64 d20, d20, d22
|
D | vmov-fp.ll | 11 ; RUN: -reg-use s20,s22,d20,d22 \ 17 ; RUN: -reg-use s20,s22,d20,d22 \ 22 ; RUN: -reg-use s20,s22,d20,d22 \ 28 ; RUN: -reg-use s20,s22,d20,d22 \ 52 ; ASM: vmovne.f64 d20, d22
|
/external/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 116 {{F32, d22, d22, d3}, false, al, "F32 d22 d22 d3", "F32_d22_d22_d3"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 125 {{F64, d11, d14, d22}, false, al, "F64 d11 d14 d22", "F64_d11_d14_d22"}, 130 {{F64, d22, d8, d8}, false, al, "F64 d22 d8 d8", "F64_d22_d8_d8"}, 135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"}, 136 {{F64, d16, d22, d3}, false, al, "F64 d16 d22 d3", "F64_d16_d22_d3"}, 137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d17"}, 141 {{F32, d22, d3, d3}, false, al, "F32 d22 d3 d3", "F32_d22_d3_d3"},
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 102 {{F64, d22, d6, d1}, false, al, "F64 d22 d6 d1", "F64_d22_d6_d1"}, 103 {{F32, d22, d28, d12}, false, al, "F32 d22 d28 d12", "F32_d22_d28_d12"}, 116 {{F32, d22, d22, d3}, false, al, "F32 d22 d22 d3", "F32_d22_d22_d3"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 125 {{F64, d11, d14, d22}, false, al, "F64 d11 d14 d22", "F64_d11_d14_d22"}, 130 {{F64, d22, d8, d8}, false, al, "F64 d22 d8 d8", "F64_d22_d8_d8"}, 135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"}, 136 {{F64, d16, d22, d3}, false, al, "F64 d16 d22 d3", "F64_d16_d22_d3"}, 137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d17"}, 141 {{F32, d22, d3, d3}, false, al, "F32 d22 d3 d3", "F32_d22_d3_d3"},
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1) 170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 178 vqrshrun.s32 d22, q1, #10 180 vqmovun.s16 d22, q11 181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2) 185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2) 192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 199 vqmovun.s16 d22, q10 200 vst1.u8 {d22}, [r1], r7 @//Store dest row0 ,column 2; (1/2,1/2) [all …]
|
D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 253 vmlal.s16 q9, d30, d22 255 vmlal.s16 q3, d31, d22 286 vmlal.s16 q9, d30, d22 291 vmlal.s16 q3, d31, d22 325 vmlal.s16 q9, d30, d22 327 vmlal.s16 q3, d31, d22 349 vmlal.s16 q9, d30, d22 351 vmlal.s16 q3, d31, d22 483 vmlal.s16 q9, d30, d22 485 vmlal.s16 q3, d31, d22 [all …]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
D | neont2-vld-encoding.s | 61 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x60,0xf9] 62 vld4.8 {d16, d18, d20, d22}, [r0, :256]! 65 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf9] 66 vld4.16 {d16, d18, d20, d22}, [r0]! 69 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf9] 70 vld4.32 {d16, d18, d20, d22}, [r0]! 109 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf9] 110 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
|
D | neon-vld-encoding.s | 62 vld4.8 {d16, d18, d20, d22}, [r0, :256]! 64 vld4.16 {d16, d18, d20, d22}, [r0]! 66 vld4.32 {d16, d18, d20, d22}, [r0]! 72 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0,:256]!@ encoding:[0x3d,0x01,0x60,0xf4] 74 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf4] 76 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf4] 118 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] 124 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf4]
|