/external/capstone/suite/MC/AArch64/ |
D | neon-scalar-cvt.s.cs | 5 0xd5,0xd9,0x61,0x7e = ucvtf d21, d14 9 0xd5,0xe5,0x40,0x7f = ucvtf d21, d14, #64 16 0xd5,0xc9,0x61,0x5e = fcvtas d21, d14 18 0xd5,0xc9,0x61,0x7e = fcvtau d21, d14 20 0xd5,0xb9,0x61,0x5e = fcvtms d21, d14 22 0xd5,0xb9,0x61,0x7e = fcvtmu d21, d14 24 0xd5,0xa9,0x61,0x5e = fcvtns d21, d14 26 0xd5,0xa9,0x61,0x7e = fcvtnu d21, d14 28 0xd5,0xa9,0xe1,0x5e = fcvtps d21, d14 30 0xd5,0xa9,0xe1,0x7e = fcvtpu d21, d14 [all …]
|
/external/llvm/test/MC/AArch64/ |
D | neon-scalar-cvt.s | 23 ucvtf d21, d14 47 ucvtf d21, d14, #64 93 fcvtas d21, d14 106 fcvtau d21, d14 119 fcvtms d21, d14 132 fcvtmu d21, d14 145 fcvtns d21, d14 158 fcvtnu d21, d14 171 fcvtps d21, d14 184 fcvtpu d21, d14 [all …]
|
/external/XNNPACK/src/qu8-gemm/gen/ |
D | 1x8-minmax-rndnu-aarch32-neon-mlal-lane-prfm-cortex-a7.S | 43 # uint8_t kernel_zero_point[4]; d14 56 VPUSH {d8-d14} // +56 = 96 63 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 97 VSUBL.U8 q4, d8, d14 104 VSUBL.U8 q5, d10, d14 110 VSUBL.U8 q4, d8, d14 116 VSUBL.U8 q5, d10, d14 123 VSUBL.U8 q4, d8, d14 129 VSUBL.U8 q5, d10, d14 135 VSUBL.U8 q4, d8, d14 [all …]
|
D | 1x8-minmax-rndnu-aarch32-neon-mlal-lane-cortex-a7.S | 43 # uint8_t kernel_zero_point[4]; d14 56 VPUSH {d8-d14} // +56 = 96 63 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 90 VSUBL.U8 q4, d8, d14 96 VSUBL.U8 q5, d10, d14 102 VSUBL.U8 q4, d8, d14 108 VSUBL.U8 q5, d10, d14 115 VSUBL.U8 q4, d8, d14 121 VSUBL.U8 q5, d10, d14 127 VSUBL.U8 q4, d8, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-prfm-cortex-a7.S | 48 # uint8_t kernel_zero_point[4]; d14 60 VPUSH {d8-d14} // +56 = 88 87 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 136 VSUBL.U8 q4, d8, d14 148 VSUBL.U8 q5, d10, d14 160 VSUBL.U8 q4, d8, d14 172 VSUBL.U8 q5, d10, d14 185 VSUBL.U8 q4, d8, d14 198 VSUBL.U8 q5, d10, d14 211 VSUBL.U8 q4, d8, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-cortex-a7.S | 48 # uint8_t kernel_zero_point[4]; d14 60 VPUSH {d8-d14} // +56 = 88 87 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 126 VSUBL.U8 q4, d8, d14 137 VSUBL.U8 q5, d10, d14 149 VSUBL.U8 q4, d8, d14 161 VSUBL.U8 q5, d10, d14 174 VSUBL.U8 q4, d8, d14 187 VSUBL.U8 q5, d10, d14 200 VSUBL.U8 q4, d8, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-cortex-a53.S | 47 # uint8_t kernel_zero_point[4]; d14 59 VPUSH {d8-d14} // +56 = 96 86 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 125 VSUBL.U8 q4, d8, d14 136 VSUBL.U8 q5, d10, d14 148 VSUBL.U8 q4, d8, d14 160 VSUBL.U8 q5, d10, d14 172 VSUBL.U8 q4, d8, d14 188 VSUBL.U8 q5, d10, d14 204 VSUBL.U8 q4, d8, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-prfm-cortex-a53.S | 47 # uint8_t kernel_zero_point[4]; d14 59 VPUSH {d8-d14} // +56 = 96 86 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 136 VSUBL.U8 q4, d8, d14 151 VSUBL.U8 q5, d10, d14 163 VSUBL.U8 q4, d8, d14 175 VSUBL.U8 q5, d10, d14 187 VSUBL.U8 q4, d8, d14 203 VSUBL.U8 q5, d10, d14 219 VSUBL.U8 q4, d8, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-ld64.S | 46 # uint8_t kernel_zero_point[4]; d14 58 VPUSH {d10-d14} // +40 = 72 85 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 115 VSUBL.U8 q5, d10, d14 130 VSUBL.U8 q5, d10, d14 141 VSUBL.U8 q5, d10, d14 152 VSUBL.U8 q5, d10, d14 163 VSUBL.U8 q5, d10, d14 174 VSUBL.U8 q5, d10, d14 185 VSUBL.U8 q5, d10, d14 [all …]
|
/external/XNNPACK/src/qu8-igemm/gen/ |
D | 1x8-minmax-rndnu-aarch32-neon-mlal-lane-cortex-a7.S | 58 VPUSH {d8-d14} // +56 = 88 70 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 110 VSUBL.U8 q4, d8, d14 116 VSUBL.U8 q5, d10, d14 122 VSUBL.U8 q4, d8, d14 128 VSUBL.U8 q5, d10, d14 135 VSUBL.U8 q4, d8, d14 141 VSUBL.U8 q5, d10, d14 147 VSUBL.U8 q4, d8, d14 153 VSUBL.U8 q5, d10, d14 [all …]
|
D | 1x8-minmax-rndnu-aarch32-neon-mlal-lane-prfm-cortex-a7.S | 58 VPUSH {d8-d14} // +56 = 88 70 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 116 VSUBL.U8 q4, d8, d14 123 VSUBL.U8 q5, d10, d14 129 VSUBL.U8 q4, d8, d14 135 VSUBL.U8 q5, d10, d14 142 VSUBL.U8 q4, d8, d14 148 VSUBL.U8 q5, d10, d14 154 VSUBL.U8 q4, d8, d14 160 VSUBL.U8 q5, d10, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-cortex-a7.S | 61 VPUSH {d8-d14} // +56 = 104 82 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 146 VSUBL.U8 q4, d8, d14 157 VSUBL.U8 q5, d10, d14 169 VSUBL.U8 q4, d8, d14 181 VSUBL.U8 q5, d10, d14 194 VSUBL.U8 q4, d8, d14 207 VSUBL.U8 q5, d10, d14 220 VSUBL.U8 q4, d8, d14 233 VSUBL.U8 q5, d10, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-cortex-a53.S | 62 VPUSH {d8-d14} // +56 = 104 83 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 146 VSUBL.U8 q4, d8, d14 157 VSUBL.U8 q5, d10, d14 169 VSUBL.U8 q4, d8, d14 181 VSUBL.U8 q5, d10, d14 193 VSUBL.U8 q4, d8, d14 209 VSUBL.U8 q5, d10, d14 225 VSUBL.U8 q4, d8, d14 241 VSUBL.U8 q5, d10, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-prfm-cortex-a7.S | 61 VPUSH {d8-d14} // +56 = 104 82 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 152 VSUBL.U8 q4, d8, d14 164 VSUBL.U8 q5, d10, d14 176 VSUBL.U8 q4, d8, d14 188 VSUBL.U8 q5, d10, d14 201 VSUBL.U8 q4, d8, d14 214 VSUBL.U8 q5, d10, d14 227 VSUBL.U8 q4, d8, d14 240 VSUBL.U8 q5, d10, d14 [all …]
|
D | 4x8-minmax-rndnu-aarch32-neon-mlal-lane-prfm-cortex-a53.S | 62 VPUSH {d8-d14} // +56 = 104 83 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 153 VSUBL.U8 q4, d8, d14 168 VSUBL.U8 q5, d10, d14 180 VSUBL.U8 q4, d8, d14 192 VSUBL.U8 q5, d10, d14 204 VSUBL.U8 q4, d8, d14 220 VSUBL.U8 q5, d10, d14 236 VSUBL.U8 q4, d8, d14 252 VSUBL.U8 q5, d10, d14 [all …]
|
/external/libhevc/common/arm/ |
D | ihevc_itrans_recon_32x32.s | 247 vld1.16 d14,[r0],r6 257 vmlal.s16 q12,d14,d1[1] 258 vmlal.s16 q13,d14,d3[3] 259 vmlal.s16 q14,d14,d6[1] 260 vmlsl.s16 q15,d14,d7[1] 319 vld1.16 d14,[r0],r6 331 vmlal.s16 q12,d14,d3[1] 332 vmlsl.s16 q13,d14,d6[1] 333 vmlsl.s16 q14,d14,d0[1] 334 vmlsl.s16 q15,d14,d6[3] [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neont2-shiftaccum-encoding.s.cs | 3 0x90,0xef,0x1e,0xf1 = vsra.s16 d15, d14, #16 11 0x95,0xff,0x1e,0xb1 = vsra.u16 d11, d14, #11 19 0x90,0xef,0x1e,0xe1 = vsra.s16 d14, d14, #16 27 0x95,0xff,0x1e,0xe1 = vsra.u16 d14, d14, #11 37 0x80,0xef,0xb7,0xe3 = vrsra.s64 d14, d23, #64 68 0xbf,0xff,0x1e,0xd5 = vsli.32 d13, d14, #31 69 0xbf,0xff,0x9f,0xe5 = vsli.64 d14, d15, #63 77 0xc0,0xff,0x9e,0x54 = vsri.64 d21, d14, #64 84 0xbf,0xff,0x1e,0xe5 = vsli.32 d14, d14, #31 93 0x80,0xff,0x9e,0xe4 = vsri.64 d14, d14, #64
|
D | neon-shiftaccum-encoding.s.cs | 3 0x1e,0xf1,0x90,0xf2 = vsra.s16 d15, d14, #16 11 0x1e,0xb1,0x95,0xf3 = vsra.u16 d11, d14, #11 19 0x1e,0xe1,0x90,0xf2 = vsra.s16 d14, d14, #16 27 0x1e,0xe1,0x95,0xf3 = vsra.u16 d14, d14, #11 37 0xb7,0xe3,0x80,0xf2 = vrsra.s64 d14, d23, #64 68 0x1e,0xd5,0xbf,0xf3 = vsli.32 d13, d14, #31 69 0x9f,0xe5,0xbf,0xf3 = vsli.64 d14, d15, #63 77 0x9e,0x54,0xc0,0xf3 = vsri.64 d21, d14, #64 84 0x1e,0xe5,0xbf,0xf3 = vsli.32 d14, d14, #31 93 0x9e,0xe4,0x80,0xf3 = vsri.64 d14, d14, #64
|
D | neont2-pairwise-encoding.s.cs | 4 0x21,0xef,0x1d,0xeb = vpadd.i32 d14, d1, d13 5 0x40,0xff,0x8e,0x3d = vpadd.f32 d19, d16, d14 10 0xb4,0xff,0x8e,0x52 = vpaddl.u16 d5, d14 21 0xb0,0xff,0xa9,0xe6 = vpadal.u8 d14, d25 34 0x59,0xff,0x9e,0x4a = vpmin.u16 d20, d25, d14 40 0x07,0xff,0x8e,0x6a = vpmax.u8 d6, d23, d14
|
/external/llvm/test/MC/ARM/ |
D | neon-shiftaccum-encoding.s | 4 vsra.s16 d15, d14, #16 12 vsra.u16 d11, d14, #11 22 vsra.s16 d14, #16 30 vsra.u16 d14, #11 39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2] 47 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x1e,0xb1,0x95,0xf3] 56 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x1e,0xe1,0x90,0xf2] 64 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x1e,0xe1,0x95,0xf3] 75 vrsra.s64 d14, d23, #64 110 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0xb7,0xe3,0x80,0xf2] [all …]
|
D | neont2-shiftaccum-encoding.s | 6 vsra.s16 d15, d14, #16 14 vsra.u16 d11, d14, #11 24 vsra.s16 d14, #16 32 vsra.u16 d14, #11 41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1] 49 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x95,0xff,0x1e,0xb1] 58 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x90,0xef,0x1e,0xe1] 66 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x95,0xff,0x1e,0xe1] 78 vrsra.s64 d14, d23, #64 113 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0x80,0xef,0xb7,0xe3] [all …]
|
D | neont2-pairwise-encoding.s | 6 vpadd.i32 d14, d1, d13 7 vpadd.f32 d19, d16, d14 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 12 @ CHECK: vpadd.f32 d19, d16, d14 @ encoding: [0x40,0xff,0x8e,0x3d] 19 vpaddl.u16 d5, d14 32 @ CHECK: vpaddl.u16 d5, d14 @ encoding: [0xb4,0xff,0x8e,0x52] 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] [all …]
|
/external/libvpx/vp8/common/arm/neon/ |
D | dequant_idct_neon.c | 25 int32x2_t d14, d15; in vp8_dequant_idct_add_neon() local 32 d14 = d15 = vdup_n_s32(0); in vp8_dequant_idct_add_neon() 48 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 0); in vp8_dequant_idct_add_neon() 50 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 1); in vp8_dequant_idct_add_neon() 125 vaddw_u8(vreinterpretq_u16_s16(q1), vreinterpret_u8_s32(d14))); in vp8_dequant_idct_add_neon() 129 d14 = vreinterpret_s32_u8(vqmovun_s16(q1)); in vp8_dequant_idct_add_neon() 133 vst1_lane_s32((int32_t *)dst0, d14, 0); in vp8_dequant_idct_add_neon() 135 vst1_lane_s32((int32_t *)dst0, d14, 1); in vp8_dequant_idct_add_neon()
|
/external/XNNPACK/src/qs8-gemm/ |
D | 1x8-aarch32-neon-mlal-lane-cortex-a7.S.in | 62 # uint8_t kernel_zero_point[4]; d14 91 VPUSH {d8-d14} // +56 = 96 102 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 145 VSUBL.U8 q4, d8, d14 156 VSUBL.U8 q5, d10, d14 165 VSUBL.U8 q4, d8, d14 174 VSUBL.U8 q5, d10, d14 184 VSUBL.U8 q4, d8, d14 193 VSUBL.U8 q5, d10, d14 202 VSUBL.U8 q4, d8, d14 [all …]
|
/external/XNNPACK/src/qs8-igemm/ |
D | 1x8-aarch32-neon-mlal-lane-cortex-a7.S.in | 64 // uint8_t kernel_zero_point[4]; d14 93 VPUSH {d8-d14} // +56 = 88 109 VLD1.32 {d14[]}, [r5]! // QU8 kernel_zero_point 163 VSUBL.U8 q4, d8, d14 174 VSUBL.U8 q5, d10, d14 183 VSUBL.U8 q4, d8, d14 192 VSUBL.U8 q5, d10, d14 202 VSUBL.U8 q4, d8, d14 211 VSUBL.U8 q5, d10, d14 220 VSUBL.U8 q4, d8, d14 [all …]
|