/external/libhevc/common/arm/ |
D | ihevc_intra_pred_luma_planar.s | 153 vdup.s8 d6, r9 @nt - 1 - row 196 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col] 204 vsub.s8 d6, d6, d7 @(1) 212 vmlal.u8 q15, d6, d3 @(2) 218 vsub.s8 d6, d6, d7 @(2) 227 vmlal.u8 q14, d6, d3 @(3) 235 vsub.s8 d6, d6, d7 @(3) 244 vmlal.u8 q5, d6, d3 @(4) 252 vsub.s8 d6, d6, d7 @(4) 261 vmlal.u8 q8, d6, d3 @(5) [all …]
|
D | ihevc_itrans_recon_32x32.s | 118 @d4[0]= 64 d6[0]=36 119 @d4[1]= 61 d6[1]=31 120 @d4[2]= 57 d6[2]=25 121 @d4[3]= 54 d6[3]=22 178 vld1.16 {d4,d5,d6,d7},[r14]! 259 vmlal.s16 q14,d14,d6[1] 288 vmlal.s16 q13,d8,d6[3] @// y1 * cos3(part of b1) 305 vmlal.s16 q11,d10,d6[0] 308 vmlsl.s16 q8,d10,d6[0] 332 vmlsl.s16 q13,d14,d6[1] [all …]
|
D | ihevc_padding.s | 146 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 147 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 148 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 149 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 150 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 265 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 266 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 267 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 268 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store 269 vst1.8 {d6,d7},[r7]! @128/8 = 16 bytes store [all …]
|
D | ihevc_itrans_recon_8x8.s | 196 vld1.16 d6,[r0]! 198 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 200 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 202 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 204 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 277 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct) 295 vld1.16 d6,[r0]! 308 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 309 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 310 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) [all …]
|
D | ihevc_intra_pred_luma_mode_3_to_9.s | 180 vmovn.s16 d6, q11 195 vand d6, d6, d29 @fract values in d1/ idx values in d0 206 vsub.s8 d7, d28, d6 @32-fract 214 vmlal.u8 q12, d13, d6 @mul (row 0) 224 vmlal.u8 q11, d17, d6 @mul (row 1) 235 vmlal.u8 q10, d15, d6 @mul (row 2) 246 vmlal.u8 q9, d11, d6 @mul (row 3) 257 vmlal.u8 q12, d13, d6 @mul (row 4) 268 vmlal.u8 q11, d17, d6 @mul (row 5) 279 vmlal.u8 q10, d15, d6 @mul (row 6) [all …]
|
D | ihevc_itrans_recon_16x16.s | 225 vld1.16 d6,[r0],r10 238 @d6= r1 243 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 244 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 245 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 246 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 308 vld1.16 d6,[r0],r10 318 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0) 319 vmlsl.s16 q13,d6,d1[1] @// y1 * cos3(part of b1) 320 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2) [all …]
|
D | ihevc_intra_pred_filters_luma_mode_11_to_17.s | 290 vmovn.s16 d6, q11 307 vand d6, d6, d29 @fract values in d1/ idx values in d0 316 vsub.s8 d7, d28, d6 @32-fract 324 vmlal.u8 q12, d13, d6 @mul (row 0) 334 vmlal.u8 q11, d17, d6 @mul (row 1) 345 vmlal.u8 q10, d15, d6 @mul (row 2) 356 vmlal.u8 q9, d11, d6 @mul (row 3) 367 vmlal.u8 q12, d13, d6 @mul (row 4) 378 vmlal.u8 q11, d17, d6 @mul (row 5) 389 vmlal.u8 q10, d15, d6 @mul (row 6) [all …]
|
D | ihevc_inter_pred_filters_luma_vert.s | 171 vld1.u8 {d6},[r3],r2 @src_tmp3 = vld1_u8(pu1_src_tmp)@ 176 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 213 vmlal.u8 q6,d6,d26 226 vmlal.u8 q7,d6,d25 233 vld1.u8 {d6},[r3],r2 @src_tmp3 = vld1_u8(pu1_src_tmp)@ 264 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 287 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 309 vmlal.u8 q6,d6,d26 333 vmlal.u8 q7,d6,d25 [all …]
|
/external/libavc/common/arm/ |
D | ih264_inter_pred_filters_luma_horz_a9q.s | 125 vld1.8 {d5, d6, d7}, [r0], r2 @// Load row1 128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) [all …]
|
D | ih264_inter_pred_luma_horz_qpel_a9q.s | 132 vld1.8 {d5, d6, d7}, [r0], r2 @// Load row1 135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) [all …]
|
D | ih264_inter_pred_chroma_a9q.s | 144 vld1.8 {d5, d6, d7}, [r0], r2 @ Load row1 146 vext.8 d8, d5, d6, #2 152 vext.8 d9, d6, d7, #2 156 vmull.u8 q6, d6, d30 164 vmov d1, d6 167 vld1.8 {d5, d6, d7}, [r0], r2 @ Load row1 170 vext.8 d8, d5, d6, #2 172 vext.8 d9, d6, d7, #2 181 vmull.u8 q6, d6, d30 211 vqrshrun.s16 d6, q2, #6 [all …]
|
D | ih264_deblk_chroma_a9.s | 96 vld2.8 {d6, d7}, [r0], r1 @D6 = p1u , D7 = p1v 101 vaddl.u8 q4, d6, d0 @ 113 vmlal.u8 q7, d6, d31 @ 174 vld4.16 {d0[0], d2[0], d4[0], d6[0]}, [r0], r1 175 vld4.16 {d0[1], d2[1], d4[1], d6[1]}, [r0], r1 176 vld4.16 {d0[2], d2[2], d4[2], d6[2]}, [r0], r1 177 vld4.16 {d0[3], d2[3], d4[3], d6[3]}, [r0], r1 191 vaddl.u8 q7, d2, d6 201 vmlal.u8 q9, d6, d31 213 vst4.16 {d0[0], d2[0], d4[0], d6[0]}, [r12], r1 [all …]
|
/external/capstone/suite/MC/ARM/ |
D | neon-vld-encoding.s.cs | 11 0x5f,0x46,0x23,0xf4 = vld1.16 {d4, d5, d6}, [r3:64] 12 0x8f,0x56,0x23,0xf4 = vld1.32 {d5, d6, d7}, [r3] 13 0xdf,0x66,0x23,0xf4 = vld1.64 {d6, d7, d8}, [r3:64] 15 0x5f,0x42,0x23,0xf4 = vld1.16 {d4, d5, d6, d7}, [r3:64] 16 0x8f,0x52,0x23,0xf4 = vld1.32 {d5, d6, d7, d8}, [r3] 17 0xdf,0x62,0x23,0xf4 = vld1.64 {d6, d7, d8, d9}, [r3:64] 35 0x5d,0x46,0x23,0xf4 = vld1.16 {d4, d5, d6}, [r3:64]! 36 0x8d,0x56,0x23,0xf4 = vld1.32 {d5, d6, d7}, [r3]! 37 0xdd,0x66,0x23,0xf4 = vld1.64 {d6, d7, d8}, [r3:64]! 39 0x56,0x46,0x23,0xf4 = vld1.16 {d4, d5, d6}, [r3:64], r6 [all …]
|
/external/llvm/test/MC/ARM/ |
D | neon-vld-encoding.s | 12 vld1.16 {d4, d5, d6}, [r3:64] 13 vld1.32 {d5, d6, d7}, [r3] 14 vld1.64 {d6, d7, d8}, [r3:64] 16 vld1.16 {d4, d5, d6, d7}, [r3:64] 17 vld1.32 {d5, d6, d7, d8}, [r3] 18 vld1.64 {d6, d7, d8, d9}, [r3:64] 39 vld1.16 {d4, d5, d6}, [r3:64]! 40 vld1.32 {d5, d6, d7}, [r3]! 41 vld1.64 {d6, d7, d8}, [r3:64]! 44 vld1.16 {d4, d5, d6}, [r3:64], r6 [all …]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
D | neon-vld-encoding.s | 12 vld1.16 {d4, d5, d6}, [r3:64] 13 vld1.32 {d5, d6, d7}, [r3] 14 vld1.64 {d6, d7, d8}, [r3:64] 16 vld1.16 {d4, d5, d6, d7}, [r3:64] 17 vld1.32 {d5, d6, d7, d8}, [r3] 18 vld1.64 {d6, d7, d8, d9}, [r3:64] 39 vld1.16 {d4, d5, d6}, [r3:64]! 40 vld1.32 {d5, d6, d7}, [r3]! 41 vld1.64 {d6, d7, d8}, [r3:64]! 44 vld1.16 {d4, d5, d6}, [r3:64], r6 [all …]
|
/external/vixl/test/aarch32/ |
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"}, 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"}, 126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"}, 127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"}, 128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"}, 140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"}, [all …]
|
D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"}, 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 115 {{F32, d6, d13, d11}, false, al, "F32 d6 d13 d11", "F32_d6_d13_d11"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 124 {{F32, d2, d7, d6}, false, al, "F32 d2 d7 d6", "F32_d2_d7_d6"}, 126 {{F32, d6, d12, d13}, false, al, "F32 d6 d12 d13", "F32_d6_d12_d13"}, 127 {{F32, d6, d17, d17}, false, al, "F32 d6 d17 d17", "F32_d6_d17_d17"}, 128 {{F32, d18, d7, d6}, false, al, "F32 d18 d7 d6", "F32_d18_d7_d6"}, 140 {{F32, d16, d15, d6}, false, al, "F32 d16 d15 d6", "F32_d16_d15_d6"}, [all …]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 387 vld1.64 d6,[r1] 391 vshr.u64 d26,d6,#63 410 vld1.64 d6,[r0]! 443 vld1.64 d6,[r2]! 450 vmull.p8 q8, d16, d6 @ F = A1*B 451 vext.8 d0, d6, d6, #1 @ B1 454 vmull.p8 q9, d18, d6 @ H = A2*B 455 vext.8 d22, d6, d6, #2 @ B2 459 vmull.p8 q10, d20, d6 @ J = A3*B 460 vext.8 d0, d6, d6, #3 @ B3 [all …]
|
/external/libhevc/decoder/arm/ |
D | ihevcd_itrans_recon_dc_chroma.s | 94 vld2.8 {d6,d7},[r7],r2 107 vaddw.u8 q13,q0,d6 117 vqmovun.s16 d6,q13 129 vst2.8 {d6,d7},[r11],r3 161 vld2.8 {d6,d7},[r0],r2 169 vaddw.u8 q13,q0,d6 176 vqmovun.s16 d6,q13 182 vzip.8 d6,d7 187 vst1.u32 {d6},[r1],r3
|
/external/compiler-rt/lib/builtins/arm/ |
D | subdf3vfp.S | 21 vmov d6, r0, r1 // move first param from r0/r1 pair into d6 23 vsub.f64 d6, d6, d7 24 vmov r0, r1, d6 // move result back to r0/r1 pair
|
D | adddf3vfp.S | 21 vmov d6, r0, r1 // move first param from r0/r1 pair into d6 23 vadd.f64 d6, d6, d7 24 vmov r0, r1, d6 // move result back to r0/r1 pair
|
D | muldf3vfp.S | 21 vmov d6, r0, r1 // move first param from r0/r1 pair into d6 23 vmul.f64 d6, d6, d7 24 vmov r0, r1, d6 // move result back to r0/r1 pair
|
/external/boringssl/linux-arm/crypto/fipsmodule/ |
D | ghash-armv4.S | 380 vld1.64 d6,[r1] 384 vshr.u64 d26,d6,#63 401 vld1.64 d6,[r0]! 432 vld1.64 d6,[r2]! 439 vmull.p8 q8, d16, d6 @ F = A1*B 440 vext.8 d0, d6, d6, #1 @ B1 443 vmull.p8 q9, d18, d6 @ H = A2*B 444 vext.8 d22, d6, d6, #2 @ B2 448 vmull.p8 q10, d20, d6 @ J = A3*B 449 vext.8 d0, d6, d6, #3 @ B3 [all …]
|
/external/pdfium/third_party/libpng16/arm/ |
D | filter_neon.S | 69 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 72 vadd.u8 d2, d1, d6 91 vext.8 d6, d22, d23, #6 96 vadd.u8 d2, d1, d6 124 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 131 vadd.u8 d2, d2, d6 155 vext.8 d6, d22, d23, #6 165 vadd.u8 d2, d2, d6 197 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 204 vadd.u8 d2, d2, d6 [all …]
|
/external/libpng/arm/ |
D | filter_neon.S | 69 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 72 vadd.u8 d2, d1, d6 91 vext.8 d6, d22, d23, #6 96 vadd.u8 d2, d1, d6 124 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 131 vadd.u8 d2, d2, d6 155 vext.8 d6, d22, d23, #6 165 vadd.u8 d2, d2, d6 197 vld4.32 {d4[],d5[],d6[],d7[]}, [r1,:128] 204 vadd.u8 d2, d2, d6 [all …]
|