/external/rust/crates/quiche/deps/boringssl/src/crypto/hrss/asm/ |
D | poly_rq_mul.S | 489 vpmullw %ymm3, %ymm4, %ymm0 label 491 vpmullw %ymm3, %ymm0, %ymm0 label 493 vpmullw %ymm3, %ymm0, %ymm0 label 495 vpmullw %ymm3, %ymm5, %ymm0 label 497 vpmullw %ymm3, %ymm0, %ymm0 label 499 vpmullw %ymm3, %ymm0, %ymm0 label 501 vpmullw %ymm3, %ymm6, %ymm0 label 503 vpmullw %ymm3, %ymm0, %ymm0 label 505 vpmullw %ymm3, %ymm0, %ymm0 label 507 vpmullw %ymm3, %ymm7, %ymm0 label [all …]
|
/external/boringssl/src/crypto/hrss/asm/ |
D | poly_rq_mul.S | 489 vpmullw %ymm3, %ymm4, %ymm0 label 491 vpmullw %ymm3, %ymm0, %ymm0 label 493 vpmullw %ymm3, %ymm0, %ymm0 label 495 vpmullw %ymm3, %ymm5, %ymm0 label 497 vpmullw %ymm3, %ymm0, %ymm0 label 499 vpmullw %ymm3, %ymm0, %ymm0 label 501 vpmullw %ymm3, %ymm6, %ymm0 label 503 vpmullw %ymm3, %ymm0, %ymm0 label 505 vpmullw %ymm3, %ymm0, %ymm0 label 507 vpmullw %ymm3, %ymm7, %ymm0 label [all …]
|
/external/cronet/third_party/boringssl/src/crypto/hrss/asm/ |
D | poly_rq_mul.S | 489 vpmullw %ymm3, %ymm4, %ymm0 label 491 vpmullw %ymm3, %ymm0, %ymm0 label 493 vpmullw %ymm3, %ymm0, %ymm0 label 495 vpmullw %ymm3, %ymm5, %ymm0 label 497 vpmullw %ymm3, %ymm0, %ymm0 label 499 vpmullw %ymm3, %ymm0, %ymm0 label 501 vpmullw %ymm3, %ymm6, %ymm0 label 503 vpmullw %ymm3, %ymm0, %ymm0 label 505 vpmullw %ymm3, %ymm0, %ymm0 label 507 vpmullw %ymm3, %ymm7, %ymm0 label [all …]
|
/external/llvm/test/CodeGen/X86/ |
D | vec_shift6.ll | 18 ; AVX2-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm0 23 ; AVX512-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm0 37 ; AVX2-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm0 42 ; AVX512-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm0 92 ; a single vpmullw. 104 ; AVX2-NEXT: vpmullw {{.*}}(%rip), %ymm0, %ymm0 109 ; AVX512-NEXT: vpmullw {{.*}}(%rip), %ymm0, %ymm0 141 ; two vpmullw instructions. On SSE2 instead, we split the shift in four 157 ; AVX2-NEXT: vpmullw %ymm2, %ymm0, %ymm0 158 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1 [all …]
|
D | pmul.ll | 45 ; AVX2-NEXT: vpmullw %ymm1, %ymm0, %ymm0 58 ; AVX512F-NEXT: vpmullw %ymm1, %ymm0, %ymm0 67 ; AVX512BW-NEXT: vpmullw %ymm1, %ymm0, %ymm0 84 ; AVX-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm0 186 ; AVX2-NEXT: vpmullw %ymm1, %ymm0, %ymm0 199 ; AVX512F-NEXT: vpmullw %ymm1, %ymm0, %ymm0 208 ; AVX512BW-NEXT: vpmullw %ymm1, %ymm0, %ymm0 225 ; AVX-NEXT: vpmullw %xmm1, %xmm0, %xmm0 446 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1 453 ; AVX2-NEXT: vpmullw %ymm2, %ymm0, %ymm0 [all …]
|
D | vector-idiv-sdiv-256.ll | 167 ; AVX1-NEXT: vpmullw %xmm3, %xmm2, %xmm2 171 ; AVX1-NEXT: vpmullw %xmm3, %xmm4, %xmm4 186 ; AVX1-NEXT: vpmullw %xmm3, %xmm2, %xmm2 190 ; AVX1-NEXT: vpmullw %xmm3, %xmm7, %xmm3 211 ; AVX2-NEXT: vpmullw %ymm2, %ymm3, %ymm2 215 ; AVX2-NEXT: vpmullw %ymm1, %ymm3, %ymm1 413 ; AVX1-NEXT: vpmullw %xmm4, %xmm3, %xmm3 419 ; AVX1-NEXT: vpmullw %xmm4, %xmm2, %xmm2 430 ; AVX2-NEXT: vpmullw {{.*}}(%rip), %ymm1, %ymm1 443 ; AVX1-NEXT: vpmullw %xmm1, %xmm3, %xmm3 [all …]
|
D | vector-idiv-udiv-256.ll | 178 ; AVX1-NEXT: vpmullw %xmm3, %xmm2, %xmm2 182 ; AVX1-NEXT: vpmullw %xmm3, %xmm4, %xmm4 194 ; AVX1-NEXT: vpmullw %xmm3, %xmm5, %xmm5 198 ; AVX1-NEXT: vpmullw %xmm3, %xmm6, %xmm3 217 ; AVX2-NEXT: vpmullw %ymm2, %ymm3, %ymm2 221 ; AVX2-NEXT: vpmullw %ymm1, %ymm3, %ymm1 425 ; AVX1-NEXT: vpmullw %xmm4, %xmm3, %xmm3 432 ; AVX1-NEXT: vpmullw %xmm4, %xmm2, %xmm2 444 ; AVX2-NEXT: vpmullw {{.*}}(%rip), %ymm1, %ymm1 457 ; AVX1-NEXT: vpmullw %xmm1, %xmm3, %xmm3 [all …]
|
D | avx2-arith.ll | 57 ; CHECK: vpmullw %ymm 67 ; CHECK-NEXT: vpmullw %ymm1, %ymm0, %ymm0 86 ; CHECK-NEXT: vpmullw %ymm2, %ymm3, %ymm2 94 ; CHECK-NEXT: vpmullw %ymm1, %ymm0, %ymm0
|
D | vector-idiv-sdiv-128.ll | 232 ; AVX1-NEXT: vpmullw %xmm2, %xmm1, %xmm1 236 ; AVX1-NEXT: vpmullw %xmm2, %xmm3, %xmm2 254 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1 476 ; AVX-NEXT: vpmullw {{.*}}(%rip), %xmm1, %xmm1 563 ; AVX1-NEXT: vpmullw %xmm2, %xmm1, %xmm1 567 ; AVX1-NEXT: vpmullw %xmm2, %xmm3, %xmm2 581 ; AVX1-NEXT: vpmullw %xmm3, %xmm2, %xmm2 586 ; AVX1-NEXT: vpmullw %xmm3, %xmm1, %xmm1 596 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1 611 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1
|
D | vector-idiv-udiv-128.ll | 219 ; AVX1-NEXT: vpmullw %xmm2, %xmm1, %xmm1 223 ; AVX1-NEXT: vpmullw %xmm2, %xmm3, %xmm2 238 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1 458 ; AVX-NEXT: vpmullw {{.*}}(%rip), %xmm1, %xmm1 539 ; AVX1-NEXT: vpmullw %xmm2, %xmm1, %xmm1 543 ; AVX1-NEXT: vpmullw %xmm2, %xmm3, %xmm2 554 ; AVX1-NEXT: vpmullw %xmm3, %xmm2, %xmm2 559 ; AVX1-NEXT: vpmullw %xmm3, %xmm1, %xmm1 569 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1 581 ; AVX2-NEXT: vpmullw %ymm2, %ymm1, %ymm1
|
D | avx-arith.ll | 228 ; CHECK-NEXT: vpmullw %xmm 229 ; CHECK-NEXT: vpmullw %xmm 231 define <16 x i16> @vpmullw(<16 x i16> %i, <16 x i16> %j) nounwind readnone {
|
D | avx512bwvl-arith.ll | 98 ; CHECK: vpmullw %ymm{{.*}} 200 ; CHECK: vpmullw %xmm{{.*}}
|
D | vector-idiv-udiv-512.ll | 270 ; AVX512F-NEXT: vpmullw %ymm3, %ymm4, %ymm4 274 ; AVX512F-NEXT: vpmullw %ymm2, %ymm5, %ymm5 289 ; AVX512F-NEXT: vpmullw %ymm3, %ymm6, %ymm3 292 ; AVX512F-NEXT: vpmullw %ymm2, %ymm6, %ymm2 1229 ; AVX512F-NEXT: vpmullw %ymm4, %ymm3, %ymm3 1236 ; AVX512F-NEXT: vpmullw %ymm4, %ymm2, %ymm2 1247 ; AVX512BW-NEXT: vpmullw {{.*}}(%rip), %zmm1, %zmm1 1262 ; AVX512F-NEXT: vpmullw %ymm2, %ymm4, %ymm4 1266 ; AVX512F-NEXT: vpmullw %ymm4, %ymm3, %ymm3 1281 ; AVX512F-NEXT: vpmullw %ymm3, %ymm8, %ymm8 [all …]
|
D | avx512bw-arith.ll | 96 ; CHECK: vpmullw %zmm{{.*}}
|
D | vector-idiv-sdiv-512.ll | 291 ; AVX512F-NEXT: vpmullw %ymm3, %ymm4, %ymm4 295 ; AVX512F-NEXT: vpmullw %ymm2, %ymm5, %ymm5 313 ; AVX512F-NEXT: vpmullw %ymm3, %ymm4, %ymm3 316 ; AVX512F-NEXT: vpmullw %ymm2, %ymm4, %ymm2 1390 ; AVX512F-NEXT: vpmullw %ymm4, %ymm3, %ymm3 1396 ; AVX512F-NEXT: vpmullw %ymm4, %ymm2, %ymm2 1406 ; AVX512BW-NEXT: vpmullw {{.*}}(%rip), %zmm1, %zmm1 1421 ; AVX512F-NEXT: vpmullw %ymm2, %ymm4, %ymm4 1425 ; AVX512F-NEXT: vpmullw %ymm3, %ymm5, %ymm5 1443 ; AVX512F-NEXT: vpmullw %ymm4, %ymm9, %ymm9 [all …]
|
D | vector-shift-shl-512.ll | 197 ; AVX512DQ-NEXT: vpmullw %ymm2, %ymm0, %ymm0 198 ; AVX512DQ-NEXT: vpmullw %ymm2, %ymm1, %ymm1
|
D | vector-shift-shl-256.ll | 565 ; AVX1-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm1 567 ; AVX1-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm0 573 ; AVX2-NEXT: vpmullw {{.*}}(%rip), %ymm0, %ymm0 586 ; XOPAVX2-NEXT: vpmullw {{.*}}(%rip), %ymm0, %ymm0
|
D | combine-64bit-vec-binop.ll | 104 ; AVX: vpmullw
|
D | vector-rotate-256.ll | 504 ; AVX1-NEXT: vpmullw {{.*}}(%rip), %xmm0, %xmm1 506 ; AVX1-NEXT: vpmullw {{.*}}(%rip), %xmm2, %xmm3 530 ; AVX2-NEXT: vpmullw {{.*}}(%rip), %ymm0, %ymm1 562 ; XOPAVX2-NEXT: vpmullw {{.*}}(%rip), %ymm0, %ymm1
|
/external/libjpeg-turbo/simd/x86_64/ |
D | jdsample-avx2.asm | 290 vpmullw ymm0, ymm0, [rel PW_THREE] 291 vpmullw ymm4, ymm4, [rel PW_THREE] 347 vpmullw ymm0, ymm0, [rel PW_THREE] 348 vpmullw ymm4, ymm4, [rel PW_THREE] 399 vpmullw ymm7, ymm7, [rel PW_THREE] 400 vpmullw ymm3, ymm3, [rel PW_THREE] 453 vpmullw ymm6, ymm6, [rel PW_THREE] 454 vpmullw ymm4, ymm4, [rel PW_THREE]
|
/external/libjpeg-turbo/simd/i386/ |
D | jdsample-avx2.asm | 152 vpmullw ymm1, ymm1, [GOTOFF(ebx,PW_THREE)] 153 vpmullw ymm4, ymm4, [GOTOFF(ebx,PW_THREE)] 385 vpmullw ymm0, ymm0, [GOTOFF(ebx,PW_THREE)] 386 vpmullw ymm4, ymm4, [GOTOFF(ebx,PW_THREE)] 495 vpmullw ymm6, ymm6, [GOTOFF(ebx,PW_THREE)] 496 vpmullw ymm4, ymm4, [GOTOFF(ebx,PW_THREE)]
|
/external/llvm/test/MC/X86/ |
D | x86-64-avx512bw.s | 588 vpmullw %zmm19, %zmm28, %zmm19 592 vpmullw %zmm19, %zmm28, %zmm19 {%k5} 596 vpmullw %zmm19, %zmm28, %zmm19 {%k5} {z} 600 vpmullw (%rcx), %zmm28, %zmm19 604 vpmullw 291(%rax,%r14,8), %zmm28, %zmm19 608 vpmullw 8128(%rdx), %zmm28, %zmm19 612 vpmullw 8192(%rdx), %zmm28, %zmm19 616 vpmullw -8192(%rdx), %zmm28, %zmm19 620 vpmullw -8256(%rdx), %zmm28, %zmm19
|
D | x86-64-avx512bw_vl.s | 1461 vpmullw %xmm26, %xmm19, %xmm29 1465 vpmullw %xmm26, %xmm19, %xmm29 {%k7} 1469 vpmullw %xmm26, %xmm19, %xmm29 {%k7} {z} 1473 vpmullw (%rcx), %xmm19, %xmm29 1477 vpmullw 291(%rax,%r14,8), %xmm19, %xmm29 1481 vpmullw 2032(%rdx), %xmm19, %xmm29 1485 vpmullw 2048(%rdx), %xmm19, %xmm29 1489 vpmullw -2048(%rdx), %xmm19, %xmm29 1493 vpmullw -2064(%rdx), %xmm19, %xmm29 1497 vpmullw %ymm20, %ymm24, %ymm17 [all …]
|
D | x86-32-avx.s | 1100 vpmullw %xmm1, %xmm2, %xmm3 1104 vpmullw (%eax), %xmm2, %xmm3
|
/external/capstone/suite/MC/X86/ |
D | x86-32-avx.s.cs | 276 0xc5,0xe9,0xd5,0xd9 = vpmullw %xmm1, %xmm2, %xmm3 277 0xc5,0xe9,0xd5,0x18 = vpmullw (%eax), %xmm2, %xmm3
|