/external/llvm-project/llvm/test/MC/X86/ |
D | X87-64.s | 16 faddl 64(%rdx) 20 faddl -64(%rdx,%rax,4) 24 faddl 64(%rdx,%rax,4) 28 faddl 64(%rdx,%rax) 32 faddl (%rdx) 44 fadds 64(%rdx) 48 fadds -64(%rdx,%rax,4) 52 fadds 64(%rdx,%rax,4) 56 fadds 64(%rdx,%rax) 60 fadds (%rdx) [all …]
|
D | I86-64.s | 9 adcb $0, 64(%rdx) 13 adcb $0, 64(%rdx,%rax,4) 17 adcb $0, -64(%rdx,%rax,4) 21 adcb $0, 64(%rdx,%rax) 33 adcb $0, (%rdx) 41 adcb 64(%rdx), %r14b 45 adcb 64(%rdx,%rax,4), %r14b 49 adcb -64(%rdx,%rax,4), %r14b 53 adcb 64(%rdx,%rax), %r14b 61 adcb %r14b, 64(%rdx) [all …]
|
D | SSE2-64.s | 9 addpd -64(%rdx,%rax,4), %xmm6 13 addpd 64(%rdx,%rax,4), %xmm6 17 addpd 64(%rdx,%rax), %xmm6 21 addpd 64(%rdx), %xmm6 25 addpd (%rdx), %xmm6 37 addsd -64(%rdx,%rax,4), %xmm6 41 addsd 64(%rdx,%rax,4), %xmm6 45 addsd 64(%rdx,%rax), %xmm6 49 addsd 64(%rdx), %xmm6 53 addsd (%rdx), %xmm6 [all …]
|
D | SSE-64.s | 9 addps -64(%rdx,%rax,4), %xmm6 13 addps 64(%rdx,%rax,4), %xmm6 17 addps 64(%rdx,%rax), %xmm6 21 addps 64(%rdx), %xmm6 25 addps (%rdx), %xmm6 37 addss -64(%rdx,%rax,4), %xmm6 41 addss 64(%rdx,%rax,4), %xmm6 45 addss 64(%rdx,%rax), %xmm6 49 addss 64(%rdx), %xmm6 53 addss (%rdx), %xmm6 [all …]
|
D | SSE41-64.s | 9 blendpd $0, 64(%rdx,%rax,4), %xmm6 13 blendpd $0, -64(%rdx,%rax,4), %xmm6 17 blendpd $0, 64(%rdx,%rax), %xmm6 21 blendpd $0, 64(%rdx), %xmm6 25 blendpd $0, (%rdx), %xmm6 37 blendps $0, 64(%rdx,%rax,4), %xmm6 41 blendps $0, -64(%rdx,%rax,4), %xmm6 45 blendps $0, 64(%rdx,%rax), %xmm6 49 blendps $0, 64(%rdx), %xmm6 53 blendps $0, (%rdx), %xmm6 [all …]
|
D | I186-64.s | 49 rclb $0, 64(%rdx) 53 rclb $0, 64(%rdx,%rax,4) 57 rclb $0, -64(%rdx,%rax,4) 61 rclb $0, 64(%rdx,%rax) 69 rclb $0, (%rdx) 77 rcll $0, 64(%rdx) 81 rcll $0, 64(%rdx,%rax,4) 85 rcll $0, -64(%rdx,%rax,4) 89 rcll $0, 64(%rdx,%rax) 97 rcll $0, (%rdx) [all …]
|
D | MMX-64.s | 17 movd 64(%rdx), %mm4 21 movd 64(%rdx,%rax,4), %mm4 25 movd -64(%rdx,%rax,4), %mm4 29 movd 64(%rdx,%rax), %mm4 37 movd %mm4, 64(%rdx) 41 movd %mm4, 64(%rdx,%rax,4) 45 movd %mm4, -64(%rdx,%rax,4) 49 movd %mm4, 64(%rdx,%rax) 61 movd %mm4, (%rdx) 73 movd (%rdx), %mm4 [all …]
|
D | AVX-64.s | 21 vaddpd -64(%rdx,%rax,4), %xmm15, %xmm15 25 vaddpd 64(%rdx,%rax,4), %xmm15, %xmm15 29 vaddpd -64(%rdx,%rax,4), %xmm6, %xmm6 33 vaddpd 64(%rdx,%rax,4), %xmm6, %xmm6 37 vaddpd -64(%rdx,%rax,4), %ymm7, %ymm7 41 vaddpd 64(%rdx,%rax,4), %ymm7, %ymm7 45 vaddpd -64(%rdx,%rax,4), %ymm9, %ymm9 49 vaddpd 64(%rdx,%rax,4), %ymm9, %ymm9 53 vaddpd 64(%rdx,%rax), %xmm15, %xmm15 57 vaddpd 64(%rdx,%rax), %xmm6, %xmm6 [all …]
|
D | AVX2-64.s | 13 vbroadcasti128 -64(%rdx,%rax,4), %ymm7 17 vbroadcasti128 64(%rdx,%rax,4), %ymm7 21 vbroadcasti128 -64(%rdx,%rax,4), %ymm9 25 vbroadcasti128 64(%rdx,%rax,4), %ymm9 29 vbroadcasti128 64(%rdx,%rax), %ymm7 33 vbroadcasti128 64(%rdx,%rax), %ymm9 37 vbroadcasti128 64(%rdx), %ymm7 41 vbroadcasti128 64(%rdx), %ymm9 45 vbroadcasti128 (%rdx), %ymm7 49 vbroadcasti128 (%rdx), %ymm9 [all …]
|
D | XOP-64.s | 21 vfrczpd 64(%rdx,%rax,4), %xmm15 25 vfrczpd -64(%rdx,%rax,4), %xmm15 29 vfrczpd 64(%rdx,%rax,4), %xmm6 33 vfrczpd -64(%rdx,%rax,4), %xmm6 37 vfrczpd 64(%rdx,%rax,4), %ymm7 41 vfrczpd -64(%rdx,%rax,4), %ymm7 45 vfrczpd 64(%rdx,%rax,4), %ymm9 49 vfrczpd -64(%rdx,%rax,4), %ymm9 53 vfrczpd 64(%rdx,%rax), %xmm15 57 vfrczpd 64(%rdx,%rax), %xmm6 [all …]
|
D | SSSE3-64.s | 13 pabsb 64(%rdx), %mm4 17 pabsb -64(%rdx,%rax,4), %mm4 21 pabsb 64(%rdx,%rax,4), %mm4 25 pabsb -64(%rdx,%rax,4), %xmm6 29 pabsb 64(%rdx,%rax,4), %xmm6 33 pabsb 64(%rdx,%rax), %mm4 37 pabsb 64(%rdx,%rax), %xmm6 41 pabsb 64(%rdx), %xmm6 49 pabsb (%rdx), %mm4 53 pabsb (%rdx), %xmm6 [all …]
|
D | FMA-64.s | 21 vfmadd132pd -64(%rdx,%rax,4), %xmm15, %xmm15 25 vfmadd132pd 64(%rdx,%rax,4), %xmm15, %xmm15 29 vfmadd132pd -64(%rdx,%rax,4), %xmm6, %xmm6 33 vfmadd132pd 64(%rdx,%rax,4), %xmm6, %xmm6 37 vfmadd132pd -64(%rdx,%rax,4), %ymm7, %ymm7 41 vfmadd132pd 64(%rdx,%rax,4), %ymm7, %ymm7 45 vfmadd132pd -64(%rdx,%rax,4), %ymm9, %ymm9 49 vfmadd132pd 64(%rdx,%rax,4), %ymm9, %ymm9 53 vfmadd132pd 64(%rdx,%rax), %xmm15, %xmm15 57 vfmadd132pd 64(%rdx,%rax), %xmm6, %xmm6 [all …]
|
D | I286-64.s | 13 larl 64(%rdx), %r13d 17 larl 64(%rdx,%rax,4), %r13d 21 larl -64(%rdx,%rax,4), %r13d 25 larl 64(%rdx,%rax), %r13d 33 larl (%rdx), %r13d 49 lgdtq 64(%rdx) 53 lgdtq 64(%rdx,%rax,4) 57 lgdtq -64(%rdx,%rax,4) 61 lgdtq 64(%rdx,%rax) 65 lgdtq (%rdx) [all …]
|
D | AVX512F_512-64.s | 5 vaddpd 4096(%rdx,%rax,4), %zmm19, %zmm19 9 vaddpd -4096(%rdx,%rax,4), %zmm19, %zmm19 13 vaddpd 4096(%rdx,%rax,4), %zmm19, %zmm19 {%k2} 17 vaddpd -4096(%rdx,%rax,4), %zmm19, %zmm19 {%k2} 21 vaddpd 4096(%rdx,%rax,4), %zmm19, %zmm19 {%k2} {z} 25 vaddpd -4096(%rdx,%rax,4), %zmm19, %zmm19 {%k2} {z} 29 vaddpd 4096(%rdx,%rax), %zmm19, %zmm19 33 vaddpd 4096(%rdx,%rax), %zmm19, %zmm19 {%k2} 37 vaddpd 4096(%rdx,%rax), %zmm19, %zmm19 {%k2} {z} 41 vaddpd 4096(%rdx), %zmm19, %zmm19 [all …]
|
D | x86-64-avx512dq_vl.s | 29 vpmullq 2032(%rdx), %xmm17, %xmm26 33 vpmullq 2048(%rdx), %xmm17, %xmm26 37 vpmullq -2048(%rdx), %xmm17, %xmm26 41 vpmullq -2064(%rdx), %xmm17, %xmm26 45 vpmullq 1016(%rdx){1to2}, %xmm17, %xmm26 49 vpmullq 1024(%rdx){1to2}, %xmm17, %xmm26 53 vpmullq -1024(%rdx){1to2}, %xmm17, %xmm26 57 vpmullq -1032(%rdx){1to2}, %xmm17, %xmm26 85 vpmullq 4064(%rdx), %ymm25, %ymm25 89 vpmullq 4096(%rdx), %ymm25, %ymm25 [all …]
|
D | SSE3-64.s | 9 addsubpd -64(%rdx,%rax,4), %xmm6 13 addsubpd 64(%rdx,%rax,4), %xmm6 17 addsubpd 64(%rdx,%rax), %xmm6 21 addsubpd 64(%rdx), %xmm6 25 addsubpd (%rdx), %xmm6 37 addsubps -64(%rdx,%rax,4), %xmm6 41 addsubps 64(%rdx,%rax,4), %xmm6 45 addsubps 64(%rdx,%rax), %xmm6 49 addsubps 64(%rdx), %xmm6 53 addsubps (%rdx), %xmm6 [all …]
|
D | x86-64-avx512f_vl.s | 29 vaddpd 2032(%rdx), %xmm29, %xmm20 33 vaddpd 2048(%rdx), %xmm29, %xmm20 37 vaddpd -2048(%rdx), %xmm29, %xmm20 41 vaddpd -2064(%rdx), %xmm29, %xmm20 45 vaddpd 1016(%rdx){1to2}, %xmm29, %xmm20 49 vaddpd 1024(%rdx){1to2}, %xmm29, %xmm20 53 vaddpd -1024(%rdx){1to2}, %xmm29, %xmm20 57 vaddpd -1032(%rdx){1to2}, %xmm29, %xmm20 85 vaddpd 4064(%rdx), %ymm26, %ymm28 89 vaddpd 4096(%rdx), %ymm26, %ymm28 [all …]
|
D | SHA-64.s | 13 sha1msg1 64(%rdx,%rax,4), %xmm15 17 sha1msg1 -64(%rdx,%rax,4), %xmm15 21 sha1msg1 64(%rdx,%rax,4), %xmm6 25 sha1msg1 -64(%rdx,%rax,4), %xmm6 29 sha1msg1 64(%rdx,%rax), %xmm15 33 sha1msg1 64(%rdx,%rax), %xmm6 37 sha1msg1 64(%rdx), %xmm15 41 sha1msg1 64(%rdx), %xmm6 45 sha1msg1 (%rdx), %xmm15 49 sha1msg1 (%rdx), %xmm6 [all …]
|
D | x86-64-avx512cd_vl.s | 29 vplzcntq 2032(%rdx), %xmm18 33 vplzcntq 2048(%rdx), %xmm18 37 vplzcntq -2048(%rdx), %xmm18 41 vplzcntq -2064(%rdx), %xmm18 45 vplzcntq 1016(%rdx){1to2}, %xmm18 49 vplzcntq 1024(%rdx){1to2}, %xmm18 53 vplzcntq -1024(%rdx){1to2}, %xmm18 57 vplzcntq -1032(%rdx){1to2}, %xmm18 85 vplzcntq 4064(%rdx), %ymm21 89 vplzcntq 4096(%rdx), %ymm21 [all …]
|
D | AES-64.s | 13 aesdec 64(%rdx,%rax,4), %xmm15 17 aesdec -64(%rdx,%rax,4), %xmm15 21 aesdec 64(%rdx,%rax,4), %xmm6 25 aesdec -64(%rdx,%rax,4), %xmm6 29 aesdec 64(%rdx,%rax), %xmm15 33 aesdec 64(%rdx,%rax), %xmm6 37 aesdec 64(%rdx), %xmm15 41 aesdec 64(%rdx), %xmm6 53 aesdeclast 64(%rdx,%rax,4), %xmm15 57 aesdeclast -64(%rdx,%rax,4), %xmm15 [all …]
|
D | BMI2-64.s | 9 bzhil %r13d, 64(%rdx), %r13d 13 bzhil %r13d, 64(%rdx,%rax,4), %r13d 17 bzhil %r13d, -64(%rdx,%rax,4), %r13d 21 bzhil %r13d, 64(%rdx,%rax), %r13d 29 bzhil %r13d, (%rdx), %r13d 37 bzhiq %r15, 64(%rdx), %r15 41 bzhiq %r15, 64(%rdx,%rax,4), %r15 45 bzhiq %r15, -64(%rdx,%rax,4), %r15 49 bzhiq %r15, 64(%rdx,%rax), %r15 57 bzhiq %r15, (%rdx), %r15 [all …]
|
/external/llvm/test/MC/X86/ |
D | x86-64-avx512dq_vl.s | 29 vpmullq 2032(%rdx), %xmm17, %xmm26 33 vpmullq 2048(%rdx), %xmm17, %xmm26 37 vpmullq -2048(%rdx), %xmm17, %xmm26 41 vpmullq -2064(%rdx), %xmm17, %xmm26 45 vpmullq 1016(%rdx){1to2}, %xmm17, %xmm26 49 vpmullq 1024(%rdx){1to2}, %xmm17, %xmm26 53 vpmullq -1024(%rdx){1to2}, %xmm17, %xmm26 57 vpmullq -1032(%rdx){1to2}, %xmm17, %xmm26 85 vpmullq 4064(%rdx), %ymm25, %ymm25 89 vpmullq 4096(%rdx), %ymm25, %ymm25 [all …]
|
D | x86-64-avx512f_vl.s | 29 vaddpd 2032(%rdx), %xmm29, %xmm20 33 vaddpd 2048(%rdx), %xmm29, %xmm20 37 vaddpd -2048(%rdx), %xmm29, %xmm20 41 vaddpd -2064(%rdx), %xmm29, %xmm20 45 vaddpd 1016(%rdx){1to2}, %xmm29, %xmm20 49 vaddpd 1024(%rdx){1to2}, %xmm29, %xmm20 53 vaddpd -1024(%rdx){1to2}, %xmm29, %xmm20 57 vaddpd -1032(%rdx){1to2}, %xmm29, %xmm20 85 vaddpd 4064(%rdx), %ymm26, %ymm28 89 vaddpd 4096(%rdx), %ymm26, %ymm28 [all …]
|
D | x86-64-avx512cd_vl.s | 29 vplzcntq 2032(%rdx), %xmm18 33 vplzcntq 2048(%rdx), %xmm18 37 vplzcntq -2048(%rdx), %xmm18 41 vplzcntq -2064(%rdx), %xmm18 45 vplzcntq 1016(%rdx){1to2}, %xmm18 49 vplzcntq 1024(%rdx){1to2}, %xmm18 53 vplzcntq -1024(%rdx){1to2}, %xmm18 57 vplzcntq -1032(%rdx){1to2}, %xmm18 85 vplzcntq 4064(%rdx), %ymm21 89 vplzcntq 4096(%rdx), %ymm21 [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | aarch64-minmaxv.ll | 10 …%rdx.shuf = shufflevector <16 x i8> %arr.load, <16 x i8> undef, <16 x i32> <i32 8, i32 9, i32 10, … 11 %rdx.minmax.cmp22 = icmp sgt <16 x i8> %arr.load, %rdx.shuf 12 …%rdx.minmax.select23 = select <16 x i1> %rdx.minmax.cmp22, <16 x i8> %arr.load, <16 x i8> %rdx.shuf 13 …%rdx.shuf24 = shufflevector <16 x i8> %rdx.minmax.select23, <16 x i8> undef, <16 x i32> <i32 4, i3… 14 %rdx.minmax.cmp25 = icmp sgt <16 x i8> %rdx.minmax.select23, %rdx.shuf24 15 …%rdx.minmax.select26 = select <16 x i1> %rdx.minmax.cmp25, <16 x i8> %rdx.minmax.select23, <16 x i… 16 …%rdx.shuf27 = shufflevector <16 x i8> %rdx.minmax.select26, <16 x i8> undef, <16 x i32> <i32 2, i3… 17 %rdx.minmax.cmp28 = icmp sgt <16 x i8> %rdx.minmax.select26, %rdx.shuf27 18 …%rdx.minmax.select29 = select <16 x i1> %rdx.minmax.cmp28, <16 x i8> %rdx.minmax.select26, <16 x i… 19 …%rdx.shuf30 = shufflevector <16 x i8> %rdx.minmax.select29, <16 x i8> undef, <16 x i32> <i32 1, i3… [all …]
|