/arch/x86/power/ |
D | hibernate_asm_64.S | 26 movq $saved_context, %rax 27 movq %rsp, pt_regs_sp(%rax) 28 movq %rbp, pt_regs_bp(%rax) 29 movq %rsi, pt_regs_si(%rax) 30 movq %rdi, pt_regs_di(%rax) 31 movq %rbx, pt_regs_bx(%rax) 32 movq %rcx, pt_regs_cx(%rax) 33 movq %rdx, pt_regs_dx(%rax) 34 movq %r8, pt_regs_r8(%rax) 35 movq %r9, pt_regs_r9(%rax) [all …]
|
/arch/x86/kernel/acpi/ |
D | wakeup_64.S | 16 movq saved_magic, %rax 17 movq $0x123456789abcdef0, %rdx 27 movq saved_rsp, %rsp 29 movq saved_rbx, %rbx 30 movq saved_rdi, %rdi 31 movq saved_rsi, %rsi 32 movq saved_rbp, %rbp 34 movq saved_rip, %rax 46 movq $saved_context, %rax 47 movq %rsp, pt_regs_sp(%rax) [all …]
|
/arch/x86/lib/ |
D | copy_page_64.S | 25 movq %rbx,(%rsp) 27 movq %r12,1*8(%rsp) 35 movq (%rsi), %rax 36 movq 8 (%rsi), %rbx 37 movq 16 (%rsi), %rdx 38 movq 24 (%rsi), %r8 39 movq 32 (%rsi), %r9 40 movq 40 (%rsi), %r10 41 movq 48 (%rsi), %r11 42 movq 56 (%rsi), %r12 [all …]
|
D | memmove_64.S | 63 movq 0*8(%rsi), %r11 64 movq 1*8(%rsi), %r10 65 movq 2*8(%rsi), %r9 66 movq 3*8(%rsi), %r8 69 movq %r11, 0*8(%rdi) 70 movq %r10, 1*8(%rdi) 71 movq %r9, 2*8(%rdi) 72 movq %r8, 3*8(%rdi) 82 movq %rdx, %rcx 83 movq -8(%rsi, %rdx), %r11 [all …]
|
D | memcpy_64.S | 29 movq %rdi, %rax 30 movq %rdx, %rcx 49 movq %rdi, %rax 50 movq %rdx, %rcx 59 movq %rdi, %rax 77 movq 0*8(%rsi), %r8 78 movq 1*8(%rsi), %r9 79 movq 2*8(%rsi), %r10 80 movq 3*8(%rsi), %r11 83 movq %r8, 0*8(%rdi) [all …]
|
D | csum-copy_64.S | 65 movq %rbx, 2*8(%rsp) 67 movq %r12, 3*8(%rsp) 69 movq %r14, 4*8(%rsp) 71 movq %r13, 5*8(%rsp) 73 movq %rbp, 6*8(%rsp) 76 movq %r8, (%rsp) 77 movq %r9, 1*8(%rsp) 83 movq %rcx, %r12 97 movq (%rdi), %rbx 99 movq 8(%rdi), %r8 [all …]
|
D | memset_64.S | 21 movq %rdi,%r9 22 movq %rdx,%rcx 32 movq %r9,%rax 50 movq %rdi,%r9 52 movq %rdx,%rcx 54 movq %r9,%rax 62 movq %rdi,%r10 76 movq %rdx,%rcx 83 movq %rax,(%rdi) 84 movq %rax,8(%rdi) [all …]
|
D | copy_user_64.S | 78 movq %rdi,%rcx 93 movq %rsi,%rcx 142 1: movq (%rsi),%r8 143 2: movq 1*8(%rsi),%r9 144 3: movq 2*8(%rsi),%r10 145 4: movq 3*8(%rsi),%r11 146 5: movq %r8,(%rdi) 147 6: movq %r9,1*8(%rdi) 148 7: movq %r10,2*8(%rdi) 149 8: movq %r11,3*8(%rdi) [all …]
|
D | copy_user_nocache_64.S | 60 1: movq (%rsi),%r8 61 2: movq 1*8(%rsi),%r9 62 3: movq 2*8(%rsi),%r10 63 4: movq 3*8(%rsi),%r11 68 9: movq 4*8(%rsi),%r8 69 10: movq 5*8(%rsi),%r9 70 11: movq 6*8(%rsi),%r10 71 12: movq 7*8(%rsi),%r11 84 18: movq (%rsi),%r8
|
D | rwsem.S | 43 .macro movq src, dst macro 92 movq %rax,%rdi 104 movq %rax,%rdi 117 movq %rax,%rdi 129 movq %rax,%rdi
|
D | clear_page_64.S | 34 #define PUT(x) movq %rax,x*8(%rdi) 35 movq %rax,(%rdi)
|
D | cmpxchg16b_emu.S | 51 movq %rbx, SEG_PREFIX(%rsi) 52 movq %rcx, SEG_PREFIX 8(%rsi)
|
/arch/x86/kernel/ |
D | relocate_kernel_64.S | 61 movq PTR(VA_CONTROL_PAGE)(%rsi), %r11 62 movq %rsp, RSP(%r11) 63 movq %cr0, %rax 64 movq %rax, CR0(%r11) 65 movq %cr3, %rax 66 movq %rax, CR3(%r11) 67 movq %cr4, %rax 68 movq %rax, CR4(%r11) 78 movq PTR(PA_CONTROL_PAGE)(%rsi), %r8 81 movq PTR(PA_TABLE_PAGE)(%rsi), %r9 [all …]
|
D | entry_64.S | 81 movq 0x38(%rsp), %rdi 82 movq 8(%rbp), %rsi 121 movq 0x38(%rsp), %rdi 122 movq 8(%rbp), %rsi 142 movq 0x38(%rsp), %rsi 143 movq (%rbp), %rdx 157 movq %rax, (%rsp) 158 movq %rdx, 8(%rsp) 159 movq %rbp, %rdi 163 movq %rax, %rdi [all …]
|
D | head_64.S | 27 #define GET_CR2_INTO_RCX movq %cr2, %rcx 73 movq %rbp, %rax 80 movq $PGDIR_SIZE, %rax 101 movq %rdi, %rax 108 movq %rdx, 0(%rbx, %rax, 8) 110 movq %rdi, %rax 115 movq %rdx, 0(%rbx, %rax, 8) 165 movq %rax, %cr4 168 movq $(init_level4_pgt - __START_KERNEL_map), %rax 170 movq %rax, %cr3 [all …]
|
/arch/x86/include/asm/ |
D | ftrace.h | 9 movq %rax, (%rsp) 10 movq %rcx, 8(%rsp) 11 movq %rdx, 16(%rsp) 12 movq %rsi, 24(%rsp) 13 movq %rdi, 32(%rsp) 14 movq %r8, 40(%rsp) 15 movq %r9, 48(%rsp) 19 movq 48(%rsp), %r9 20 movq 40(%rsp), %r8 21 movq 32(%rsp), %rdi [all …]
|
D | calling.h | 146 movq \offset(%rsp), %r11 147 movq \offset+8(%rsp), %r10 148 movq \offset+16(%rsp), %r9 149 movq \offset+24(%rsp), %r8 150 movq \offset+40(%rsp), %rcx 151 movq \offset+48(%rsp), %rdx 152 movq \offset+56(%rsp), %rsi 153 movq \offset+64(%rsp), %rdi 156 movq \offset+72(%rsp), %rax
|
/arch/x86/um/ |
D | setjmp_64.S | 26 movq %rbx,(%rdi) 27 movq %rsp,8(%rdi) # Post-return %rsp! 29 movq %rbp,16(%rdi) 30 movq %r12,24(%rdi) 31 movq %r13,32(%rdi) 32 movq %r14,40(%rdi) 33 movq %r15,48(%rdi) 34 movq %rsi,56(%rdi) # Return address 45 movq (%rdi),%rbx 46 movq 8(%rdi),%rsp [all …]
|
D | stub_64.S | 10 movq $(STUB_DATA >> 32), %rbx 12 movq $(STUB_DATA & 0xffffffff), %rcx 14 movq %rax, (%rbx)
|
/arch/x86/crypto/ |
D | salsa20-x86_64-asm_64.S | 27 movq %r11,0(%rsp) 29 movq %r12,8(%rsp) 31 movq %r13,16(%rsp) 33 movq %r14,24(%rsp) 35 movq %r15,32(%rsp) 37 movq %rbx,40(%rsp) 39 movq %rbp,48(%rsp) 41 movq 0(%r8),%rcx 43 movq 8(%r8),%r9 45 movq 16(%r8),%rax [all …]
|
D | blowfish-x86_64-asm_64.S | 96 movq p+4*(n-1)(CTX), RT0; \ 107 movq (RIO), RX0; \ 113 movq RX0, (RIO); 130 movq %rbp, %r11; 132 movq %rsi, %r10; 133 movq %rdx, RIO; 147 movq %r11, %rbp; 149 movq %r10, RIO; 169 movq %rbp, %r11; 171 movq %rsi, %r10; [all …]
|
D | camellia-x86_64-asm_64.S | 103 movq (key_table + ((subkey) * 2) * 4)(CTX), RT2; \ 118 movq (key_table + ((kr) * 2) * 4)(CTX), RT1; \ 123 movq (key_table + ((kl) * 2) * 4)(CTX), RT2; \ 145 movq (RIO), RAB0; \ 148 movq 4*2(RIO), RCD0; \ 174 movq (RIO), RAB0; \ 177 movq 4*2(RIO), RCD0; \ 186 movq RCD0, (RIO); \ 189 movq RAB0, 4*2(RIO); 201 movq %rbp, RRBP; [all …]
|
D | twofish-x86_64-asm_64.S | 231 movq (R3), R1 232 movq 8(R3), R3 261 movq %r10, (%rsi) 267 movq R1, 8(%rsi) 270 movq $1,%rax 283 movq (R3), R1 284 movq 8(R3), R3 312 movq %r10, (%rsi) 318 movq R1, 8(%rsi) 321 movq $1,%rax
|
/arch/x86/ia32/ |
D | ia32entry.S | 45 movq %rax,\offset+R11(%rsp) 46 movq %rax,\offset+R10(%rsp) 47 movq %\_r9,\offset+R9(%rsp) 48 movq %rax,\offset+R8(%rsp) 122 movq PER_CPU_VAR(kernel_stack), %rsp 162 movq %rax,RAX-ARGOFFSET(%rsp) 216 movq RAX-ARGOFFSET(%rsp),%rax /* reload syscall return value */ 243 movq $-ENOSYS,RAX(%rsp)/* ptrace can change this for a bad syscall */ 244 movq %rsp,%rdi /* &pt_regs -> arg1 */ 283 movq PER_CPU_VAR(kernel_stack),%rsp [all …]
|
/arch/x86/xen/ |
D | xen-asm_64.S | 71 movq %rsp, PER_CPU_VAR(old_rsp) 72 movq PER_CPU_VAR(kernel_stack), %rsp 90 movq %rsp, PER_CPU_VAR(old_rsp) 91 movq PER_CPU_VAR(kernel_stack), %rsp
|