Home
last modified time | relevance | path

Searched refs:movq (Results 1 – 25 of 40) sorted by relevance

12

/arch/x86/power/
Dhibernate_asm_64.S26 movq $saved_context, %rax
27 movq %rsp, pt_regs_sp(%rax)
28 movq %rbp, pt_regs_bp(%rax)
29 movq %rsi, pt_regs_si(%rax)
30 movq %rdi, pt_regs_di(%rax)
31 movq %rbx, pt_regs_bx(%rax)
32 movq %rcx, pt_regs_cx(%rax)
33 movq %rdx, pt_regs_dx(%rax)
34 movq %r8, pt_regs_r8(%rax)
35 movq %r9, pt_regs_r9(%rax)
[all …]
/arch/x86/kernel/acpi/
Dwakeup_64.S16 movq saved_magic, %rax
17 movq $0x123456789abcdef0, %rdx
27 movq saved_rsp, %rsp
29 movq saved_rbx, %rbx
30 movq saved_rdi, %rdi
31 movq saved_rsi, %rsi
32 movq saved_rbp, %rbp
34 movq saved_rip, %rax
46 movq $saved_context, %rax
47 movq %rsp, pt_regs_sp(%rax)
[all …]
/arch/x86/lib/
Dcopy_page_64.S25 movq %rbx,(%rsp)
27 movq %r12,1*8(%rsp)
35 movq (%rsi), %rax
36 movq 8 (%rsi), %rbx
37 movq 16 (%rsi), %rdx
38 movq 24 (%rsi), %r8
39 movq 32 (%rsi), %r9
40 movq 40 (%rsi), %r10
41 movq 48 (%rsi), %r11
42 movq 56 (%rsi), %r12
[all …]
Dmemmove_64.S63 movq 0*8(%rsi), %r11
64 movq 1*8(%rsi), %r10
65 movq 2*8(%rsi), %r9
66 movq 3*8(%rsi), %r8
69 movq %r11, 0*8(%rdi)
70 movq %r10, 1*8(%rdi)
71 movq %r9, 2*8(%rdi)
72 movq %r8, 3*8(%rdi)
82 movq %rdx, %rcx
83 movq -8(%rsi, %rdx), %r11
[all …]
Dmemcpy_64.S29 movq %rdi, %rax
30 movq %rdx, %rcx
49 movq %rdi, %rax
50 movq %rdx, %rcx
59 movq %rdi, %rax
77 movq 0*8(%rsi), %r8
78 movq 1*8(%rsi), %r9
79 movq 2*8(%rsi), %r10
80 movq 3*8(%rsi), %r11
83 movq %r8, 0*8(%rdi)
[all …]
Dcsum-copy_64.S65 movq %rbx, 2*8(%rsp)
67 movq %r12, 3*8(%rsp)
69 movq %r14, 4*8(%rsp)
71 movq %r13, 5*8(%rsp)
73 movq %rbp, 6*8(%rsp)
76 movq %r8, (%rsp)
77 movq %r9, 1*8(%rsp)
83 movq %rcx, %r12
97 movq (%rdi), %rbx
99 movq 8(%rdi), %r8
[all …]
Dmemset_64.S21 movq %rdi,%r9
22 movq %rdx,%rcx
32 movq %r9,%rax
50 movq %rdi,%r9
52 movq %rdx,%rcx
54 movq %r9,%rax
62 movq %rdi,%r10
76 movq %rdx,%rcx
83 movq %rax,(%rdi)
84 movq %rax,8(%rdi)
[all …]
Dcopy_user_64.S78 movq %rdi,%rcx
93 movq %rsi,%rcx
142 1: movq (%rsi),%r8
143 2: movq 1*8(%rsi),%r9
144 3: movq 2*8(%rsi),%r10
145 4: movq 3*8(%rsi),%r11
146 5: movq %r8,(%rdi)
147 6: movq %r9,1*8(%rdi)
148 7: movq %r10,2*8(%rdi)
149 8: movq %r11,3*8(%rdi)
[all …]
Dcopy_user_nocache_64.S60 1: movq (%rsi),%r8
61 2: movq 1*8(%rsi),%r9
62 3: movq 2*8(%rsi),%r10
63 4: movq 3*8(%rsi),%r11
68 9: movq 4*8(%rsi),%r8
69 10: movq 5*8(%rsi),%r9
70 11: movq 6*8(%rsi),%r10
71 12: movq 7*8(%rsi),%r11
84 18: movq (%rsi),%r8
Drwsem.S43 .macro movq src, dst macro
92 movq %rax,%rdi
104 movq %rax,%rdi
117 movq %rax,%rdi
129 movq %rax,%rdi
Dclear_page_64.S34 #define PUT(x) movq %rax,x*8(%rdi)
35 movq %rax,(%rdi)
Dcmpxchg16b_emu.S51 movq %rbx, SEG_PREFIX(%rsi)
52 movq %rcx, SEG_PREFIX 8(%rsi)
/arch/x86/kernel/
Drelocate_kernel_64.S61 movq PTR(VA_CONTROL_PAGE)(%rsi), %r11
62 movq %rsp, RSP(%r11)
63 movq %cr0, %rax
64 movq %rax, CR0(%r11)
65 movq %cr3, %rax
66 movq %rax, CR3(%r11)
67 movq %cr4, %rax
68 movq %rax, CR4(%r11)
78 movq PTR(PA_CONTROL_PAGE)(%rsi), %r8
81 movq PTR(PA_TABLE_PAGE)(%rsi), %r9
[all …]
Dentry_64.S81 movq 0x38(%rsp), %rdi
82 movq 8(%rbp), %rsi
121 movq 0x38(%rsp), %rdi
122 movq 8(%rbp), %rsi
142 movq 0x38(%rsp), %rsi
143 movq (%rbp), %rdx
157 movq %rax, (%rsp)
158 movq %rdx, 8(%rsp)
159 movq %rbp, %rdi
163 movq %rax, %rdi
[all …]
Dhead_64.S27 #define GET_CR2_INTO_RCX movq %cr2, %rcx
73 movq %rbp, %rax
80 movq $PGDIR_SIZE, %rax
101 movq %rdi, %rax
108 movq %rdx, 0(%rbx, %rax, 8)
110 movq %rdi, %rax
115 movq %rdx, 0(%rbx, %rax, 8)
165 movq %rax, %cr4
168 movq $(init_level4_pgt - __START_KERNEL_map), %rax
170 movq %rax, %cr3
[all …]
/arch/x86/include/asm/
Dftrace.h9 movq %rax, (%rsp)
10 movq %rcx, 8(%rsp)
11 movq %rdx, 16(%rsp)
12 movq %rsi, 24(%rsp)
13 movq %rdi, 32(%rsp)
14 movq %r8, 40(%rsp)
15 movq %r9, 48(%rsp)
19 movq 48(%rsp), %r9
20 movq 40(%rsp), %r8
21 movq 32(%rsp), %rdi
[all …]
Dcalling.h146 movq \offset(%rsp), %r11
147 movq \offset+8(%rsp), %r10
148 movq \offset+16(%rsp), %r9
149 movq \offset+24(%rsp), %r8
150 movq \offset+40(%rsp), %rcx
151 movq \offset+48(%rsp), %rdx
152 movq \offset+56(%rsp), %rsi
153 movq \offset+64(%rsp), %rdi
156 movq \offset+72(%rsp), %rax
/arch/x86/um/
Dsetjmp_64.S26 movq %rbx,(%rdi)
27 movq %rsp,8(%rdi) # Post-return %rsp!
29 movq %rbp,16(%rdi)
30 movq %r12,24(%rdi)
31 movq %r13,32(%rdi)
32 movq %r14,40(%rdi)
33 movq %r15,48(%rdi)
34 movq %rsi,56(%rdi) # Return address
45 movq (%rdi),%rbx
46 movq 8(%rdi),%rsp
[all …]
Dstub_64.S10 movq $(STUB_DATA >> 32), %rbx
12 movq $(STUB_DATA & 0xffffffff), %rcx
14 movq %rax, (%rbx)
/arch/x86/crypto/
Dsalsa20-x86_64-asm_64.S27 movq %r11,0(%rsp)
29 movq %r12,8(%rsp)
31 movq %r13,16(%rsp)
33 movq %r14,24(%rsp)
35 movq %r15,32(%rsp)
37 movq %rbx,40(%rsp)
39 movq %rbp,48(%rsp)
41 movq 0(%r8),%rcx
43 movq 8(%r8),%r9
45 movq 16(%r8),%rax
[all …]
Dblowfish-x86_64-asm_64.S96 movq p+4*(n-1)(CTX), RT0; \
107 movq (RIO), RX0; \
113 movq RX0, (RIO);
130 movq %rbp, %r11;
132 movq %rsi, %r10;
133 movq %rdx, RIO;
147 movq %r11, %rbp;
149 movq %r10, RIO;
169 movq %rbp, %r11;
171 movq %rsi, %r10;
[all …]
Dcamellia-x86_64-asm_64.S103 movq (key_table + ((subkey) * 2) * 4)(CTX), RT2; \
118 movq (key_table + ((kr) * 2) * 4)(CTX), RT1; \
123 movq (key_table + ((kl) * 2) * 4)(CTX), RT2; \
145 movq (RIO), RAB0; \
148 movq 4*2(RIO), RCD0; \
174 movq (RIO), RAB0; \
177 movq 4*2(RIO), RCD0; \
186 movq RCD0, (RIO); \
189 movq RAB0, 4*2(RIO);
201 movq %rbp, RRBP;
[all …]
Dtwofish-x86_64-asm_64.S231 movq (R3), R1
232 movq 8(R3), R3
261 movq %r10, (%rsi)
267 movq R1, 8(%rsi)
270 movq $1,%rax
283 movq (R3), R1
284 movq 8(R3), R3
312 movq %r10, (%rsi)
318 movq R1, 8(%rsi)
321 movq $1,%rax
/arch/x86/ia32/
Dia32entry.S45 movq %rax,\offset+R11(%rsp)
46 movq %rax,\offset+R10(%rsp)
47 movq %\_r9,\offset+R9(%rsp)
48 movq %rax,\offset+R8(%rsp)
122 movq PER_CPU_VAR(kernel_stack), %rsp
162 movq %rax,RAX-ARGOFFSET(%rsp)
216 movq RAX-ARGOFFSET(%rsp),%rax /* reload syscall return value */
243 movq $-ENOSYS,RAX(%rsp)/* ptrace can change this for a bad syscall */
244 movq %rsp,%rdi /* &pt_regs -> arg1 */
283 movq PER_CPU_VAR(kernel_stack),%rsp
[all …]
/arch/x86/xen/
Dxen-asm_64.S71 movq %rsp, PER_CPU_VAR(old_rsp)
72 movq PER_CPU_VAR(kernel_stack), %rsp
90 movq %rsp, PER_CPU_VAR(old_rsp)
91 movq PER_CPU_VAR(kernel_stack), %rsp

12