/arch/sparc/lib/ |
D | Memcpy_utils.S | 25 add %o2, 1, %o0 29 add %o2, 3, %o0 33 add %o2, 4, %o0 37 add %o2, 5, %o0 41 add %o2, 6, %o0 45 add %o2, 7, %o0 49 add %o2, 8, %o0 53 add %o2, 15, %o0 56 add %o2, 15, %o2 58 add %o2, 8, %o0 [all …]
|
D | checksum_64.S | 27 add %o0, 1, %o0 35 add %o0, 2, %o0 38 add %o5, %o4, %o4 76 add %o4, %o5, %o4 78 add %o4, %g1, %o4 80 add %o4, %g2, %o4 82 add %o4, %g3, %o4 84 add %o4, %o5, %o4 86 add %o4, %g1, %o4 88 add %o4, %g2, %o4 [all …]
|
D | csum_copy.S | 51 add %o0, 1, %o0 54 add %o1, 1, %o1 61 add %o0, 2, %o0 64 add %o1, 2, %o1 66 add %o5, %o4, %o4 110 add %o4, %o5, %o4 113 add %o4, %g1, %o4 116 add %o4, %g2, %o4 119 add %o4, %o5, %o4 122 add %o4, %g1, %o4 [all …]
|
D | copy_user.S | 131 add %o1, 1, %o1 135 add %o0, 1, %o0 138 add %o1, 2, %o1 142 add %o0, 2, %o0 145 add %o1, 2, %o1 149 add %o0, 2, %o0 172 add %o1, 4, %o1 173 add %o0, 4, %o0 188 add %o1, 128, %o1 190 add %o0, 128, %o0 [all …]
|
D | memcpy.S | 73 add %o1, %o2, %o3 78 add %o1, %o2, %o1 79 add %o0, %o2, %o0 111 add %o1, 1, %o1 115 add %o0, 1, %o0 118 add %o1, 2, %o1 122 add %o0, 2, %o0 148 add %o1, 4, %o1 149 add %o0, 4, %o0 162 add %o1, 128, %o1 [all …]
|
D | strncmp_32.S | 24 add %g3, 1, %g3 29 add %o1, 1, %o1 40 add %g3,1, %g3 45 add %o1, 1, %o1 56 add %g3, 1, %g3 61 add %o1, 1, %o1 72 add %g3, 1, %g3 77 add %o1, 1, %o1 81 add %o4, -1, %o4 97 add %g3, 1, %g3 [all …]
|
D | U3memcpy.S | 85 add %g1, 1, %g1 86 add %g2, %g1, %g2 88 add %o2, %g2, %o0 92 add %o2, %g2, %o0 95 add %g2, 8, %g2 97 add %o2, %g2, %o0 105 add %o2, 1, %o0 109 add %o2, 4, %o0 113 add %o2, 8, %o0 116 add %g1, 1, %g1 [all …]
|
D | copy_in_user.S | 30 add %o4, %o2, %o4 32 add %o4, 8, %o0 35 add %o2, 4, %o0 38 add %o2, 1, %o0 66 add %o1, 0x8, %o1 68 add %o0, 0x8, %o0 75 add %o1, 0x4, %o1 76 add %o0, 0x4, %o0 92 add %o1, 4, %o1 94 add %o0, 4, %o0 [all …]
|
D | NG4copy_page.S | 35 add %o0, 0x08, %o0 38 add %o0, 0x08, %o0 41 add %o0, 0x08, %o0 43 add %o1, 0x40, %o1 45 add %o0, 0x08, %o0 47 add %o0, 0x08, %o0 49 add %o0, 0x08, %o0 51 add %o0, 0x08, %o0 53 add %o0, 0x08, %o0
|
/arch/arm64/crypto/ |
D | sha256-core.S_shipped | 80 add x16,x16,x17 88 add x29,sp,#0 100 add x2,x1,x2,lsl#6 // end of input 114 add w27,w27,w19 // h+=K[i] 118 add w27,w27,w3 // h+=X[i] 123 add w27,w27,w17 // h+=Ch(e,f,g) 125 add w27,w27,w16 // h+=Sigma1(e) 127 add w23,w23,w27 // d+=h 130 add w27,w27,w28 // h+=Maj(a,b,c) 132 //add w27,w27,w17 // h+=Sigma0(a) [all …]
|
D | sha512-core.S_shipped | 74 add x29,sp,#0 86 add x2,x1,x2,lsl#7 // end of input 100 add x27,x27,x19 // h+=K[i] 104 add x27,x27,x3 // h+=X[i] 109 add x27,x27,x17 // h+=Ch(e,f,g) 111 add x27,x27,x16 // h+=Sigma1(e) 113 add x23,x23,x27 // d+=h 116 add x27,x27,x28 // h+=Maj(a,b,c) 118 //add x27,x27,x17 // h+=Sigma0(a) 123 add x27,x27,x17 // h+=Sigma0(a) [all …]
|
D | chacha-neon-core.S | 46 add v0.4s, v0.4s, v1.4s 51 add v2.4s, v2.4s, v3.4s 57 add v0.4s, v0.4s, v1.4s 62 add v2.4s, v2.4s, v3.4s 75 add v0.4s, v0.4s, v1.4s 80 add v2.4s, v2.4s, v3.4s 86 add v0.4s, v0.4s, v1.4s 91 add v2.4s, v2.4s, v3.4s 127 add v0.4s, v0.4s, v8.4s 131 add v1.4s, v1.4s, v9.4s [all …]
|
/arch/ia64/lib/ |
D | ip_fast_csum.S | 40 add r15=4,in0 // second source pointer 52 add r20=r20,r21 53 add r22=r22,r23 55 add r20=r20,r22 57 add r20=r20,r24 62 add r20=ret0,r20 67 add r20=ret0,r20 72 add r20=ret0,r20 111 add r16=r20,r21 112 add r17=r22,r23 [all …]
|
D | memset.S | 88 (p_unalgn) add ptr1 = (MIN1+1), ptr2 // after alignment 89 (p_unalgn) add ptr2 = MIN1P1HALF, ptr2 // after alignment 93 (p_y) add cnt = -8, cnt // 97 (p_n) add ptr2 = 4, ptr2 // 100 (p_yy) add cnt = -4, cnt // 104 (p_nn) add ptr2 = 2, ptr2 // 108 (p_y) add cnt = -2, cnt // 113 (p_n) add ptr2 = 1, ptr2 // 120 (p_yy) add cnt = -1, cnt // 140 (p_scr) add loopcnt = -1, linecnt // [all …]
|
/arch/arm/crypto/ |
D | sha1-armv4-large.S | 71 add r2,r1,r2,lsl#6 @ r2 to point at the end of r1 85 add r7,r8,r7,ror#2 @ E+=K_00_19 90 add r7,r7,r3,ror#27 @ E+=ROR(A,27) 94 add r7,r8,r7,ror#2 @ E+=K_00_19 96 add r7,r7,r3,ror#27 @ E+=ROR(A,27) 102 add r7,r7,r9 @ E+=X[i] 105 add r7,r7,r10 @ E+=F_00_19(B,C,D) 110 add r6,r8,r6,ror#2 @ E+=K_00_19 115 add r6,r6,r7,ror#27 @ E+=ROR(A,27) 119 add r6,r8,r6,ror#2 @ E+=K_00_19 [all …]
|
D | sha256-core.S_shipped | 110 add r2,r1,r2,lsl#6 @ len to point at the end of inp 129 add r4,r4,r12 @ h+=Maj(a,b,c) from the past 136 add r4,r4,r12 @ h+=Maj(a,b,c) from the past 150 add r11,r11,r2 @ h+=X[i] 153 add r11,r11,r0,ror#6 @ h+=Sigma1(e) 155 add r11,r11,r12 @ h+=K256[i] 158 add r11,r11,r2 @ h+=Ch(e,f,g) 177 add r7,r7,r11 @ d+=h 179 add r11,r11,r0,ror#2 @ h+=Sigma0(a) 180 @ add r11,r11,r3 @ h+=Maj(a,b,c) [all …]
|
/arch/ia64/kernel/ |
D | mca_asm.S | 87 add r18=r22,r18 90 add r18=r21,r18 91 add r24=1,r24 126 add r16=r19,r16 151 add r3=IA64_MCA_CPU_MCA_STACK_OFFSET+MCA_SOS_OFFSET+SOS(PROC_STATE_PARAM), r2 213 add r18=r19,r16 216 add r16=r20,r16 272 add out0=IA64_MCA_CPU_MCA_STACK_OFFSET+MCA_PT_REGS_OFFSET, r2 273 add out1=IA64_MCA_CPU_MCA_STACK_OFFSET+MCA_SWITCH_STACK_OFFSET, r2 274 add out2=IA64_MCA_CPU_MCA_STACK_OFFSET+MCA_SOS_OFFSET, r2 [all …]
|
/arch/sh/lib/ |
D | __clear_user.S | 27 add #31, r2 39 add #1, r2 45 add r5, r3 56 add #4, r2 58 add #4, r2 60 add #4, r2 62 add #4, r2 64 add #4, r2 66 add #4, r2 68 add #4, r2 [all …]
|
D | strlen.S | 20 add #-1,r0 29 add #1,r2 34 add #1,r2 39 add #1,r2 47 add #4,r2 49 add #-4,r2 59 add #1,r2 64 add #1,r2 68 add #1,r2
|
/arch/sparc/mm/ |
D | hypersparc.S | 52 add %o1, %o1, %g1 53 add %o1, %g1, %g2 54 add %o1, %g2, %g3 55 add %o1, %g3, %g4 56 add %o1, %g4, %g5 57 add %o1, %g5, %o4 58 add %o1, %o4, %o5 92 add %o2, (PAGE_SIZE - 1), %o2 94 add %o4, %o4, %o5 96 add %o4, %o5, %g1 [all …]
|
D | swift.S | 33 add %o0, %o0, %o1 79 add %o1, 2048, %o2 80 add %o2, 2048, %o3 82 add %o4, 2048, %o5 83 add %o5, 2048, %g2 84 add %g2, 2048, %g3 95 add %o0, 32, %o0 145 add %o0, 512, %o2 146 add %o2, 512, %o3 147 add %o3, 512, %o4 [all …]
|
/arch/powerpc/crypto/ |
D | sha1-powerpc-asm.S | 44 add r0,RE(t),r15; \ 45 add RT(t),RT(t),r6; \ 46 add r14,r0,W(t); \ 49 add RT(t),RT(t),r14 57 add r0,RE(t),r15; \ 59 add RT(t),RT(t),r6; \ 61 add r0,r0,W(t); \ 63 add RT(t),RT(t),r0; \ 71 add r0,RE(t),r15; \ 72 add RT(t),RT(t),r6; \ [all …]
|
D | md5-asm.S | 73 add a,a,rT0; /* 1: a = a + f */ \ 76 add a,a,w0; /* 1: a = a + wk */ \ 79 add d,d,w1; /* 2: a = a + wk */ \ 80 add a,a,b; /* 1: a = a + b */ \ 84 add d,d,rT0; /* 2: a = a + f */ \ 87 add d,d,a; /* 2: a = a + b */ 95 add a,a,rT0; /* 1: a = a + f */ \ 97 add a,a,w0; /* 1: a = a + wk */ \ 101 add a,a,b; /* 1: a = a + b */ \ 102 add d,d,w1; /* 2: a = a + wk */ \ [all …]
|
/arch/powerpc/kernel/ |
D | reloc_32.S | 38 add r11, r11, r12 /* runtime address of .dynamic section */ 40 add r9, r9, r12 /* runtime address of .rela.dyn section */ 42 add r10, r10, r12 /* runtime address of _stext section */ 44 add r13, r13, r12 /* runtime address of .dynsym section */ 111 add r12, r13, r5 /* r12 = &__dyn_sym[Index] */ 134 add r0, r0, r3 /* final addend */ 144 add r0, r0, r3 145 add r0, r0, r5 /* r0 = (S+A+Offset) */ 155 add r0, r0, r3 156 add r0, r0, r5 /* r0 = (S+A+Offset) */ [all …]
|
/arch/sparc/kernel/ |
D | sun4v_ivec.S | 40 add %g5, %g3, %g5 42 add %g3, 1, %g3 57 add %g2, 0x8, %g2 60 add %g2, 0x8, %g2 63 add %g2, 0x40 - 0x8 - 0x8, %g2 98 add %g2, 0x40, %g2 125 add %g4, %g3, %g4 170 add %g2, 0x08, %g2 173 add %g2, 0x08, %g2 176 add %g2, 0x08, %g2 [all …]
|