• Home
  • Raw
  • Download

Lines Matching full:16

32   16-way camellia
160 vpxor 0 * 16(mem_cd), x4, x4; \
163 vpxor 1 * 16(mem_cd), x5, x5; \
170 vpxor 2 * 16(mem_cd), x6, x6; \
173 vpxor 3 * 16(mem_cd), x7, x7; \
176 vpxor 4 * 16(mem_cd), x0, x0; \
179 vpxor 5 * 16(mem_cd), x1, x1; \
182 vpxor 6 * 16(mem_cd), x2, x2; \
185 vpxor 7 * 16(mem_cd), x3, x3;
218 vmovdqu x4, 0 * 16(mem_cd); \
219 vmovdqu x5, 1 * 16(mem_cd); \
220 vmovdqu x6, 2 * 16(mem_cd); \
221 vmovdqu x7, 3 * 16(mem_cd); \
222 vmovdqu x0, 4 * 16(mem_cd); \
223 vmovdqu x1, 5 * 16(mem_cd); \
224 vmovdqu x2, 6 * 16(mem_cd); \
225 vmovdqu x3, 7 * 16(mem_cd); \
236 vmovdqu x0, 0 * 16(mem_ab); \
237 vmovdqu x1, 1 * 16(mem_ab); \
238 vmovdqu x2, 2 * 16(mem_ab); \
239 vmovdqu x3, 3 * 16(mem_ab); \
240 vmovdqu x4, 4 * 16(mem_ab); \
241 vmovdqu x5, 5 * 16(mem_ab); \
242 vmovdqu x6, 6 * 16(mem_ab); \
243 vmovdqu x7, 7 * 16(mem_ab);
324 vmovdqu l4, 4 * 16(l); \
326 vmovdqu l5, 5 * 16(l); \
328 vmovdqu l6, 6 * 16(l); \
330 vmovdqu l7, 7 * 16(l); \
347 vpor 4 * 16(r), t0, t0; \
348 vpor 5 * 16(r), t1, t1; \
349 vpor 6 * 16(r), t2, t2; \
350 vpor 7 * 16(r), t3, t3; \
352 vpxor 0 * 16(r), t0, t0; \
353 vpxor 1 * 16(r), t1, t1; \
354 vpxor 2 * 16(r), t2, t2; \
355 vpxor 3 * 16(r), t3, t3; \
356 vmovdqu t0, 0 * 16(r); \
357 vmovdqu t1, 1 * 16(r); \
358 vmovdqu t2, 2 * 16(r); \
359 vmovdqu t3, 3 * 16(r); \
375 vpand 0 * 16(r), t0, t0; \
376 vpand 1 * 16(r), t1, t1; \
377 vpand 2 * 16(r), t2, t2; \
378 vpand 3 * 16(r), t3, t3; \
382 vpxor 4 * 16(r), t0, t0; \
383 vpxor 5 * 16(r), t1, t1; \
384 vpxor 6 * 16(r), t2, t2; \
385 vpxor 7 * 16(r), t3, t3; \
386 vmovdqu t0, 4 * 16(r); \
387 vmovdqu t1, 5 * 16(r); \
388 vmovdqu t2, 6 * 16(r); \
389 vmovdqu t3, 7 * 16(r); \
412 vmovdqu l0, 0 * 16(l); \
414 vmovdqu l1, 1 * 16(l); \
416 vmovdqu l2, 2 * 16(l); \
418 vmovdqu l3, 3 * 16(l);
488 vpxor 0 * 16(rio), x0, y7; \
489 vpxor 1 * 16(rio), x0, y6; \
490 vpxor 2 * 16(rio), x0, y5; \
491 vpxor 3 * 16(rio), x0, y4; \
492 vpxor 4 * 16(rio), x0, y3; \
493 vpxor 5 * 16(rio), x0, y2; \
494 vpxor 6 * 16(rio), x0, y1; \
495 vpxor 7 * 16(rio), x0, y0; \
496 vpxor 8 * 16(rio), x0, x7; \
497 vpxor 9 * 16(rio), x0, x6; \
498 vpxor 10 * 16(rio), x0, x5; \
499 vpxor 11 * 16(rio), x0, x4; \
500 vpxor 12 * 16(rio), x0, x3; \
501 vpxor 13 * 16(rio), x0, x2; \
502 vpxor 14 * 16(rio), x0, x1; \
503 vpxor 15 * 16(rio), x0, x0;
511 vmovdqu x0, 0 * 16(mem_ab); \
512 vmovdqu x1, 1 * 16(mem_ab); \
513 vmovdqu x2, 2 * 16(mem_ab); \
514 vmovdqu x3, 3 * 16(mem_ab); \
515 vmovdqu x4, 4 * 16(mem_ab); \
516 vmovdqu x5, 5 * 16(mem_ab); \
517 vmovdqu x6, 6 * 16(mem_ab); \
518 vmovdqu x7, 7 * 16(mem_ab); \
519 vmovdqu y0, 0 * 16(mem_cd); \
520 vmovdqu y1, 1 * 16(mem_cd); \
521 vmovdqu y2, 2 * 16(mem_cd); \
522 vmovdqu y3, 3 * 16(mem_cd); \
523 vmovdqu y4, 4 * 16(mem_cd); \
524 vmovdqu y5, 5 * 16(mem_cd); \
525 vmovdqu y6, 6 * 16(mem_cd); \
526 vmovdqu y7, 7 * 16(mem_cd);
558 vmovdqu x0, 0 * 16(rio); \
559 vmovdqu x1, 1 * 16(rio); \
560 vmovdqu x2, 2 * 16(rio); \
561 vmovdqu x3, 3 * 16(rio); \
562 vmovdqu x4, 4 * 16(rio); \
563 vmovdqu x5, 5 * 16(rio); \
564 vmovdqu x6, 6 * 16(rio); \
565 vmovdqu x7, 7 * 16(rio); \
566 vmovdqu y0, 8 * 16(rio); \
567 vmovdqu y1, 9 * 16(rio); \
568 vmovdqu y2, 10 * 16(rio); \
569 vmovdqu y3, 11 * 16(rio); \
570 vmovdqu y4, 12 * 16(rio); \
571 vmovdqu y5, 13 * 16(rio); \
572 vmovdqu y6, 14 * 16(rio); \
573 vmovdqu y7, 15 * 16(rio);
576 /* NB: section is mergeable, all elements must be aligned 16-byte blocks */
577 .section .rodata.cst16, "aM", @progbits, 16
578 .align 16
729 * %xmm0..%xmm15: 16 plaintext blocks
731 * %xmm0..%xmm15: 16 encrypted blocks, order swapped:
736 leaq 8 * 16(%rax), %rcx;
761 ((key_table + (16) * 8) + 0)(CTX),
762 ((key_table + (16) * 8) + 4)(CTX),
763 ((key_table + (16) * 8) + 8)(CTX),
764 ((key_table + (16) * 8) + 12)(CTX));
768 %xmm15, %rax, %rcx, 16);
771 cmpl $16, key_length(CTX);
776 vmovdqu 0 * 16(%rcx), %xmm8;
777 vmovdqu 1 * 16(%rcx), %xmm9;
778 vmovdqu 2 * 16(%rcx), %xmm10;
779 vmovdqu 3 * 16(%rcx), %xmm11;
780 vmovdqu 4 * 16(%rcx), %xmm12;
781 vmovdqu 5 * 16(%rcx), %xmm13;
782 vmovdqu 6 * 16(%rcx), %xmm14;
783 vmovdqu 7 * 16(%rcx), %xmm15;
787 %xmm15, (key_table)(CTX, %r8, 8), (%rax), 1 * 16(%rax));
816 * %r8d: 24 for 16 byte key, 32 for larger
817 * %xmm0..%xmm15: 16 encrypted blocks
819 * %xmm0..%xmm15: 16 plaintext blocks, order swapped:
824 leaq 8 * 16(%rax), %rcx;
836 %xmm15, %rax, %rcx, 16);
841 ((key_table + (16) * 8) + 8)(CTX),
842 ((key_table + (16) * 8) + 12)(CTX),
843 ((key_table + (16) * 8) + 0)(CTX),
844 ((key_table + (16) * 8) + 4)(CTX));
863 vmovdqu 0 * 16(%rcx), %xmm8;
864 vmovdqu 1 * 16(%rcx), %xmm9;
865 vmovdqu 2 * 16(%rcx), %xmm10;
866 vmovdqu 3 * 16(%rcx), %xmm11;
867 vmovdqu 4 * 16(%rcx), %xmm12;
868 vmovdqu 5 * 16(%rcx), %xmm13;
869 vmovdqu 6 * 16(%rcx), %xmm14;
870 vmovdqu 7 * 16(%rcx), %xmm15;
874 %xmm15, (key_table)(CTX), (%rax), 1 * 16(%rax));
899 * %rsi: dst (16 blocks)
900 * %rdx: src (16 blocks)
924 * %rsi: dst (16 blocks)
925 * %rdx: src (16 blocks)
929 cmpl $16, key_length(CTX);
954 * %rsi: dst (16 blocks)
955 * %rdx: src (16 blocks)
959 cmpl $16, key_length(CTX);
972 subq $(16 * 16), %rsp;
977 addq $(16 * 16), %rsp;
979 vpxor (0 * 16)(%rdx), %xmm6, %xmm6;
980 vpxor (1 * 16)(%rdx), %xmm5, %xmm5;
981 vpxor (2 * 16)(%rdx), %xmm4, %xmm4;
982 vpxor (3 * 16)(%rdx), %xmm3, %xmm3;
983 vpxor (4 * 16)(%rdx), %xmm2, %xmm2;
984 vpxor (5 * 16)(%rdx), %xmm1, %xmm1;
985 vpxor (6 * 16)(%rdx), %xmm0, %xmm0;
986 vpxor (7 * 16)(%rdx), %xmm15, %xmm15;
987 vpxor (8 * 16)(%rdx), %xmm14, %xmm14;
988 vpxor (9 * 16)(%rdx), %xmm13, %xmm13;
989 vpxor (10 * 16)(%rdx), %xmm12, %xmm12;
990 vpxor (11 * 16)(%rdx), %xmm11, %xmm11;
991 vpxor (12 * 16)(%rdx), %xmm10, %xmm10;
992 vpxor (13 * 16)(%rdx), %xmm9, %xmm9;
993 vpxor (14 * 16)(%rdx), %xmm8, %xmm8;
1011 * %rsi: dst (16 blocks)
1012 * %rdx: src (16 blocks)
1017 subq $(16 * 16), %rsp;
1025 vmovdqu %xmm15, 15 * 16(%rax);
1033 vmovdqu %xmm13, 14 * 16(%rax);
1036 vmovdqu %xmm13, 13 * 16(%rax);
1083 vpxor 13 * 16(%rax), %xmm15, %xmm13;
1084 vpxor 14 * 16(%rax), %xmm15, %xmm14;
1085 vpxor 15 * 16(%rax), %xmm15, %xmm15;
1089 addq $(16 * 16), %rsp;
1091 vpxor 0 * 16(%rdx), %xmm7, %xmm7;
1092 vpxor 1 * 16(%rdx), %xmm6, %xmm6;
1093 vpxor 2 * 16(%rdx), %xmm5, %xmm5;
1094 vpxor 3 * 16(%rdx), %xmm4, %xmm4;
1095 vpxor 4 * 16(%rdx), %xmm3, %xmm3;
1096 vpxor 5 * 16(%rdx), %xmm2, %xmm2;
1097 vpxor 6 * 16(%rdx), %xmm1, %xmm1;
1098 vpxor 7 * 16(%rdx), %xmm0, %xmm0;
1099 vpxor 8 * 16(%rdx), %xmm15, %xmm15;
1100 vpxor 9 * 16(%rdx), %xmm14, %xmm14;
1101 vpxor 10 * 16(%rdx), %xmm13, %xmm13;
1102 vpxor 11 * 16(%rdx), %xmm12, %xmm12;
1103 vpxor 12 * 16(%rdx), %xmm11, %xmm11;
1104 vpxor 13 * 16(%rdx), %xmm10, %xmm10;
1105 vpxor 14 * 16(%rdx), %xmm9, %xmm9;
1106 vpxor 15 * 16(%rdx), %xmm8, %xmm8;
1126 * %rsi: dst (16 blocks)
1127 * %rdx: src (16 blocks)
1134 subq $(16 * 16), %rsp;
1141 vpxor 0 * 16(%rdx), %xmm0, %xmm15;
1142 vmovdqu %xmm15, 15 * 16(%rax);
1143 vmovdqu %xmm0, 0 * 16(%rsi);
1147 vpxor 1 * 16(%rdx), %xmm0, %xmm15;
1148 vmovdqu %xmm15, 14 * 16(%rax);
1149 vmovdqu %xmm0, 1 * 16(%rsi);
1152 vpxor 2 * 16(%rdx), %xmm0, %xmm13;
1153 vmovdqu %xmm0, 2 * 16(%rsi);
1156 vpxor 3 * 16(%rdx), %xmm0, %xmm12;
1157 vmovdqu %xmm0, 3 * 16(%rsi);
1160 vpxor 4 * 16(%rdx), %xmm0, %xmm11;
1161 vmovdqu %xmm0, 4 * 16(%rsi);
1164 vpxor 5 * 16(%rdx), %xmm0, %xmm10;
1165 vmovdqu %xmm0, 5 * 16(%rsi);
1168 vpxor 6 * 16(%rdx), %xmm0, %xmm9;
1169 vmovdqu %xmm0, 6 * 16(%rsi);
1172 vpxor 7 * 16(%rdx), %xmm0, %xmm8;
1173 vmovdqu %xmm0, 7 * 16(%rsi);
1176 vpxor 8 * 16(%rdx), %xmm0, %xmm7;
1177 vmovdqu %xmm0, 8 * 16(%rsi);
1180 vpxor 9 * 16(%rdx), %xmm0, %xmm6;
1181 vmovdqu %xmm0, 9 * 16(%rsi);
1184 vpxor 10 * 16(%rdx), %xmm0, %xmm5;
1185 vmovdqu %xmm0, 10 * 16(%rsi);
1188 vpxor 11 * 16(%rdx), %xmm0, %xmm4;
1189 vmovdqu %xmm0, 11 * 16(%rsi);
1192 vpxor 12 * 16(%rdx), %xmm0, %xmm3;
1193 vmovdqu %xmm0, 12 * 16(%rsi);
1196 vpxor 13 * 16(%rdx), %xmm0, %xmm2;
1197 vmovdqu %xmm0, 13 * 16(%rsi);
1200 vpxor 14 * 16(%rdx), %xmm0, %xmm1;
1201 vmovdqu %xmm0, 14 * 16(%rsi);
1204 vpxor 15 * 16(%rdx), %xmm0, %xmm15;
1205 vmovdqu %xmm15, 0 * 16(%rax);
1206 vmovdqu %xmm0, 15 * 16(%rsi);
1214 vpxor 0 * 16(%rax), %xmm15, %xmm0;
1228 vpxor 14 * 16(%rax), %xmm15, %xmm14;
1229 vpxor 15 * 16(%rax), %xmm15, %xmm15;
1233 addq $(16 * 16), %rsp;
1235 vpxor 0 * 16(%rsi), %xmm7, %xmm7;
1236 vpxor 1 * 16(%rsi), %xmm6, %xmm6;
1237 vpxor 2 * 16(%rsi), %xmm5, %xmm5;
1238 vpxor 3 * 16(%rsi), %xmm4, %xmm4;
1239 vpxor 4 * 16(%rsi), %xmm3, %xmm3;
1240 vpxor 5 * 16(%rsi), %xmm2, %xmm2;
1241 vpxor 6 * 16(%rsi), %xmm1, %xmm1;
1242 vpxor 7 * 16(%rsi), %xmm0, %xmm0;
1243 vpxor 8 * 16(%rsi), %xmm15, %xmm15;
1244 vpxor 9 * 16(%rsi), %xmm14, %xmm14;
1245 vpxor 10 * 16(%rsi), %xmm13, %xmm13;
1246 vpxor 11 * 16(%rsi), %xmm12, %xmm12;
1247 vpxor 12 * 16(%rsi), %xmm11, %xmm11;
1248 vpxor 13 * 16(%rsi), %xmm10, %xmm10;
1249 vpxor 14 * 16(%rsi), %xmm9, %xmm9;
1250 vpxor 15 * 16(%rsi), %xmm8, %xmm8;
1262 * %rsi: dst (16 blocks)
1263 * %rdx: src (16 blocks)
1276 * %rsi: dst (16 blocks)
1277 * %rdx: src (16 blocks)
1281 cmpl $16, key_length(CTX);