• Home
  • Raw
  • Download

Lines Matching refs:xmm1

233 ##  Clobbers  %xmm1-%xmm6, %r9, %r10, %r11, %rax
247 vperm v0, $iptlo, $iptlo, v0 # vpshufb %xmm1, %xmm2, %xmm1
249 vxor v0, v0, v5 # vpxor %xmm5, %xmm1, %xmm0
258 lvx v1, r12, r11 # vmovdqa -0x40(%r11,%r10), %xmm1 # .Lk_mc_forward[]
268 vperm v3, v0, v7, v1 # vpshufb %xmm1, %xmm0, %xmm3 # 0 = B
272 vperm v4, v3, v7, v1 # vpshufb %xmm1, %xmm3, %xmm4 # 0 = 2B+C
279 vperm v5, $invhi, $invhi, v0 # vpshufb %xmm1, %xmm11, %xmm5 # 2 = a/k
280 vxor v0, v0, v1 # vpxor %xmm0, %xmm1, %xmm1 # 0 = j
282 vperm v4, $invlo, $invlo, v0 # vpshufb %xmm1, %xmm10, %xmm4 # 4 = 1/j
291 vxor v2, v2, v0 # vpxor %xmm1, %xmm2, %xmm2 # 2 = io
301 lvx v1, r12, r10 # vmovdqa 0x40(%r11,%r10), %xmm1 # .Lk_sr[]
305 vperm v0, v0, v7, v1 # vpshufb %xmm1, %xmm0, %xmm0
462 vperm v0, $iptlo, $iptlo, v0 # vpshufb %xmm1, %xmm2, %xmm2
463 vperm v1, $ipthi, $ipthi, v1 # vpshufb %xmm0, %xmm1, %xmm0
476 # vmovdqa -0x10(%r10),%xmm1 # 0 : sb9t
479 vperm v1, $sb9t, v7, v3 # vpshufb %xmm3, %xmm1, %xmm1 # 0 = sb9t
483 vxor v5, v5, v1 # vpxor %xmm1, %xmm0, %xmm0 # 0 = ch
484 # vmovdqa 0x10(%r10),%xmm1 # 0 : sbdt
488 vperm v1, $sbdt, v7, v3 # vpshufb %xmm3, %xmm1, %xmm1 # 0 = sbdt
491 vxor v5, v5, v1 # vpxor %xmm1, %xmm0, %xmm0 # 0 = ch
492 # vmovdqa 0x30(%r10), %xmm1 # 0 : sbbt
496 vperm v1, $sbbt, v7, v3 # vpshufb %xmm3, %xmm1, %xmm1 # 0 = sbbt
499 vxor v5, v5, v1 # vpxor %xmm1, %xmm0, %xmm0 # 0 = ch
500 # vmovdqa 0x50(%r10), %xmm1 # 0 : sbet
504 vperm v1, $sbet, v7, v3 # vpshufb %xmm3, %xmm1, %xmm1 # 0 = sbet
506 vxor v0, v0, v1 # vpxor %xmm1, %xmm0, %xmm0 # 0 = ch
511 vperm v2, $invhi, $invhi, v0 # vpshufb %xmm1, %xmm11, %xmm2 # 2 = a/k
512 vxor v0, v0, v1 # vpxor %xmm0, %xmm1, %xmm1 # 0 = j
514 vperm v4, $invlo, $invlo, v0 # vpshufb %xmm1, %xmm10, %xmm4 # 4 = 1/j
523 vxor v2, v2, v0 # vpxor %xmm1, %xmm2, %xmm2 # 2 = io
532 # vmovdqa 0x70(%r10), %xmm1 # 0 : sbot
534 vperm v1, $sbot, v7, v3 # vpshufb %xmm3, %xmm1, %xmm1 # 0 = sb1t
536 vxor v0, v1, v4 # vpxor %xmm4, %xmm1, %xmm0 # 0 = A
973 lvx v1, r8, r10 # vmovdqa (%r8,%r10), %xmm1
977 vperm v4, v3, v3, v1 # vpshufb %xmm1, %xmm3, %xmm3
1110 lvx v1, r8, r10 # vmovdqa (%r8,%r10),%xmm1
1113 vperm v0, v0, v0, v1 # vpshufb %xmm1, %xmm0, %xmm0 # output permute
1160 vxor v1, v1, v1 # vpxor %xmm1, %xmm1, %xmm1
1189 ?vsldoi v1, v9, v6, 12 # vpshufd \$0x80, %xmm6, %xmm1 # d c 0 0 -> c 0 0 0
1191 vxor v6, v6, v1 # vpxor %xmm1, %xmm6, %xmm6 # -> c+d c 0 0
1216 ## Clobbers %xmm1-%xmm4, %r11.
1222 ?vsldoi v1, $rcon, v9, 15 # vpalignr \$15, %xmm8, %xmm4, %xmm1
1224 vxor v7, v7, v1 # vpxor %xmm1, %xmm7, %xmm7
1235 ?vsldoi v1, v9, v7, 12 # vpslldq \$4, %xmm7, %xmm1
1236 vxor v7, v7, v1 # vpxor %xmm1, %xmm7, %xmm7
1241 vand v1, v1, v0 # vpand %xmm9, %xmm0, %xmm1 # 0 = k
1244 vperm v2, $invhi, v9, v1 # vpshufb %xmm1, %xmm11, %xmm2 # 2 = a/k
1245 vxor v1, v1, v0 # vpxor %xmm0, %xmm1, %xmm1 # 0 = j
1248 vperm v4, $invlo, v9, v1 # vpshufb %xmm1, %xmm10, %xmm4 # 4 = 1/j
1253 vxor v3, v3, v1 # vpxor %xmm1, %xmm3, %xmm3 # 2 = io
1256 vperm v1, v14, v9, v2 # vpshufb %xmm2, %xmm12, %xmm1 # 0 = sb1t
1257 vxor v1, v1, v4 # vpxor %xmm4, %xmm1, %xmm1 # 0 = sbox output
1260 vxor v0, v1, v7 # vpxor %xmm7, %xmm1, %xmm0
1277 #vand v1, v0, v9 # vpand %xmm9, %xmm0, %xmm1
1280 vperm v0, $iptlo, $iptlo, v0 # vpshufb %xmm1, %xmm2, %xmm2
1281 # vmovdqa 16(%r11), %xmm1 # hi
1282 vperm v2, $ipthi, $ipthi, v2 # vpshufb %xmm0, %xmm1, %xmm0
1321 vperm v1, v4, v4, v25 # vpshufb %xmm5, %xmm4, %xmm1
1322 vperm v3, v1, v1, v25 # vpshufb %xmm5, %xmm1, %xmm3
1323 vxor v4, v4, v1 # vpxor %xmm1, %xmm4, %xmm4
1324 lvx v1, r8, r10 # vmovdqa (%r8,%r10), %xmm1
1327 vperm v3, v3, v3, v1 # vpshufb %xmm1, %xmm3, %xmm3
1342 vsrb v1, v0, v8 # vpsrlb \$4, %xmm4, %xmm1 # 1 = hi
1348 vperm v3, v17, v17, v1 # vpshufb %xmm1, %xmm3, %xmm3
1356 vperm v3, v19, v19, v1 # vpshufb %xmm1, %xmm3, %xmm3
1364 vperm v3, v21, v21, v1 # vpshufb %xmm1, %xmm3, %xmm3
1371 vperm v4, v23, v23, v1 # vpshufb %xmm1, %xmm4, %xmm4
1372 lvx v1, r8, r10 # vmovdqa (%r8,%r10), %xmm1
1378 vperm v3, v3, v3, v1 # vpshufb %xmm1, %xmm3, %xmm3