Lines Matching refs:v0
101 vspltisw v0,-1
103 vsldoi mask_32bit,zeroes,v0,4
104 vsldoi mask_64bit,zeroes,v0,8
160 vxor v0,v0,v0
259 vxor v0,v0,v8
316 vxor v0,v0,v8
350 vxor v0,v0,v8
366 vsldoi v0,v0,zeroes,4
396 vxor v16,v0,v8
425 lvx v0,0,r3
435 VPMSUMW(v0,v16,v0)
452 vxor v0,v0,v16
459 vxor v0,v0,v16
466 vxor v0,v0,v16
473 vxor v0,v0,v16
480 vxor v0,v0,v16
487 vxor v0,v0,v16
494 vxor v0,v0,v16
497 1: vxor v0,v0,v1
502 vxor v0,v0,v2
505 vxor v0,v0,v4
515 vsldoi v1,v0,v0,8
516 vxor v0,v0,v1 /* xor two 64 bit results together */
521 vsl v0,v0,v1
524 vand v0,v0,mask_64bit
532 VPMSUMD(v1,v0,const1) /* ma */
535 vxor v0,v0,v1 /* a - qn, subtraction is xor in GF(2) */
542 vsldoi v0,v0,zeroes,8 /* shift result into top 64 bits */
551 vand v1,v0,mask_32bit /* bottom 32 bits of a */
555 vxor v0,v0,v1 /* a - qn, subtraction is xor in GF(2) */
563 vsldoi v0,v0,zeroes,4 /* shift result into top 64 bits of */
567 MFVRD(R3, v0)
627 lvx v0,0,r4
629 VPERM(v0,v0,v16,byteswap)
630 vxor v0,v0,v8 /* xor in initial value */
631 VPMSUMW(v0,v0,v16)
741 .Lv0: vxor v20,v20,v0
743 vxor v0,v19,v20