Lines Matching refs:seq_cst
7 %ret = atomicrmw add i32* %addr, i32 %val seq_cst
14 %ret = atomicrmw add i64* %addr, i64 %val seq_cst
22 %ret = atomicrmw sub i32* %subr, i32 %val seq_cst
30 %ret = atomicrmw sub i64* %subr, i64 %val seq_cst
37 %ret = atomicrmw and i32* %subr, i32 %val seq_cst
44 %ret = atomicrmw and i64* %subr, i64 %val seq_cst
50 ; %ret = atomicrmw nand i32* %subr, i32 %val seq_cst
55 ; %ret = atomicrmw nand i64* %subr, i64 %val seq_cst
62 %ret = atomicrmw or i32* %subr, i32 %val seq_cst
69 %ret = atomicrmw or i64* %subr, i64 %val seq_cst
76 %ret = atomicrmw xor i32* %subr, i32 %val seq_cst
83 %ret = atomicrmw xor i64* %subr, i64 %val seq_cst
90 %ret = atomicrmw max i32* %subr, i32 %val seq_cst
97 %ret = atomicrmw max i64* %subr, i64 %val seq_cst
104 %ret = atomicrmw min i32* %subr, i32 %val seq_cst
111 %ret = atomicrmw min i64* %subr, i64 %val seq_cst
118 %ret = atomicrmw umax i32* %subr, i32 %val seq_cst
125 %ret = atomicrmw umax i64* %subr, i64 %val seq_cst
132 %ret = atomicrmw umin i32* %subr, i32 %val seq_cst
139 %ret = atomicrmw umin i64* %subr, i64 %val seq_cst
173 %pairold = cmpxchg i32* %addr, i32 %cmp, i32 %new seq_cst seq_cst
180 %pairold = cmpxchg i64* %addr, i64 %cmp, i64 %new seq_cst seq_cst