Lines Matching refs:mem
12 define i8 @load_i8_unordered(i8* %mem) {
16 %val = load atomic i8, i8* %mem unordered, align 1
19 define i16 @load_i16_monotonic(i16* %mem) {
23 %val = load atomic i16, i16* %mem monotonic, align 2
26 define i32 @load_i32_acquire(i32* %mem) {
29 %val = load atomic i32, i32* %mem acquire, align 4
33 define i64 @load_i64_seq_cst(i64* %mem) {
39 %val = load atomic i64, i64* %mem seq_cst, align 8
45 define void @store_i8_unordered(i8* %mem) {
49 store atomic i8 42, i8* %mem unordered, align 1
52 define void @store_i16_monotonic(i16* %mem) {
56 store atomic i16 42, i16* %mem monotonic, align 2
59 define void @store_i32_release(i32* %mem) {
63 store atomic i32 42, i32* %mem release, align 4
66 define void @store_i64_seq_cst(i64* %mem) {
72 store atomic i64 42, i64* %mem seq_cst, align 8
77 define i8 @cas_strong_i8_sc_sc(i8* %mem) {
80 %val = cmpxchg i8* %mem, i8 0, i8 1 seq_cst seq_cst
85 define i16 @cas_weak_i16_acquire_acquire(i16* %mem) {
88 %val = cmpxchg weak i16* %mem, i16 0, i16 1 acquire acquire
93 define i32 @cas_strong_i32_acqrel_acquire(i32* %mem) {
96 %val = cmpxchg i32* %mem, i32 0, i32 1 acq_rel acquire
101 define i64 @cas_weak_i64_release_monotonic(i64* %mem) {
104 %val = cmpxchg weak i64* %mem, i64 0, i64 1 release monotonic
111 define i8 @add_i8_monotonic(i8* %mem, i8 %operand) {
114 %val = atomicrmw add i8* %mem, i8 %operand monotonic
117 define i16 @xor_i16_seq_cst(i16* %mem, i16 %operand) {
120 %val = atomicrmw xor i16* %mem, i16 %operand seq_cst
124 define i32 @xchg_i32_acq_rel(i32* %mem, i32 %operand) {
127 %val = atomicrmw xchg i32* %mem, i32 %operand acq_rel
131 define i64 @and_i64_release(i64* %mem, i64 %operand) {
134 %val = atomicrmw and i64* %mem, i64 %operand release