Lines Matching refs:subr
19 define i32 @atom2(i32* %subr, i32 %val) {
22 %ret = atomicrmw sub i32* %subr, i32 %val seq_cst
27 define i64 @atom3(i64* %subr, i64 %val) {
30 %ret = atomicrmw sub i64* %subr, i64 %val seq_cst
35 define i32 @atom4(i32* %subr, i32 %val) {
37 %ret = atomicrmw and i32* %subr, i32 %val seq_cst
42 define i64 @atom5(i64* %subr, i64 %val) {
44 %ret = atomicrmw and i64* %subr, i64 %val seq_cst
49 ;define i32 @atom6(i32* %subr, i32 %val) {
50 ; %ret = atomicrmw nand i32* %subr, i32 %val seq_cst
54 ;define i64 @atom7(i64* %subr, i64 %val) {
55 ; %ret = atomicrmw nand i64* %subr, i64 %val seq_cst
60 define i32 @atom8(i32* %subr, i32 %val) {
62 %ret = atomicrmw or i32* %subr, i32 %val seq_cst
67 define i64 @atom9(i64* %subr, i64 %val) {
69 %ret = atomicrmw or i64* %subr, i64 %val seq_cst
74 define i32 @atom10(i32* %subr, i32 %val) {
76 %ret = atomicrmw xor i32* %subr, i32 %val seq_cst
81 define i64 @atom11(i64* %subr, i64 %val) {
83 %ret = atomicrmw xor i64* %subr, i64 %val seq_cst
88 define i32 @atom12(i32* %subr, i32 %val) {
90 %ret = atomicrmw max i32* %subr, i32 %val seq_cst
95 define i64 @atom13(i64* %subr, i64 %val) {
97 %ret = atomicrmw max i64* %subr, i64 %val seq_cst
102 define i32 @atom14(i32* %subr, i32 %val) {
104 %ret = atomicrmw min i32* %subr, i32 %val seq_cst
109 define i64 @atom15(i64* %subr, i64 %val) {
111 %ret = atomicrmw min i64* %subr, i64 %val seq_cst
116 define i32 @atom16(i32* %subr, i32 %val) {
118 %ret = atomicrmw umax i32* %subr, i32 %val seq_cst
123 define i64 @atom17(i64* %subr, i64 %val) {
125 %ret = atomicrmw umax i64* %subr, i64 %val seq_cst
130 define i32 @atom18(i32* %subr, i32 %val) {
132 %ret = atomicrmw umin i32* %subr, i32 %val seq_cst
137 define i64 @atom19(i64* %subr, i64 %val) {
139 %ret = atomicrmw umin i64* %subr, i64 %val seq_cst