Lines Matching refs:srl
16 %srl = lshr i64 %ld.64, 31
17 %bit = and i64 %srl, 1
33 %srl = lshr i64 %ld.64, 63
34 %bit = and i64 %srl, 1
49 %srl = lshr i64 %ld.64, 1
50 %bit = and i64 %srl, 1
65 %srl = lshr i64 %ld.64, 20
66 %bit = and i64 %srl, 1
81 %srl = lshr i64 %ld.64, 32
82 %bit = and i64 %srl, 1
97 %srl = lshr i64 %ld.64, 33
98 %bit = and i64 %srl, 1
113 %srl = lshr i64 %ld.64, 20
114 %bit = and i64 %srl, 3
129 %srl = lshr i64 %ld.64, 1
130 %bit = and i64 %srl, 1073741823
145 %srl = lshr i64 %ld.64, 1
146 %bit = and i64 %srl, 2147483647
163 %srl = lshr i64 %ld.64, 31
164 %bit = and i64 %srl, 3
179 %srl = lshr i64 %ld.64, 33
180 %bit = and i64 %srl, 3
196 %srl = lshr i64 %ld.64, 30
197 %bit = and i64 %srl, 1073741823
212 %srl = lshr i64 %ld.64, 33
213 %bit = and i64 %srl, 1073741823
228 %srl = lshr i64 %ld.64, 31
229 %and = and i64 %srl, 4294967295
244 %srl = lshr i64 %ld.64, 31
245 %trunc = trunc i64 %srl to i32
260 %srl = lshr i64 %ld.64, 3
261 %trunc = trunc i64 %srl to i32
276 %srl = lshr i64 %ld.64, 33
277 %trunc = trunc i64 %srl to i32
294 %srl = lshr i64 %ld.64, 31
295 %trunc = trunc i64 %srl to i32
314 %srl = lshr i64 %ld.64, 20
315 %bit = and i64 %srl, 4
335 %srl = lshr i64 %ld.64, 27
336 %bit = and i64 %srl, 3
337 store volatile i64 %srl, i64 addrspace(1)* %out
354 %srl = lshr i64 %ld.64, 34
355 %bit = and i64 %srl, 7
356 store volatile i64 %srl, i64 addrspace(1)* %out
373 %srl = lshr i64 %ld.64, 33
374 %bit = and i64 %srl, 7
377 %srl.srl32 = lshr i64 %srl, 32
378 %srl.hi = trunc i64 %srl.srl32 to i32
379 store volatile i32 %srl.hi, i32 addrspace(1)* %out1.gep