Lines Matching refs:i16
1 target datalayout = "e-p:32:32:32-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v…
156 define void @rsSetElementAtImpl_short([1 x i32] %a.coerce, i16 signext %val, i32 %x, i32 %y, i32 %z…
158 %2 = bitcast i8* %1 to i16*
159 store i16 %val, i16* %2, align 2, !tbaa !29
163 define signext i16 @rsGetElementAtImpl_short([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
165 %2 = bitcast i8* %1 to i16*
166 %3 = load i16, i16* %2, align 2, !tbaa !29
167 ret i16 %3
171 define void @rsSetElementAtImpl_short2([1 x i32] %a.coerce, <2 x i16> %val, i32 %x, i32 %y, i32 %z)…
173 %2 = bitcast i8* %1 to <2 x i16>*
174 store <2 x i16> %val, <2 x i16>* %2, align 4, !tbaa !30
178 define <2 x i16> @rsGetElementAtImpl_short2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
180 %2 = bitcast i8* %1 to <2 x i16>*
181 %3 = load <2 x i16>, <2 x i16>* %2, align 4, !tbaa !30
182 ret <2 x i16> %3
186 define void @rsSetElementAtImpl_short3([1 x i32] %a.coerce, <3 x i16> %val, i32 %x, i32 %y, i32 %z)…
188 %2 = shufflevector <3 x i16> %val, <3 x i16> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
189 %3 = bitcast i8* %1 to <4 x i16>*
190 store <4 x i16> %2, <4 x i16>* %3, align 8, !tbaa !31
194 define <3 x i16> @rsGetElementAtImpl_short3([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
196 %2 = bitcast i8* %1 to <4 x i16>*
197 %3 = load <4 x i16>, <4 x i16>* %2, align 8, !tbaa !31
198 %4 = shufflevector <4 x i16> %3, <4 x i16> undef, <3 x i32> <i32 0, i32 1, i32 2>
199 ret <3 x i16> %4
203 define void @rsSetElementAtImpl_short4([1 x i32] %a.coerce, <4 x i16> %val, i32 %x, i32 %y, i32 %z)…
205 %2 = bitcast i8* %1 to <4 x i16>*
206 store <4 x i16> %val, <4 x i16>* %2, align 8, !tbaa !32
210 define <4 x i16> @rsGetElementAtImpl_short4([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
212 %2 = bitcast i8* %1 to <4 x i16>*
213 %3 = load <4 x i16>, <4 x i16>* %2, align 8, !tbaa !32
214 ret <4 x i16> %3
218 define void @rsSetElementAtImpl_ushort([1 x i32] %a.coerce, i16 zeroext %val, i32 %x, i32 %y, i32 %…
220 %2 = bitcast i8* %1 to i16*
221 store i16 %val, i16* %2, align 2, !tbaa !33
225 define zeroext i16 @rsGetElementAtImpl_ushort([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
227 %2 = bitcast i8* %1 to i16*
228 %3 = load i16, i16* %2, align 2, !tbaa !33
229 ret i16 %3
233 define void @rsSetElementAtImpl_ushort2([1 x i32] %a.coerce, <2 x i16> %val, i32 %x, i32 %y, i32 %z…
235 %2 = bitcast i8* %1 to <2 x i16>*
236 store <2 x i16> %val, <2 x i16>* %2, align 4, !tbaa !34
240 define <2 x i16> @rsGetElementAtImpl_ushort2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
242 %2 = bitcast i8* %1 to <2 x i16>*
243 %3 = load <2 x i16>, <2 x i16>* %2, align 4, !tbaa !34
244 ret <2 x i16> %3
248 define void @rsSetElementAtImpl_ushort3([1 x i32] %a.coerce, <3 x i16> %val, i32 %x, i32 %y, i32 %z…
250 %2 = shufflevector <3 x i16> %val, <3 x i16> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
251 %3 = bitcast i8* %1 to <4 x i16>*
252 store <4 x i16> %2, <4 x i16>* %3, align 8, !tbaa !35
256 define <3 x i16> @rsGetElementAtImpl_ushort3([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
258 %2 = bitcast i8* %1 to <4 x i16>*
259 %3 = load <4 x i16>, <4 x i16>* %2, align 8, !tbaa !35
260 %4 = shufflevector <4 x i16> %3, <4 x i16> undef, <3 x i32> <i32 0, i32 1, i32 2>
261 ret <3 x i16> %4
265 define void @rsSetElementAtImpl_ushort4([1 x i32] %a.coerce, <4 x i16> %val, i32 %x, i32 %y, i32 %z…
267 %2 = bitcast i8* %1 to <4 x i16>*
268 store <4 x i16> %val, <4 x i16>* %2, align 8, !tbaa !36
272 define <4 x i16> @rsGetElementAtImpl_ushort4([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
274 %2 = bitcast i8* %1 to <4 x i16>*
275 %3 = load <4 x i16>, <4 x i16>* %2, align 8, !tbaa !36
276 ret <4 x i16> %3
801 define <4 x i16> @__rsAllocationVLoadXImpl_short4([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
803 %2 = bitcast i8* %1 to <4 x i16>*
804 %3 = load <4 x i16>, <4 x i16>* %2, align 2
805 ret <4 x i16> %3
807 define <3 x i16> @__rsAllocationVLoadXImpl_short3([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
809 %2 = bitcast i8* %1 to <3 x i16>*
810 %3 = load <3 x i16>, <3 x i16>* %2, align 2
811 ret <3 x i16> %3
813 define <2 x i16> @__rsAllocationVLoadXImpl_short2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
815 %2 = bitcast i8* %1 to <2 x i16>*
816 %3 = load <2 x i16>, <2 x i16>* %2, align 2
817 ret <2 x i16> %3
820 define <4 x i16> @__rsAllocationVLoadXImpl_ushort4([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
822 %2 = bitcast i8* %1 to <4 x i16>*
823 %3 = load <4 x i16>, <4 x i16>* %2, align 2
824 ret <4 x i16> %3
826 define <3 x i16> @__rsAllocationVLoadXImpl_ushort3([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
828 %2 = bitcast i8* %1 to <3 x i16>*
829 %3 = load <3 x i16>, <3 x i16>* %2, align 2
830 ret <3 x i16> %3
832 define <2 x i16> @__rsAllocationVLoadXImpl_ushort2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
834 %2 = bitcast i8* %1 to <2 x i16>*
835 %3 = load <2 x i16>, <2 x i16>* %2, align 2
836 ret <2 x i16> %3
995 define void @__rsAllocationVStoreXImpl_short4([1 x i32] %a.coerce, <4 x i16> %val, i32 %x, i32 %y, …
997 %2 = bitcast i8* %1 to <4 x i16>*
998 store <4 x i16> %val, <4 x i16>* %2, align 2
1001 define void @__rsAllocationVStoreXImpl_short3([1 x i32] %a.coerce, <3 x i16> %val, i32 %x, i32 %y, …
1003 %2 = bitcast i8* %1 to <3 x i16>*
1004 store <3 x i16> %val, <3 x i16>* %2, align 2
1007 define void @__rsAllocationVStoreXImpl_short2([1 x i32] %a.coerce, <2 x i16> %val, i32 %x, i32 %y, …
1009 %2 = bitcast i8* %1 to <2 x i16>*
1010 store <2 x i16> %val, <2 x i16>* %2, align 2
1014 define void @__rsAllocationVStoreXImpl_ushort4([1 x i32] %a.coerce, <4 x i16> %val, i32 %x, i32 %y,…
1016 %2 = bitcast i8* %1 to <4 x i16>*
1017 store <4 x i16> %val, <4 x i16>* %2, align 2
1020 define void @__rsAllocationVStoreXImpl_ushort3([1 x i32] %a.coerce, <3 x i16> %val, i32 %x, i32 %y,…
1022 %2 = bitcast i8* %1 to <3 x i16>*
1023 store <3 x i16> %val, <3 x i16>* %2, align 2
1026 define void @__rsAllocationVStoreXImpl_ushort2([1 x i32] %a.coerce, <2 x i16> %val, i32 %x, i32 %y,…
1028 %2 = bitcast i8* %1 to <2 x i16>*
1029 store <2 x i16> %val, <2 x i16>* %2, align 2