Lines Matching refs:i64
1 target datalayout = "e-p:32:32:32-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v…
404 define void @rsSetElementAtImpl_long([1 x i32] %a.coerce, i64 %val, i32 %x, i32 %y, i32 %z) #1 {
406 %2 = bitcast i8* %1 to i64*
407 store i64 %val, i64* %2, align 8, !tbaa !45
411 define i64 @rsGetElementAtImpl_long([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
413 %2 = bitcast i8* %1 to i64*
414 %3 = load i64, i64* %2, align 8, !tbaa !45
415 ret i64 %3
419 define void @rsSetElementAtImpl_long2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, i32 %z) …
421 %2 = bitcast i8* %1 to <2 x i64>*
422 store <2 x i64> %val, <2 x i64>* %2, align 16, !tbaa !46
426 define <2 x i64> @rsGetElementAtImpl_long2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
428 %2 = bitcast i8* %1 to <2 x i64>*
429 %3 = load <2 x i64>, <2 x i64>* %2, align 16, !tbaa !46
430 ret <2 x i64> %3
434 define void @rsSetElementAtImpl_long3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, i32 %z) …
436 %2 = shufflevector <3 x i64> %val, <3 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
437 %3 = bitcast i8* %1 to <4 x i64>*
438 store <4 x i64> %2, <4 x i64>* %3, align 32, !tbaa !47
442 define void @rsGetElementAtImpl_long3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.c…
444 %2 = bitcast i8* %1 to <4 x i64>*
445 %3 = load <4 x i64>, <4 x i64>* %2, align 32
446 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
447 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !47
452 define void @rsSetElementAtImpl_long4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, i32 %z) …
454 %2 = bitcast i8* %1 to <4 x i64>*
455 store <4 x i64> %val, <4 x i64>* %2, align 32, !tbaa !48
459 define void @rsGetElementAtImpl_long4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.c…
461 %2 = bitcast i8* %1 to <4 x i64>*
462 %3 = load <4 x i64>, <4 x i64>* %2, align 32, !tbaa !15
463 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !48
468 define void @rsSetElementAtImpl_ulong([1 x i32] %a.coerce, i64 %val, i32 %x, i32 %y, i32 %z) #1 {
470 %2 = bitcast i8* %1 to i64*
471 store i64 %val, i64* %2, align 8, !tbaa !49
475 define i64 @rsGetElementAtImpl_ulong([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
477 %2 = bitcast i8* %1 to i64*
478 %3 = load i64, i64* %2, align 8, !tbaa !49
479 ret i64 %3
483 define void @rsSetElementAtImpl_ulong2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, i32 %z)…
485 %2 = bitcast i8* %1 to <2 x i64>*
486 store <2 x i64> %val, <2 x i64>* %2, align 16, !tbaa !50
490 define <2 x i64> @rsGetElementAtImpl_ulong2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
492 %2 = bitcast i8* %1 to <2 x i64>*
493 %3 = load <2 x i64>, <2 x i64>* %2, align 16, !tbaa !50
494 ret <2 x i64> %3
498 define void @rsSetElementAtImpl_ulong3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, i32 %z)…
500 %2 = shufflevector <3 x i64> %val, <3 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
501 %3 = bitcast i8* %1 to <4 x i64>*
502 store <4 x i64> %2, <4 x i64>* %3, align 32, !tbaa !51
506 define void @rsGetElementAtImpl_ulong3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.…
508 %2 = bitcast i8* %1 to <4 x i64>*
509 %3 = load <4 x i64>, <4 x i64>* %2, align 32
510 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
511 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !51
516 define void @rsSetElementAtImpl_ulong4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, i32 %z)…
518 %2 = bitcast i8* %1 to <4 x i64>*
519 store <4 x i64> %val, <4 x i64>* %2, align 32, !tbaa !52
523 define void @rsGetElementAtImpl_ulong4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i32] %a.…
525 %2 = bitcast i8* %1 to <4 x i64>*
526 %3 = load <4 x i64>, <4 x i64>* %2, align 32, !tbaa !15
527 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !52
719 define void @__rsAllocationVLoadXImpl_long4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i32…
721 %2 = bitcast i8* %1 to <4 x i64>*
722 %3 = load <4 x i64>, <4 x i64>* %2, align 8
723 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !52
726 define void @__rsAllocationVLoadXImpl_long3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i32…
728 %2 = bitcast i8* %1 to <4 x i64>*
729 %3 = load <4 x i64>, <4 x i64>* %2, align 8
730 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
731 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !47
734 define <2 x i64> @__rsAllocationVLoadXImpl_long2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
736 %2 = bitcast i8* %1 to <2 x i64>*
737 %3 = load <2 x i64>, <2 x i64>* %2, align 8
738 ret <2 x i64> %3
741 define void @__rsAllocationVLoadXImpl_ulong4(<4 x i64>* noalias nocapture sret %agg.result, [1 x i3…
743 %2 = bitcast i8* %1 to <4 x i64>*
744 %3 = load <4 x i64>, <4 x i64>* %2, align 8
745 store <4 x i64> %3, <4 x i64>* %agg.result, align 32, !tbaa !48
748 define void @__rsAllocationVLoadXImpl_ulong3(<3 x i64>* noalias nocapture sret %agg.result, [1 x i3…
750 %2 = bitcast i8* %1 to <4 x i64>*
751 %3 = load <4 x i64>, <4 x i64>* %2, align 8
752 %4 = bitcast <3 x i64>* %agg.result to <4 x i64>*
753 store <4 x i64> %3, <4 x i64>* %4, align 32, !tbaa !51
756 define <2 x i64> @__rsAllocationVLoadXImpl_ulong2([1 x i32] %a.coerce, i32 %x, i32 %y, i32 %z) #0 {
758 %2 = bitcast i8* %1 to <2 x i64>*
759 %3 = load <2 x i64>, <2 x i64>* %2, align 8
760 ret <2 x i64> %3
919 define void @__rsAllocationVStoreXImpl_long4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, i…
921 %2 = bitcast i8* %1 to <4 x i64>*
922 store <4 x i64> %val, <4 x i64>* %2, align 8
925 define void @__rsAllocationVStoreXImpl_long3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, i…
927 %2 = bitcast i8* %1 to <3 x i64>*
928 store <3 x i64> %val, <3 x i64>* %2, align 8
931 define void @__rsAllocationVStoreXImpl_long2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, i…
933 %2 = bitcast i8* %1 to <2 x i64>*
934 store <2 x i64> %val, <2 x i64>* %2, align 8
938 define void @__rsAllocationVStoreXImpl_ulong4([1 x i32] %a.coerce, <4 x i64> %val, i32 %x, i32 %y, …
940 %2 = bitcast i8* %1 to <4 x i64>*
941 store <4 x i64> %val, <4 x i64>* %2, align 8
944 define void @__rsAllocationVStoreXImpl_ulong3([1 x i32] %a.coerce, <3 x i64> %val, i32 %x, i32 %y, …
946 %2 = bitcast i8* %1 to <3 x i64>*
947 store <3 x i64> %val, <3 x i64>* %2, align 8
950 define void @__rsAllocationVStoreXImpl_ulong2([1 x i32] %a.coerce, <2 x i64> %val, i32 %x, i32 %y, …
952 %2 = bitcast i8* %1 to <2 x i64>*
953 store <2 x i64> %val, <2 x i64>* %2, align 8