Lines Matching refs:ve
1 ; RUN: llc < %s -mtriple=ve -mattr=+vpu | FileCheck %s
19 %4 = tail call fast <256 x double> @llvm.ve.vl.vld.vssl(i64 8, i8* %0, i32 256)
20 %5 = tail call fast <256 x double> @llvm.ve.vl.lsv.vvss(<256 x double> %4, i32 %2, i64 %1)
21 tail call void @llvm.ve.vl.vst.vssl(<256 x double> %5, i64 8, i8* %0, i32 256)
26 declare <256 x double> @llvm.ve.vl.vld.vssl(i64, i8*, i32)
29 declare <256 x double> @llvm.ve.vl.lsv.vvss(<256 x double>, i32, i64)
32 declare void @llvm.ve.vl.vst.vssl(<256 x double>, i64, i8*, i32)
44 %3 = tail call fast <256 x double> @llvm.ve.vl.vld.vssl(i64 8, i8* %0, i32 256)
45 %4 = tail call i64 @llvm.ve.vl.lvsl.svs(<256 x double> %3, i32 %1)
50 declare i64 @llvm.ve.vl.lvsl.svs(<256 x double>, i32)
62 %3 = tail call fast <256 x double> @llvm.ve.vl.vld.vssl(i64 8, i8* %0, i32 256)
63 %4 = tail call fast double @llvm.ve.vl.lvsd.svs(<256 x double> %3, i32 %1)
68 declare double @llvm.ve.vl.lvsd.svs(<256 x double>, i32)
80 %3 = tail call fast <256 x double> @llvm.ve.vl.vld.vssl(i64 8, i8* %0, i32 256)
81 %4 = tail call fast float @llvm.ve.vl.lvss.svs(<256 x double> %3, i32 %1)
86 declare float @llvm.ve.vl.lvss.svs(<256 x double>, i32)