Lines Matching refs:tmp3
6 %tmp3 = icmp eq <8 x i8> %A, %B;
7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
14 %tmp3 = icmp eq <16 x i8> %A, %B;
15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
22 %tmp3 = icmp eq <4 x i16> %A, %B;
23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
30 %tmp3 = icmp eq <8 x i16> %A, %B;
31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
38 %tmp3 = icmp eq <2 x i32> %A, %B;
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
46 %tmp3 = icmp eq <4 x i32> %A, %B;
47 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
54 %tmp3 = icmp eq <2 x i64> %A, %B;
55 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
63 %tmp3 = icmp ne <8 x i8> %A, %B;
64 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
72 %tmp3 = icmp ne <16 x i8> %A, %B;
73 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
81 %tmp3 = icmp ne <4 x i16> %A, %B;
82 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
90 %tmp3 = icmp ne <8 x i16> %A, %B;
91 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
99 %tmp3 = icmp ne <2 x i32> %A, %B;
100 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
108 %tmp3 = icmp ne <4 x i32> %A, %B;
109 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
117 %tmp3 = icmp ne <2 x i64> %A, %B;
118 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
125 %tmp3 = icmp sgt <8 x i8> %A, %B;
126 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
133 %tmp3 = icmp sgt <16 x i8> %A, %B;
134 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
141 %tmp3 = icmp sgt <4 x i16> %A, %B;
142 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
149 %tmp3 = icmp sgt <8 x i16> %A, %B;
150 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
157 %tmp3 = icmp sgt <2 x i32> %A, %B;
158 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
165 %tmp3 = icmp sgt <4 x i32> %A, %B;
166 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
173 %tmp3 = icmp sgt <2 x i64> %A, %B;
174 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
183 %tmp3 = icmp slt <8 x i8> %A, %B;
184 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
193 %tmp3 = icmp slt <16 x i8> %A, %B;
194 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
203 %tmp3 = icmp slt <4 x i16> %A, %B;
204 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
213 %tmp3 = icmp slt <8 x i16> %A, %B;
214 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
223 %tmp3 = icmp slt <2 x i32> %A, %B;
224 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
233 %tmp3 = icmp slt <4 x i32> %A, %B;
234 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
243 %tmp3 = icmp slt <2 x i64> %A, %B;
244 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
251 %tmp3 = icmp sge <8 x i8> %A, %B;
252 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
259 %tmp3 = icmp sge <16 x i8> %A, %B;
260 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
267 %tmp3 = icmp sge <4 x i16> %A, %B;
268 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
275 %tmp3 = icmp sge <8 x i16> %A, %B;
276 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
283 %tmp3 = icmp sge <2 x i32> %A, %B;
284 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
291 %tmp3 = icmp sge <4 x i32> %A, %B;
292 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
299 %tmp3 = icmp sge <2 x i64> %A, %B;
300 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
309 %tmp3 = icmp sle <8 x i8> %A, %B;
310 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
319 %tmp3 = icmp sle <16 x i8> %A, %B;
320 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
329 %tmp3 = icmp sle <4 x i16> %A, %B;
330 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
339 %tmp3 = icmp sle <8 x i16> %A, %B;
340 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
349 %tmp3 = icmp sle <2 x i32> %A, %B;
350 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
359 %tmp3 = icmp sle <4 x i32> %A, %B;
360 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
369 %tmp3 = icmp sle <2 x i64> %A, %B;
370 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
377 %tmp3 = icmp ugt <8 x i8> %A, %B;
378 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
385 %tmp3 = icmp ugt <16 x i8> %A, %B;
386 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
393 %tmp3 = icmp ugt <4 x i16> %A, %B;
394 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
401 %tmp3 = icmp ugt <8 x i16> %A, %B;
402 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
409 %tmp3 = icmp ugt <2 x i32> %A, %B;
410 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
417 %tmp3 = icmp ugt <4 x i32> %A, %B;
418 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
425 %tmp3 = icmp ugt <2 x i64> %A, %B;
426 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
435 %tmp3 = icmp ult <8 x i8> %A, %B;
436 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
445 %tmp3 = icmp ult <16 x i8> %A, %B;
446 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
455 %tmp3 = icmp ult <4 x i16> %A, %B;
456 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
465 %tmp3 = icmp ult <8 x i16> %A, %B;
466 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
475 %tmp3 = icmp ult <2 x i32> %A, %B;
476 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
485 %tmp3 = icmp ult <4 x i32> %A, %B;
486 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
495 %tmp3 = icmp ult <2 x i64> %A, %B;
496 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
503 %tmp3 = icmp uge <8 x i8> %A, %B;
504 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
511 %tmp3 = icmp uge <16 x i8> %A, %B;
512 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
519 %tmp3 = icmp uge <4 x i16> %A, %B;
520 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
527 %tmp3 = icmp uge <8 x i16> %A, %B;
528 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
535 %tmp3 = icmp uge <2 x i32> %A, %B;
536 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
543 %tmp3 = icmp uge <4 x i32> %A, %B;
544 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
551 %tmp3 = icmp uge <2 x i64> %A, %B;
552 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
561 %tmp3 = icmp ule <8 x i8> %A, %B;
562 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
571 %tmp3 = icmp ule <16 x i8> %A, %B;
572 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
581 %tmp3 = icmp ule <4 x i16> %A, %B;
582 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
591 %tmp3 = icmp ule <8 x i16> %A, %B;
592 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
601 %tmp3 = icmp ule <2 x i32> %A, %B;
602 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
611 %tmp3 = icmp ule <4 x i32> %A, %B;
612 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
621 %tmp3 = icmp ule <2 x i64> %A, %B;
622 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
629 %tmp3 = and <8 x i8> %A, %B
630 %tmp4 = icmp ne <8 x i8> %tmp3, zeroinitializer
638 %tmp3 = and <16 x i8> %A, %B
639 %tmp4 = icmp ne <16 x i8> %tmp3, zeroinitializer
647 %tmp3 = and <4 x i16> %A, %B
648 %tmp4 = icmp ne <4 x i16> %tmp3, zeroinitializer
656 %tmp3 = and <8 x i16> %A, %B
657 %tmp4 = icmp ne <8 x i16> %tmp3, zeroinitializer
665 %tmp3 = and <2 x i32> %A, %B
666 %tmp4 = icmp ne <2 x i32> %tmp3, zeroinitializer
674 %tmp3 = and <4 x i32> %A, %B
675 %tmp4 = icmp ne <4 x i32> %tmp3, zeroinitializer
683 %tmp3 = and <2 x i64> %A, %B
684 %tmp4 = icmp ne <2 x i64> %tmp3, zeroinitializer
694 %tmp3 = icmp eq <8 x i8> %A, zeroinitializer;
695 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
702 %tmp3 = icmp eq <16 x i8> %A, zeroinitializer;
703 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
710 %tmp3 = icmp eq <4 x i16> %A, zeroinitializer;
711 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
718 %tmp3 = icmp eq <8 x i16> %A, zeroinitializer;
719 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
726 %tmp3 = icmp eq <2 x i32> %A, zeroinitializer;
727 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
734 %tmp3 = icmp eq <4 x i32> %A, zeroinitializer;
735 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
742 %tmp3 = icmp eq <2 x i64> %A, zeroinitializer;
743 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
751 %tmp3 = icmp sge <8 x i8> %A, zeroinitializer;
752 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
759 %tmp3 = icmp sge <16 x i8> %A, zeroinitializer;
760 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
767 %tmp3 = icmp sge <4 x i16> %A, zeroinitializer;
768 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
775 %tmp3 = icmp sge <8 x i16> %A, zeroinitializer;
776 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
783 %tmp3 = icmp sge <2 x i32> %A, zeroinitializer;
784 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
791 %tmp3 = icmp sge <4 x i32> %A, zeroinitializer;
792 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
799 %tmp3 = icmp sge <2 x i64> %A, zeroinitializer;
800 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
808 %tmp3 = icmp sgt <8 x i8> %A, zeroinitializer;
809 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
816 %tmp3 = icmp sgt <16 x i8> %A, zeroinitializer;
817 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
824 %tmp3 = icmp sgt <4 x i16> %A, zeroinitializer;
825 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
832 %tmp3 = icmp sgt <8 x i16> %A, zeroinitializer;
833 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
840 %tmp3 = icmp sgt <2 x i32> %A, zeroinitializer;
841 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
848 %tmp3 = icmp sgt <4 x i32> %A, zeroinitializer;
849 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
856 %tmp3 = icmp sgt <2 x i64> %A, zeroinitializer;
857 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
864 %tmp3 = icmp sle <8 x i8> %A, zeroinitializer;
865 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
872 %tmp3 = icmp sle <16 x i8> %A, zeroinitializer;
873 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
880 %tmp3 = icmp sle <4 x i16> %A, zeroinitializer;
881 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
888 %tmp3 = icmp sle <8 x i16> %A, zeroinitializer;
889 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
896 %tmp3 = icmp sle <2 x i32> %A, zeroinitializer;
897 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
904 %tmp3 = icmp sle <4 x i32> %A, zeroinitializer;
905 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
912 %tmp3 = icmp sle <2 x i64> %A, zeroinitializer;
913 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
920 %tmp3 = icmp slt <8 x i8> %A, zeroinitializer;
921 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
928 %tmp3 = icmp slt <16 x i8> %A, zeroinitializer;
929 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
936 %tmp3 = icmp slt <4 x i16> %A, zeroinitializer;
937 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
944 %tmp3 = icmp slt <8 x i16> %A, zeroinitializer;
945 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
952 %tmp3 = icmp slt <2 x i32> %A, zeroinitializer;
953 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
960 %tmp3 = icmp slt <4 x i32> %A, zeroinitializer;
961 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
968 %tmp3 = icmp slt <2 x i64> %A, zeroinitializer;
969 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
977 %tmp3 = icmp ne <8 x i8> %A, zeroinitializer;
978 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
986 %tmp3 = icmp ne <16 x i8> %A, zeroinitializer;
987 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
995 %tmp3 = icmp ne <4 x i16> %A, zeroinitializer;
996 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
1004 %tmp3 = icmp ne <8 x i16> %A, zeroinitializer;
1005 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
1013 %tmp3 = icmp ne <2 x i32> %A, zeroinitializer;
1014 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1022 %tmp3 = icmp ne <4 x i32> %A, zeroinitializer;
1023 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1031 %tmp3 = icmp ne <2 x i64> %A, zeroinitializer;
1032 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1040 %tmp3 = icmp uge <8 x i8> %A, zeroinitializer;
1041 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
1049 %tmp3 = icmp uge <16 x i8> %A, zeroinitializer;
1050 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
1058 %tmp3 = icmp uge <4 x i16> %A, zeroinitializer;
1059 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
1067 %tmp3 = icmp uge <8 x i16> %A, zeroinitializer;
1068 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
1076 %tmp3 = icmp uge <2 x i32> %A, zeroinitializer;
1077 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1085 %tmp3 = icmp uge <4 x i32> %A, zeroinitializer;
1086 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1094 %tmp3 = icmp uge <2 x i64> %A, zeroinitializer;
1095 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1104 %tmp3 = icmp ugt <8 x i8> %A, zeroinitializer;
1105 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
1113 %tmp3 = icmp ugt <16 x i8> %A, zeroinitializer;
1114 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
1122 %tmp3 = icmp ugt <4 x i16> %A, zeroinitializer;
1123 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
1131 %tmp3 = icmp ugt <8 x i16> %A, zeroinitializer;
1132 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
1140 %tmp3 = icmp ugt <2 x i32> %A, zeroinitializer;
1141 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1149 %tmp3 = icmp ugt <4 x i32> %A, zeroinitializer;
1150 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1158 %tmp3 = icmp ugt <2 x i64> %A, zeroinitializer;
1159 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1169 %tmp3 = icmp ule <8 x i8> %A, zeroinitializer;
1170 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
1180 %tmp3 = icmp ule <16 x i8> %A, zeroinitializer;
1181 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
1191 %tmp3 = icmp ule <4 x i16> %A, zeroinitializer;
1192 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
1202 %tmp3 = icmp ule <8 x i16> %A, zeroinitializer;
1203 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
1213 %tmp3 = icmp ule <2 x i32> %A, zeroinitializer;
1214 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1224 %tmp3 = icmp ule <4 x i32> %A, zeroinitializer;
1225 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1235 %tmp3 = icmp ule <2 x i64> %A, zeroinitializer;
1236 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1246 %tmp3 = icmp ult <8 x i8> %A, zeroinitializer;
1247 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
1257 %tmp3 = icmp ult <16 x i8> %A, zeroinitializer;
1258 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
1268 %tmp3 = icmp ult <4 x i16> %A, zeroinitializer;
1269 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
1279 %tmp3 = icmp ult <8 x i16> %A, zeroinitializer;
1280 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
1290 %tmp3 = icmp ult <2 x i32> %A, zeroinitializer;
1291 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1301 %tmp3 = icmp ult <4 x i32> %A, zeroinitializer;
1302 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1312 %tmp3 = icmp ult <2 x i64> %A, zeroinitializer;
1313 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1321 %tmp3 = fcmp oeq <2 x float> %A, %B
1322 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1329 %tmp3 = fcmp oeq <4 x float> %A, %B
1330 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1336 %tmp3 = fcmp oeq <2 x double> %A, %B
1337 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1344 %tmp3 = fcmp oge <2 x float> %A, %B
1345 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1352 %tmp3 = fcmp oge <4 x float> %A, %B
1353 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1359 %tmp3 = fcmp oge <2 x double> %A, %B
1360 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1367 %tmp3 = fcmp ogt <2 x float> %A, %B
1368 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1375 %tmp3 = fcmp ogt <4 x float> %A, %B
1376 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1382 %tmp3 = fcmp ogt <2 x double> %A, %B
1383 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1392 %tmp3 = fcmp ole <2 x float> %A, %B
1393 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1402 %tmp3 = fcmp ole <4 x float> %A, %B
1403 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1411 %tmp3 = fcmp ole <2 x double> %A, %B
1412 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1421 %tmp3 = fcmp olt <2 x float> %A, %B
1422 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1431 %tmp3 = fcmp olt <4 x float> %A, %B
1432 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1440 %tmp3 = fcmp olt <2 x double> %A, %B
1441 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1452 %tmp3 = fcmp one <2 x float> %A, %B
1453 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1464 %tmp3 = fcmp one <4 x float> %A, %B
1465 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1476 %tmp3 = fcmp one <2 x double> %A, %B
1477 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1489 %tmp3 = fcmp ord <2 x float> %A, %B
1490 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1502 %tmp3 = fcmp ord <4 x float> %A, %B
1503 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1514 %tmp3 = fcmp ord <2 x double> %A, %B
1515 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1528 %tmp3 = fcmp uno <2 x float> %A, %B
1529 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1541 %tmp3 = fcmp uno <4 x float> %A, %B
1542 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1554 %tmp3 = fcmp uno <2 x double> %A, %B
1555 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1567 %tmp3 = fcmp ueq <2 x float> %A, %B
1568 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1580 %tmp3 = fcmp ueq <4 x float> %A, %B
1581 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1593 %tmp3 = fcmp ueq <2 x double> %A, %B
1594 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1604 %tmp3 = fcmp uge <2 x float> %A, %B
1605 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1615 %tmp3 = fcmp uge <4 x float> %A, %B
1616 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1626 %tmp3 = fcmp uge <2 x double> %A, %B
1627 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1637 %tmp3 = fcmp ugt <2 x float> %A, %B
1638 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1648 %tmp3 = fcmp ugt <4 x float> %A, %B
1649 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1656 %tmp3 = fcmp ugt <2 x double> %A, %B
1657 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1667 %tmp3 = fcmp ule <2 x float> %A, %B
1668 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1678 %tmp3 = fcmp ule <4 x float> %A, %B
1679 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1688 %tmp3 = fcmp ule <2 x double> %A, %B
1689 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1699 %tmp3 = fcmp ult <2 x float> %A, %B
1700 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1710 %tmp3 = fcmp ult <4 x float> %A, %B
1711 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1720 %tmp3 = fcmp ult <2 x double> %A, %B
1721 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1731 %tmp3 = fcmp une <2 x float> %A, %B
1732 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1742 %tmp3 = fcmp une <4 x float> %A, %B
1743 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1752 %tmp3 = fcmp une <2 x double> %A, %B
1753 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1760 %tmp3 = fcmp oeq <2 x float> %A, zeroinitializer
1761 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1768 %tmp3 = fcmp oeq <4 x float> %A, zeroinitializer
1769 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1775 %tmp3 = fcmp oeq <2 x double> %A, zeroinitializer
1776 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1784 %tmp3 = fcmp oge <2 x float> %A, zeroinitializer
1785 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1792 %tmp3 = fcmp oge <4 x float> %A, zeroinitializer
1793 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1799 %tmp3 = fcmp oge <2 x double> %A, zeroinitializer
1800 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1807 %tmp3 = fcmp ogt <2 x float> %A, zeroinitializer
1808 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1815 %tmp3 = fcmp ogt <4 x float> %A, zeroinitializer
1816 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1822 %tmp3 = fcmp ogt <2 x double> %A, zeroinitializer
1823 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1830 %tmp3 = fcmp olt <2 x float> %A, zeroinitializer
1831 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1838 %tmp3 = fcmp olt <4 x float> %A, zeroinitializer
1839 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1846 %tmp3 = fcmp olt <2 x double> %A, zeroinitializer
1847 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1854 %tmp3 = fcmp ole <2 x float> %A, zeroinitializer
1855 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1862 %tmp3 = fcmp ole <4 x float> %A, zeroinitializer
1863 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1870 %tmp3 = fcmp ole <2 x double> %A, zeroinitializer
1871 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1881 %tmp3 = fcmp one <2 x float> %A, zeroinitializer
1882 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1892 %tmp3 = fcmp one <4 x float> %A, zeroinitializer
1893 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1902 %tmp3 = fcmp one <2 x double> %A, zeroinitializer
1903 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1913 %tmp3 = fcmp ord <2 x float> %A, zeroinitializer
1914 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1924 %tmp3 = fcmp ord <4 x float> %A, zeroinitializer
1925 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1934 %tmp3 = fcmp ord <2 x double> %A, zeroinitializer
1935 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1946 %tmp3 = fcmp ueq <2 x float> %A, zeroinitializer
1947 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1958 %tmp3 = fcmp ueq <4 x float> %A, zeroinitializer
1959 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1970 %tmp3 = fcmp ueq <2 x double> %A, zeroinitializer
1971 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
1980 %tmp3 = fcmp uge <2 x float> %A, zeroinitializer
1981 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
1990 %tmp3 = fcmp uge <4 x float> %A, zeroinitializer
1991 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
1999 %tmp3 = fcmp uge <2 x double> %A, zeroinitializer
2000 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
2009 %tmp3 = fcmp ugt <2 x float> %A, zeroinitializer
2010 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
2019 %tmp3 = fcmp ugt <4 x float> %A, zeroinitializer
2020 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
2028 %tmp3 = fcmp ugt <2 x double> %A, zeroinitializer
2029 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
2038 %tmp3 = fcmp ult <2 x float> %A, zeroinitializer
2039 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
2047 %tmp3 = fcmp ult <4 x float> %A, zeroinitializer
2048 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
2056 %tmp3 = fcmp ult <2 x double> %A, zeroinitializer
2057 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
2067 %tmp3 = fcmp ule <2 x float> %A, zeroinitializer
2068 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
2077 %tmp3 = fcmp ule <4 x float> %A, zeroinitializer
2078 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
2087 %tmp3 = fcmp ule <2 x double> %A, zeroinitializer
2088 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
2097 %tmp3 = fcmp une <2 x float> %A, zeroinitializer
2098 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
2107 %tmp3 = fcmp une <4 x float> %A, zeroinitializer
2108 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
2116 %tmp3 = fcmp une <2 x double> %A, zeroinitializer
2117 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>
2129 %tmp3 = fcmp uno <2 x float> %A, zeroinitializer
2130 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
2141 %tmp3 = fcmp uno <4 x float> %A, zeroinitializer
2142 %tmp4 = sext <4 x i1> %tmp3 to <4 x i32>
2153 %tmp3 = fcmp uno <2 x double> %A, zeroinitializer
2154 %tmp4 = sext <2 x i1> %tmp3 to <2 x i64>