Home | History | Annotate | Download | only in CodeGen

Lines Matching refs:vsl

11 volatile vector signed long long vsl;
94 sl = vec_extract(vsl, idx);
121 vsl = vec_insert(sl, vsl, idx);
142 vsl = vec_promote(sl, idx);
161 vsl = vec_insert_and_zero(cptrsl);
186 vsl = vec_perm(vsl, vsl, vuc);
195 vsl = vec_permi(vsl, vsl, 0);
197 vsl = vec_permi(vsl, vsl, 1);
199 vsl = vec_permi(vsl, vsl, 2);
201 vsl = vec_permi(vsl, vsl, 3);
246 vsl = vec_sel(vsl, vsl, vul);
247 vsl = vec_sel(vsl, vsl, vbl);
267 vsl = vec_gather_element(vsl, vul, cptrsl, 0);
268 vsl = vec_gather_element(vsl, vul, cptrsl, 1);
288 vec_scatter_element(vsl, vul, ptrsl, 0);
289 vec_scatter_element(vsl, vul, ptrsl, 1);
303 vsl = vec_xld2(idx, cptrsl);
320 vec_xstd2(vsl, idx, ptrsl);
343 vsl = vec_load_bndry(cptrsl, 64);
374 vsl = vec_load_len(cptrsl, idx);
393 vec_store_len(vsl, ptrsl, idx);
400 vsl = vec_load_pair(sl, sl);
471 vsl = vec_splat(vsl, 0);
473 vsl = vec_splat(vsl, 1);
512 vsl = vec_splat_s64(-32768);
514 vsl = vec_splat_s64(32767);
533 vsl = vec_splats(sl);
540 vsl = vec_extend_s64(vsc);
541 vsl = vec_extend_s64(vss);
542 vsl = vec_extend_s64(vsi);
562 vsl = vec_mergeh(vsl, vsl);
589 vsl = vec_mergel(vsl, vsl);
610 vsi = vec_pack(vsl, vsl);
625 vsi = vec_packs(vsl, vsl);
638 vsi = vec_packs_cc(vsl, vsl, &cc);
651 vui = vec_packsu(vsl, vsl);
675 vsl = vec_unpackh(vsi);
694 vsl = vec_unpackl(vsi);
721 vbl = vec_cmpeq(vsl, vsl);
742 vbl = vec_cmpge(vsl, vsl);
761 vbl = vec_cmpgt(vsl, vsl);
780 vbl = vec_cmple(vsl, vsl);
799 vbl = vec_cmplt(vsl, vsl);
848 idx = vec_all_eq(vsl, vsl);
850 idx = vec_all_eq(vsl, vbl);
852 idx = vec_all_eq(vbl, vsl);
907 idx = vec_all_ne(vsl, vsl);
909 idx = vec_all_ne(vsl, vbl);
911 idx = vec_all_ne(vbl, vsl);
966 idx = vec_all_ge(vsl, vsl);
968 idx = vec_all_ge(vsl, vbl);
970 idx = vec_all_ge(vbl, vsl);
1025 idx = vec_all_gt(vsl, vsl);
1027 idx = vec_all_gt(vsl, vbl);
1029 idx = vec_all_gt(vbl, vsl);
1084 idx = vec_all_le(vsl, vsl);
1086 idx = vec_all_le(vsl, vbl);
1088 idx = vec_all_le(vbl, vsl);
1143 idx = vec_all_lt(vsl, vsl);
1145 idx = vec_all_lt(vsl, vbl);
1147 idx = vec_all_lt(vbl, vsl);
1216 idx = vec_any_eq(vsl, vsl);
1218 idx = vec_any_eq(vsl, vbl);
1220 idx = vec_any_eq(vbl, vsl);
1275 idx = vec_any_ne(vsl, vsl);
1277 idx = vec_any_ne(vsl, vbl);
1279 idx = vec_any_ne(vbl, vsl);
1334 idx = vec_any_ge(vsl, vsl);
1336 idx = vec_any_ge(vsl, vbl);
1338 idx = vec_any_ge(vbl, vsl);
1393 idx = vec_any_gt(vsl, vsl);
1395 idx = vec_any_gt(vsl, vbl);
1397 idx = vec_any_gt(vbl, vsl);
1452 idx = vec_any_le(vsl, vsl);
1454 idx = vec_any_le(vsl, vbl);
1456 idx = vec_any_le(vbl, vsl);
1511 idx = vec_any_lt(vsl, vsl);
1513 idx = vec_any_lt(vsl, vbl);
1515 idx = vec_any_lt(vbl, vsl);
1565 vsl = vec_andc(vsl, vsl);
1566 vsl = vec_andc(vsl, vbl);
1567 vsl = vec_andc(vbl, vsl);
1597 vsl = vec_nor(vsl, vsl);
1598 vsl = vec_nor(vsl, vbl);
1599 vsl = vec_nor(vbl, vsl);
1620 vul = vec_cntlz(vsl);
1637 vul = vec_cnttz(vsl);
1654 vul = vec_popcnt(vsl);
1671 vsl = vec_rl(vsl, vul);
1688 vsl = vec_rli(vsl, ul);
1717 vsl = vec_rl_mask(vsl, vul, 0);
1719 vsl = vec_rl_mask(vsl, vul, 255);
1727 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1729 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1731 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1733 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1735 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1737 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1739 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1741 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1743 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1745 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1747 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1749 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1751 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1753 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1755 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1757 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1759 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1761 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1763 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1765 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1767 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1769 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1771 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1773 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1775 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1777 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1779 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1780 vsl = vec_sll(vsl, vuc);
1781 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1782 vsl = vec_sll(vsl, vus);
1783 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1784 vsl = vec_sll(vsl, vui);
1785 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1787 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1789 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1791 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1793 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1795 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1797 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
1823 vsl = vec_slb(vsl, vsl);
1825 vsl = vec_slb(vsl, vul);
1827 vul = vec_slb(vul, vsl);
1831 vd = vec_slb(vd, vsl);
1860 vsl = vec_sld(vsl, vsl, 0);
1862 vsl = vec_sld(vsl, vsl, 15);
1897 vsl = vec_sldw(vsl, vsl, 0);
1899 vsl = vec_sldw(vsl, vsl, 3);
1964 vsl = vec_sral(vsl, vuc);
1966 vsl = vec_sral(vsl, vus);
1968 vsl = vec_sral(vsl, vui);
2007 vsl = vec_srab(vsl, vsl);
2009 vsl = vec_srab(vsl, vul);
2011 vul = vec_srab(vul, vsl);
2015 vd = vec_srab(vd, vsl);
2074 vsl = vec_srl(vsl, vuc);
2076 vsl = vec_srl(vsl, vus);
2078 vsl = vec_srl(vsl, vui);
2117 vsl = vec_srb(vsl, vsl);
2119 vsl = vec_srb(vsl, vul);
2121 vul = vec_srb(vul, vsl);
2125 vd = vec_srb(vd, vsl);
2133 vsl = vec_abs(vsl);
2153 vsl = vec_max(vsl, vsl);
2154 vsl = vec_max(vsl, vbl);
2155 vsl = vec_max(vbl, vsl);
2179 vslvsl, vsl);
2180 vsl = vec_min(vsl, vbl);
2181 vsl = vec_min(vbl, vsl);
2217 vsl = vec_avg(vsl, vsl);
2277 vsl = vec_meadd(vsi, vsi, vsl);
2290 vsl = vec_moadd(vsi, vsi, vsl);
2316 vsl = vec_mule(vsi, vsi);
2329 vsl = vec_mulo(vsi, vsi);
2377 idx = vec_test_mask(vsl, vul);
2912 vd = vec_ctd(vsl, 0);
2916 vd = vec_ctd(vsl, 1);
2922 vd = vec_ctd(vsl, 31);
2929 vsl = vec_ctsl(vd, 0);
2933 vsl = vec_ctsl(vd, 1);
2939 vsl = vec_ctsl(vd, 31);