Home | History | Annotate | Download | only in CodeGen

Lines Matching refs:vbi

11 vector bool int vbi = { 1, 0, 1, 0 };
83 res_vi = vec_add(vbi, vi); // CHECK: add <4 x i32>
84 res_vi = vec_add(vi, vbi); // CHECK: add <4 x i32>
86 res_vui = vec_add(vbi, vui); // CHECK: add <4 x i32>
87 res_vui = vec_add(vui, vbi); // CHECK: add <4 x i32>
102 res_vi = vec_vadduwm(vbi, vi); // CHECK: add <4 x i32>
103 res_vi = vec_vadduwm(vi, vbi); // CHECK: add <4 x i32>
105 res_vui = vec_vadduwm(vbi, vui); // CHECK: add <4 x i32>
106 res_vui = vec_vadduwm(vui, vbi); // CHECK: add <4 x i32>
127 res_vi = vec_adds(vbi, vi); // CHECK: @llvm.ppc.altivec.vaddsws
128 res_vi = vec_adds(vi, vbi); // CHECK: @llvm.ppc.altivec.vaddsws
130 res_vui = vec_adds(vbi, vui); // CHECK: @llvm.ppc.altivec.vadduws
131 res_vui = vec_adds(vui, vbi); // CHECK: @llvm.ppc.altivec.vadduws
145 res_vi = vec_vaddsws(vbi, vi); // CHECK: @llvm.ppc.altivec.vaddsws
146 res_vi = vec_vaddsws(vi, vbi); // CHECK: @llvm.ppc.altivec.vaddsws
148 res_vui = vec_vadduws(vbi, vui); // CHECK: @llvm.ppc.altivec.vadduws
149 res_vui = vec_vadduws(vui, vbi); // CHECK: @llvm.ppc.altivec.vadduws
167 res_vi = vec_and(vbi, vi); // CHECK: and <4 x i32>
168 res_vi = vec_and(vi, vbi); // CHECK: and <4 x i32>
170 res_vui = vec_and(vbi, vui); // CHECK: and <4 x i32>
171 res_vui = vec_and(vui, vbi); // CHECK: and <4 x i32>
172 res_vbi = vec_and(vbi, vbi); // CHECK: and <4 x i32>
188 res_vi = vec_vand(vbi, vi); // CHECK: and <4 x i32>
189 res_vi = vec_vand(vi, vbi); // CHECK: and <4 x i32>
191 res_vui = vec_vand(vbi, vui); // CHECK: and <4 x i32>
192 res_vui = vec_vand(vui, vbi); // CHECK: and <4 x i32>
193 res_vbi = vec_vand(vbi, vbi); // CHECK: and <4 x i32>
241 res_vi = vec_andc(vbi, vi); // CHECK: xor <4 x i32>
244 res_vi = vec_andc(vi, vbi); // CHECK: xor <4 x i32>
250 res_vui = vec_andc(vbi, vui); // CHECK: xor <4 x i32>
253 res_vui = vec_andc(vui, vbi); // CHECK: xor <4 x i32>
259 res_vf = vec_andc(vbi, vf); // CHECK: xor <4 x i32>
262 res_vf = vec_andc(vf, vbi); // CHECK: xor <4 x i32>
310 res_vi = vec_vandc(vbi, vi); // CHECK: xor <4 x i32>
313 res_vi = vec_vandc(vi, vbi); // CHECK: xor <4 x i32>
319 res_vui = vec_vandc(vbi, vui); // CHECK: xor <4 x i32>
322 res_vui = vec_vandc(vui, vbi); // CHECK: xor <4 x i32>
328 res_vf = vec_vandc(vbi, vf); // CHECK: xor <4 x i32>
331 res_vf = vec_vandc(vf, vbi); // CHECK: xor <4 x i32>
464 res_vbi = vec_ld(0, &vbi); // CHECK: @llvm.ppc.altivec.lvx
482 res_vbi = vec_lvx(0, &vbi); // CHECK: @llvm.ppc.altivec.lvx
518 res_vbi = vec_ldl(0, &vbi); // CHECK: @llvm.ppc.altivec.lvxl
536 res_vbi = vec_lvxl(0, &vbi); // CHECK: @llvm.ppc.altivec.lvxl
572 res_vi = vec_max(vbi, vi); // CHECK: @llvm.ppc.altivec.vmaxsw
573 res_vi = vec_max(vi, vbi); // CHECK: @llvm.ppc.altivec.vmaxsw
575 res_vui = vec_max(vbi, vui); // CHECK: @llvm.ppc.altivec.vmaxuw
576 res_vui = vec_max(vui, vbi); // CHECK: @llvm.ppc.altivec.vmaxuw
591 res_vi = vec_vmaxsw(vbi, vi); // CHECK: @llvm.ppc.altivec.vmaxsw
592 res_vi = vec_vmaxsw(vi, vbi); // CHECK: @llvm.ppc.altivec.vmaxsw
594 res_vui = vec_vmaxuw(vbi, vui); // CHECK: @llvm.ppc.altivec.vmaxuw
595 res_vui = vec_vmaxuw(vui, vbi); // CHECK: @llvm.ppc.altivec.vmaxuw
608 res_vbi = vec_mergeh(vbi, vbi); // CHECK: @llvm.ppc.altivec.vperm
619 res_vbi = vec_vmrghw(vbi, vbi); // CHECK: @llvm.ppc.altivec.vperm
632 res_vbi = vec_mergel(vbi, vbi); // CHECK: @llvm.ppc.altivec.vperm
643 res_vbi = vec_vmrglw(vbi, vbi); // CHECK: @llvm.ppc.altivec.vperm
663 res_vi = vec_min(vbi, vi); // CHECK: @llvm.ppc.altivec.vminsw
664 res_vi = vec_min(vi, vbi); // CHECK: @llvm.ppc.altivec.vminsw
666 res_vui = vec_min(vbi, vui); // CHECK: @llvm.ppc.altivec.vminuw
667 res_vui = vec_min(vui, vbi); // CHECK: @llvm.ppc.altivec.vminuw
682 res_vi = vec_vminsw(vbi, vi); // CHECK: @llvm.ppc.altivec.vminsw
683 res_vi = vec_vminsw(vi, vbi); // CHECK: @llvm.ppc.altivec.vminsw
685 res_vui = vec_vminuw(vbi, vui); // CHECK: @llvm.ppc.altivec.vminuw
686 res_vui = vec_vminuw(vui, vbi); // CHECK: @llvm.ppc.altivec.vminuw
732 vec_mtvscr(vbi); // CHECK: @llvm.ppc.altivec.mtvscr
783 res_vui = vec_nor(vbi, vbi); // CHECK: or <4 x i32>
813 res_vui = vec_vnor(vbi, vbi); // CHECK: or <4 x i32>
835 res_vi = vec_or(vbi, vi); // CHECK: or <4 x i32>
836 res_vi = vec_or(vi, vbi); // CHECK: or <4 x i32>
838 res_vui = vec_or(vbi, vui); // CHECK: or <4 x i32>
839 res_vui = vec_or(vui, vbi); // CHECK: or <4 x i32>
840 res_vbi = vec_or(vbi, vbi); // CHECK: or <4 x i32>
842 res_vf = vec_or(vbi, vf); // CHECK: or <4 x i32>
843 res_vf = vec_or(vf, vbi); // CHECK: or <4 x i32>
859 res_vi = vec_vor(vbi, vi); // CHECK: or <4 x i32>
860 res_vi = vec_vor(vi, vbi); // CHECK: or <4 x i32>
862 res_vui = vec_vor(vbi, vui); // CHECK: or <4 x i32>
863 res_vui = vec_vor(vui, vbi); // CHECK: or <4 x i32>
864 res_vbi = vec_vor(vbi, vbi); // CHECK: or <4 x i32>
866 res_vf = vec_vor(vbi, vf); // CHECK: or <4 x i32>
867 res_vf = vec_vor(vf, vbi); // CHECK: or <4 x i32>
875 res_vbs = vec_pack(vbi, vbi); // CHECK: @llvm.ppc.altivec.vperm
881 res_vbs = vec_vpkuwum(vbi, vbi); // CHECK: @llvm.ppc.altivec.vperm
917 res_vbi = vec_perm(vbi, vbi, vuc); // CHECK: @llvm.ppc.altivec.vperm
928 res_vbi = vec_vperm(vbi, vbi, vuc); // CHECK: @llvm.ppc.altivec.vperm
1023 res_vi = vec_sel(vi, vi, vbi); // CHECK: xor <4 x i32>
1033 res_vui = vec_sel(vui, vui, vbi); // CHECK: xor <4 x i32>
1038 res_vbi = vec_sel(vbi, vbi, vui); // CHECK: xor <4 x i32>
1043 res_vbi = vec_sel(vbi, vbi, vbi); // CHECK: xor <4 x i32>
1053 res_vf = vec_sel(vf, vf, vbi); // CHECK: xor <4 x i32>
1123 res_vi = vec_vsel(vi, vi, vbi); // CHECK: xor <4 x i32>
1133 res_vui = vec_vsel(vui, vui, vbi); // CHECK: xor <4 x i32>
1138 res_vbi = vec_vsel(vbi, vbi, vui); // CHECK: xor <4 x i32>
1143 res_vbi = vec_vsel(vbi, vbi, vbi); // CHECK: xor <4 x i32>
1153 res_vf = vec_vsel(vf, vf, vbi); // CHECK: xor <4 x i32>
1218 res_vbi = vec_sll(vbi, vuc); // CHECK: @llvm.ppc.altivec.vsl
1219 res_vbi = vec_sll(vbi, vus); // CHECK: @llvm.ppc.altivec.vsl
1220 res_vbi = vec_sll(vbi, vui); // CHECK: @llvm.ppc.altivec.vsl
1248 res_vbi = vec_vsl(vbi, vuc); // CHECK: @llvm.ppc.altivec.vsl
1249 res_vbi = vec_vsl(vbi, vus); // CHECK: @llvm.ppc.altivec.vsl
1250 res_vbi = vec_vsl(vbi, vui); // CHECK: @llvm.ppc.altivec.vsl
1296 res_vbi = vec_splat(vbi, 0); // CHECK: @llvm.ppc.altivec.vperm
1307 res_vbi = vec_vspltw(vbi, 0); // CHECK: @llvm.ppc.altivec.vperm
1387 res_vbi = vec_srl(vbi, vuc); // CHECK: @llvm.ppc.altivec.vsr
1388 res_vbi = vec_srl(vbi, vus); // CHECK: @llvm.ppc.altivec.vsr
1389 res_vbi = vec_srl(vbi, vui); // CHECK: @llvm.ppc.altivec.vsr
1417 res_vbi = vec_vsr(vbi, vuc); // CHECK: @llvm.ppc.altivec.vsr
1418 res_vbi = vec_vsr(vbi, vus); // CHECK: @llvm.ppc.altivec.vsr
1419 res_vbi = vec_vsr(vbi, vui); // CHECK: @llvm.ppc.altivec.vsr
1477 vec_st(vbi, 0, &param_i); // CHECK: @llvm.ppc.altivec.stvx
1478 vec_st(vbi, 0, &param_ui); // CHECK: @llvm.ppc.altivec.stvx
1479 vec_st(vbi, 0, &vbi); // CHECK: @llvm.ppc.altivec.stvx
1503 vec_stvx(vbi, 0, &param_i); // CHECK: @llvm.ppc.altivec.stvx
1504 vec_stvx(vbi, 0, &param_ui); // CHECK: @llvm.ppc.altivec.stvx
1505 vec_stvx(vbi, 0, &vbi); // CHECK: @llvm.ppc.altivec.stvx
1522 vec_ste(vbi, 0, &param_i); // CHECK: @llvm.ppc.altivec.stvewx
1523 vec_ste(vbi, 0, &param_ui); // CHECK: @llvm.ppc.altivec.stvewx
1537 vec_stvewx(vbi, 0, &param_i); // CHECK: @llvm.ppc.altivec.stvewx
1538 vec_stvewx(vbi, 0, &param_ui); // CHECK: @llvm.ppc.altivec.stvewx
1563 vec_stl(vbi, 0, &param_i); // CHECK: @llvm.ppc.altivec.stvxl
1564 vec_stl(vbi, 0, &param_ui); // CHECK: @llvm.ppc.altivec.stvxl
1565 vec_stl(vbi, 0, &vbi); // CHECK: @llvm.ppc.altivec.stvxl
1589 vec_stvxl(vbi, 0, &param_i); // CHECK: @llvm.ppc.altivec.stvxl
1590 vec_stvxl(vbi, 0, &param_ui); // CHECK: @llvm.ppc.altivec.stvxl
1591 vec_stvxl(vbi, 0, &vbi); // CHECK: @llvm.ppc.altivec.stvxl
1609 res_vi = vec_sub(vbi, vi); // CHECK: sub <4 x i32>
1610 res_vi = vec_sub(vi, vbi); // CHECK: sub <4 x i32>
1612 res_vui = vec_sub(vbi, vui); // CHECK: sub <4 x i32>
1613 res_vui = vec_sub(vui, vbi); // CHECK: sub <4 x i32>
1628 res_vi = vec_vsubuwm(vbi, vi); // CHECK: sub <4 x i32>
1629 res_vi = vec_vsubuwm(vi, vbi); // CHECK: sub <4 x i32>
1631 res_vui = vec_vsubuwm(vbi, vui); // CHECK: sub <4 x i32>
1632 res_vui = vec_vsubuwm(vui, vbi); // CHECK: sub <4 x i32>
1653 res_vi = vec_subs(vbi, vi); // CHECK: @llvm.ppc.altivec.vsubsws
1654 res_vi = vec_subs(vi, vbi); // CHECK: @llvm.ppc.altivec.vsubsws
1656 res_vui = vec_subs(vbi, vui); // CHECK: @llvm.ppc.altivec.vsubuws
1657 res_vui = vec_subs(vui, vbi); // CHECK: @llvm.ppc.altivec.vsubuws
1671 res_vi = vec_vsubsws(vbi, vi); // CHECK: @llvm.ppc.altivec.vsubsws
1672 res_vi = vec_vsubsws(vi, vbi); // CHECK: @llvm.ppc.altivec.vsubsws
1674 res_vui = vec_vsubuws(vbi, vui); // CHECK: @llvm.ppc.altivec.vsubuws
1675 res_vui = vec_vsubuws(vui, vbi); // CHECK: @llvm.ppc.altivec.vsubuws
1737 res_vi = vec_xor(vbi, vi); // CHECK: xor <4 x i32>
1738 res_vi = vec_xor(vi, vbi); // CHECK: xor <4 x i32>
1740 res_vui = vec_xor(vbi, vui); // CHECK: xor <4 x i32>
1741 res_vui = vec_xor(vui, vbi); // CHECK: xor <4 x i32>
1742 res_vbi = vec_xor(vbi, vbi); // CHECK: xor <4 x i32>
1744 res_vf = vec_xor(vbi, vf); // CHECK: xor <4 x i32>
1745 res_vf = vec_xor(vf, vbi); // CHECK: xor <4 x i32>
1761 res_vi = vec_vxor(vbi, vi); // CHECK: xor <4 x i32>
1762 res_vi = vec_vxor(vi, vbi); // CHECK: xor <4 x i32>
1764 res_vui = vec_vxor(vbi, vui); // CHECK: xor <4 x i32>
1765 res_vui = vec_vxor(vui, vbi); // CHECK: xor <4 x i32>
1766 res_vbi = vec_vxor(vbi, vbi); // CHECK: xor <4 x i32>
1768 res_vf = vec_vxor(vbi, vf); // CHECK: xor <4 x i32>
1769 res_vf = vec_vxor(vf, vbi
1867 res_vbi = vec_lvlx(0, &vbi); // CHECK: @llvm.ppc.altivec.lvx
1953 res_vbi = vec_lvlxl(0, &vbi); // CHECK: @llvm.ppc.altivec.lvxl
2039 res_vbi = vec_lvrx(0, &vbi); // CHECK: store <4 x i32> zeroinitializer
2125 res_vbi = vec_lvrxl(0, &vbi); // CHECK: store <4 x i32> zeroinitializer
2256 vec_stvlx(vbi, 0, &vbi); // CHECK: store <4 x i32> zeroinitializer
2393 vec_stvlxl(vbi, 0, &vbi); // CHECK: store <4 x i32> zeroinitializer
2530 vec_stvrx(vbi, 0, &vbi); // CHECK: @llvm.ppc.altivec.lvx
2667 vec_stvrxl(vbi, 0, &vbi); // CHECK: @llvm.ppc.altivec.lvx
2739 res_i = vec_all_eq(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2741 res_i = vec_all_eq(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2742 res_i = vec_all_eq(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2743 res_i = vec_all_eq(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2744 res_i = vec_all_eq(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2763 res_i = vec_all_ge(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
2765 res_i = vec_all_ge(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2766 res_i = vec_all_ge(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2767 res_i = vec_all_ge(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2768 res_i = vec_all_ge(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2787 res_i = vec_all_gt(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
2789 res_i = vec_all_gt(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2790 res_i = vec_all_gt(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2791 res_i = vec_all_gt(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2792 res_i = vec_all_gt(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2814 res_i = vec_all_le(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
2816 res_i = vec_all_le(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2817 res_i = vec_all_le(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2818 res_i = vec_all_le(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2819 res_i = vec_all_le(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2838 res_i = vec_all_lt(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
2840 res_i = vec_all_lt(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2841 res_i = vec_all_lt(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2842 res_i = vec_all_lt(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2843 res_i = vec_all_lt(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2866 res_i = vec_all_ne(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2868 res_i = vec_all_ne(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2869 res_i = vec_all_ne(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2870 res_i = vec_all_ne(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2871 res_i = vec_all_ne(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2906 res_i = vec_any_eq(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2908 res_i = vec_any_eq(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2909 res_i = vec_any_eq(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2910 res_i = vec_any_eq(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2911 res_i = vec_any_eq(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
2930 res_i = vec_any_ge(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
2932 res_i = vec_any_ge(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2933 res_i = vec_any_ge(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2934 res_i = vec_any_ge(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2935 res_i = vec_any_ge(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2954 res_i = vec_any_gt(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
2956 res_i = vec_any_gt(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2957 res_i = vec_any_gt(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2958 res_i = vec_any_gt(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2959 res_i = vec_any_gt(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2978 res_i = vec_any_le(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
2980 res_i = vec_any_le(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2981 res_i = vec_any_le(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2982 res_i = vec_any_le(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
2983 res_i = vec_any_le(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
3002 res_i = vec_any_lt(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtsw.p
3004 res_i = vec_any_lt(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
3005 res_i = vec_any_lt(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
3006 res_i = vec_any_lt(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
3007 res_i = vec_any_lt(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpgtuw.p
3030 res_i = vec_any_ne(vi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
3032 res_i = vec_any_ne(vui, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
3033 res_i = vec_any_ne(vbi, vi); // CHECK: @llvm.ppc.altivec.vcmpequw.p
3034 res_i = vec_any_ne(vbi, vui); // CHECK: @llvm.ppc.altivec.vcmpequw.p
3035 res_i = vec_any_ne(vbi, vbi); // CHECK: @llvm.ppc.altivec.vcmpequw.p