Home | History | Annotate | Download | only in CodeGen
      1 // REQUIRES: systemz-registered-target
      2 // RUN: %clang_cc1 -target-cpu z13 -triple s390x-ibm-linux -fno-lax-vector-conversions \
      3 // RUN: -Wall -Wno-unused -Werror -emit-llvm %s -o - | FileCheck %s
      4 
      5 typedef __attribute__((vector_size(16))) signed char vec_schar;
      6 typedef __attribute__((vector_size(16))) signed short vec_sshort;
      7 typedef __attribute__((vector_size(16))) signed int vec_sint;
      8 typedef __attribute__((vector_size(16))) signed long long vec_slong;
      9 typedef __attribute__((vector_size(16))) unsigned char vec_uchar;
     10 typedef __attribute__((vector_size(16))) unsigned short vec_ushort;
     11 typedef __attribute__((vector_size(16))) unsigned int vec_uint;
     12 typedef __attribute__((vector_size(16))) unsigned long long vec_ulong;
     13 typedef __attribute__((vector_size(16))) double vec_double;
     14 
     15 volatile vec_schar vsc;
     16 volatile vec_sshort vss;
     17 volatile vec_sint vsi;
     18 volatile vec_slong vsl;
     19 volatile vec_uchar vuc;
     20 volatile vec_ushort vus;
     21 volatile vec_uint vui;
     22 volatile vec_ulong vul;
     23 volatile vec_double vd;
     24 
     25 volatile unsigned int len;
     26 const void * volatile cptr;
     27 void * volatile ptr;
     28 int cc;
     29 
     30 void test_core(void) {
     31   len = __builtin_s390_lcbb(cptr, 0);
     32   // CHECK: call i32 @llvm.s390.lcbb(i8* %{{.*}}, i32 0)
     33   len = __builtin_s390_lcbb(cptr, 15);
     34   // CHECK: call i32 @llvm.s390.lcbb(i8* %{{.*}}, i32 15)
     35 
     36   vsc = __builtin_s390_vlbb(cptr, 0);
     37   // CHECK: call <16 x i8> @llvm.s390.vlbb(i8* %{{.*}}, i32 0)
     38   vsc = __builtin_s390_vlbb(cptr, 15);
     39   // CHECK: call <16 x i8> @llvm.s390.vlbb(i8* %{{.*}}, i32 15)
     40 
     41   vsc = __builtin_s390_vll(len, cptr);
     42   // CHECK: call <16 x i8> @llvm.s390.vll(i32 %{{.*}}, i8* %{{.*}})
     43 
     44   vul = __builtin_s390_vpdi(vul, vul, 0);
     45   // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
     46   vul = __builtin_s390_vpdi(vul, vul, 15);
     47   // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 15)
     48 
     49   vuc = __builtin_s390_vperm(vuc, vuc, vuc);
     50   // CHECK: call <16 x i8> @llvm.s390.vperm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
     51 
     52   vuc = __builtin_s390_vpklsh(vus, vus);
     53   // CHECK: call <16 x i8> @llvm.s390.vpklsh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
     54   vus = __builtin_s390_vpklsf(vui, vui);
     55   // CHECK: call <8 x i16> @llvm.s390.vpklsf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
     56   vui = __builtin_s390_vpklsg(vul, vul);
     57   // CHECK: call <4 x i32> @llvm.s390.vpklsg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
     58 
     59   vuc = __builtin_s390_vpklshs(vus, vus, &cc);
     60   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpklshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
     61   vus = __builtin_s390_vpklsfs(vui, vui, &cc);
     62   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpklsfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
     63   vui = __builtin_s390_vpklsgs(vul, vul, &cc);
     64   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpklsgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
     65 
     66   vsc = __builtin_s390_vpksh(vss, vss);
     67   // CHECK: call <16 x i8> @llvm.s390.vpksh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
     68   vss = __builtin_s390_vpksf(vsi, vsi);
     69   // CHECK: call <8 x i16> @llvm.s390.vpksf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
     70   vsi = __builtin_s390_vpksg(vsl, vsl);
     71   // CHECK: call <4 x i32> @llvm.s390.vpksg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
     72 
     73   vsc = __builtin_s390_vpkshs(vss, vss, &cc);
     74   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpkshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
     75   vss = __builtin_s390_vpksfs(vsi, vsi, &cc);
     76   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpksfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
     77   vsi = __builtin_s390_vpksgs(vsl, vsl, &cc);
     78   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpksgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
     79 
     80   __builtin_s390_vstl(vsc, len, ptr);
     81   // CHECK: call void @llvm.s390.vstl(<16 x i8> %{{.*}}, i32 %{{.*}}, i8* %{{.*}})
     82 
     83   vss = __builtin_s390_vuphb(vsc);
     84   // CHECK: call <8 x i16> @llvm.s390.vuphb(<16 x i8> %{{.*}})
     85   vsi = __builtin_s390_vuphh(vss);
     86   // CHECK: call <4 x i32> @llvm.s390.vuphh(<8 x i16> %{{.*}})
     87   vsl = __builtin_s390_vuphf(vsi);
     88   // CHECK: call <2 x i64> @llvm.s390.vuphf(<4 x i32> %{{.*}})
     89 
     90   vss = __builtin_s390_vuplb(vsc);
     91   // CHECK: call <8 x i16> @llvm.s390.vuplb(<16 x i8> %{{.*}})
     92   vsi = __builtin_s390_vuplhw(vss);
     93   // CHECK: call <4 x i32> @llvm.s390.vuplhw(<8 x i16> %{{.*}})
     94   vsl = __builtin_s390_vuplf(vsi);
     95   // CHECK: call <2 x i64> @llvm.s390.vuplf(<4 x i32> %{{.*}})
     96 
     97   vus = __builtin_s390_vuplhb(vuc);
     98   // CHECK: call <8 x i16> @llvm.s390.vuplhb(<16 x i8> %{{.*}})
     99   vui = __builtin_s390_vuplhh(vus);
    100   // CHECK: call <4 x i32> @llvm.s390.vuplhh(<8 x i16> %{{.*}})
    101   vul = __builtin_s390_vuplhf(vui);
    102   // CHECK: call <2 x i64> @llvm.s390.vuplhf(<4 x i32> %{{.*}})
    103 
    104   vus = __builtin_s390_vupllb(vuc);
    105   // CHECK: call <8 x i16> @llvm.s390.vupllb(<16 x i8> %{{.*}})
    106   vui = __builtin_s390_vupllh(vus);
    107   // CHECK: call <4 x i32> @llvm.s390.vupllh(<8 x i16> %{{.*}})
    108   vul = __builtin_s390_vupllf(vui);
    109   // CHECK: call <2 x i64> @llvm.s390.vupllf(<4 x i32> %{{.*}})
    110 }
    111 
    112 void test_integer(void) {
    113   vuc = __builtin_s390_vaq(vuc, vuc);
    114   // CHECK: call <16 x i8> @llvm.s390.vaq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    115   vuc = __builtin_s390_vacq(vuc, vuc, vuc);
    116   // CHECK: call <16 x i8> @llvm.s390.vacq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    117   vuc = __builtin_s390_vaccq(vuc, vuc);
    118   // CHECK: call <16 x i8> @llvm.s390.vaccq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    119   vuc = __builtin_s390_vacccq(vuc, vuc, vuc);
    120   // CHECK: call <16 x i8> @llvm.s390.vacccq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    121 
    122   vuc = __builtin_s390_vaccb(vuc, vuc);
    123   // CHECK: call <16 x i8> @llvm.s390.vaccb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    124   vus = __builtin_s390_vacch(vus, vus);
    125   // CHECK: call <8 x i16> @llvm.s390.vacch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    126   vui = __builtin_s390_vaccf(vui, vui);
    127   // CHECK: call <4 x i32> @llvm.s390.vaccf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    128   vul = __builtin_s390_vaccg(vul, vul);
    129   // CHECK: call <2 x i64> @llvm.s390.vaccg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    130 
    131   vsc = __builtin_s390_vavgb(vsc, vsc);
    132   // CHECK: call <16 x i8> @llvm.s390.vavgb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    133   vss = __builtin_s390_vavgh(vss, vss);
    134   // CHECK: call <8 x i16> @llvm.s390.vavgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    135   vsi = __builtin_s390_vavgf(vsi, vsi);
    136   // CHECK: call <4 x i32> @llvm.s390.vavgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    137   vsl = __builtin_s390_vavgg(vsl, vsl);
    138   // CHECK: call <2 x i64> @llvm.s390.vavgg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    139 
    140   vuc = __builtin_s390_vavglb(vuc, vuc);
    141   // CHECK: call <16 x i8> @llvm.s390.vavglb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    142   vus = __builtin_s390_vavglh(vus, vus);
    143   // CHECK: call <8 x i16> @llvm.s390.vavglh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    144   vui = __builtin_s390_vavglf(vui, vui);
    145   // CHECK: call <4 x i32> @llvm.s390.vavglf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    146   vul = __builtin_s390_vavglg(vul, vul);
    147   // CHECK: call <2 x i64> @llvm.s390.vavglg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    148 
    149   vui = __builtin_s390_vcksm(vui, vui);
    150   // CHECK: call <4 x i32> @llvm.s390.vcksm(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    151 
    152   vuc = __builtin_s390_vclzb(vuc);
    153   // CHECK: call <16 x i8> @llvm.ctlz.v16i8(<16 x i8> %{{.*}}, i1 false)
    154   vus = __builtin_s390_vclzh(vus);
    155   // CHECK: call <8 x i16> @llvm.ctlz.v8i16(<8 x i16> %{{.*}}, i1 false)
    156   vui = __builtin_s390_vclzf(vui);
    157   // CHECK: call <4 x i32> @llvm.ctlz.v4i32(<4 x i32> %{{.*}}, i1 false)
    158   vul = __builtin_s390_vclzg(vul);
    159   // CHECK: call <2 x i64> @llvm.ctlz.v2i64(<2 x i64> %{{.*}}, i1 false)
    160 
    161   vuc = __builtin_s390_vctzb(vuc);
    162   // CHECK: call <16 x i8> @llvm.cttz.v16i8(<16 x i8> %{{.*}}, i1 false)
    163   vus = __builtin_s390_vctzh(vus);
    164   // CHECK: call <8 x i16> @llvm.cttz.v8i16(<8 x i16> %{{.*}}, i1 false)
    165   vui = __builtin_s390_vctzf(vui);
    166   // CHECK: call <4 x i32> @llvm.cttz.v4i32(<4 x i32> %{{.*}}, i1 false)
    167   vul = __builtin_s390_vctzg(vul);
    168   // CHECK: call <2 x i64> @llvm.cttz.v2i64(<2 x i64> %{{.*}}, i1 false)
    169 
    170   vuc = __builtin_s390_verimb(vuc, vuc, vuc, 0);
    171   // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    172   vuc = __builtin_s390_verimb(vuc, vuc, vuc, 255);
    173   // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 255)
    174   vus = __builtin_s390_verimh(vus, vus, vus, 0);
    175   // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    176   vus = __builtin_s390_verimh(vus, vus, vus, 255);
    177   // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 255)
    178   vui = __builtin_s390_verimf(vui, vui, vui, 0);
    179   // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    180   vui = __builtin_s390_verimf(vui, vui, vui, 255);
    181   // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 255)
    182   vul = __builtin_s390_verimg(vul, vul, vul, 0);
    183   // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
    184   vul = __builtin_s390_verimg(vul, vul, vul, 255);
    185   // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 255)
    186 
    187   vuc = __builtin_s390_verllb(vuc, len);
    188   // CHECK: call <16 x i8> @llvm.s390.verllb(<16 x i8> %{{.*}}, i32 %{{.*}})
    189   vus = __builtin_s390_verllh(vus, len);
    190   // CHECK: call <8 x i16> @llvm.s390.verllh(<8 x i16> %{{.*}}, i32 %{{.*}})
    191   vui = __builtin_s390_verllf(vui, len);
    192   // CHECK: call <4 x i32> @llvm.s390.verllf(<4 x i32> %{{.*}}, i32 %{{.*}})
    193   vul = __builtin_s390_verllg(vul, len);
    194   // CHECK: call <2 x i64> @llvm.s390.verllg(<2 x i64> %{{.*}}, i32 %{{.*}})
    195 
    196   vuc = __builtin_s390_verllvb(vuc, vuc);
    197   // CHECK: call <16 x i8> @llvm.s390.verllvb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    198   vus = __builtin_s390_verllvh(vus, vus);
    199   // CHECK: call <8 x i16> @llvm.s390.verllvh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    200   vui = __builtin_s390_verllvf(vui, vui);
    201   // CHECK: call <4 x i32> @llvm.s390.verllvf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    202   vul = __builtin_s390_verllvg(vul, vul);
    203   // CHECK: call <2 x i64> @llvm.s390.verllvg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    204 
    205   vus = __builtin_s390_vgfmb(vuc, vuc);
    206   // CHECK: call <8 x i16> @llvm.s390.vgfmb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    207   vui = __builtin_s390_vgfmh(vus, vus);
    208   // CHECK: call <4 x i32> @llvm.s390.vgfmh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    209   vul = __builtin_s390_vgfmf(vui, vui);
    210   // CHECK: call <2 x i64> @llvm.s390.vgfmf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    211   vuc = __builtin_s390_vgfmg(vul, vul);
    212   // CHECK: call <16 x i8> @llvm.s390.vgfmg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    213 
    214   vus = __builtin_s390_vgfmab(vuc, vuc, vus);
    215   // CHECK: call <8 x i16> @llvm.s390.vgfmab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
    216   vui = __builtin_s390_vgfmah(vus, vus, vui);
    217   // CHECK: call <4 x i32> @llvm.s390.vgfmah(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
    218   vul = __builtin_s390_vgfmaf(vui, vui, vul);
    219   // CHECK: call <2 x i64> @llvm.s390.vgfmaf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
    220   vuc = __builtin_s390_vgfmag(vul, vul, vuc);
    221   // CHECK: call <16 x i8> @llvm.s390.vgfmag(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <16 x i8> %{{.*}})
    222 
    223   vsc = __builtin_s390_vmahb(vsc, vsc, vsc);
    224   // CHECK: call <16 x i8> @llvm.s390.vmahb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    225   vss = __builtin_s390_vmahh(vss, vss, vss);
    226   // CHECK: call <8 x i16> @llvm.s390.vmahh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    227   vsi = __builtin_s390_vmahf(vsi, vsi, vsi);
    228   // CHECK: call <4 x i32> @llvm.s390.vmahf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    229   vuc = __builtin_s390_vmalhb(vuc, vuc, vuc);
    230   // CHECK: call <16 x i8> @llvm.s390.vmalhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    231   vus = __builtin_s390_vmalhh(vus, vus, vus);
    232   // CHECK: call <8 x i16> @llvm.s390.vmalhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    233   vui = __builtin_s390_vmalhf(vui, vui, vui);
    234   // CHECK: call <4 x i32> @llvm.s390.vmalhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    235 
    236   vss = __builtin_s390_vmaeb(vsc, vsc, vss);
    237   // CHECK: call <8 x i16> @llvm.s390.vmaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
    238   vsi = __builtin_s390_vmaeh(vss, vss, vsi);
    239   // CHECK: call <4 x i32> @llvm.s390.vmaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
    240   vsl = __builtin_s390_vmaef(vsi, vsi, vsl);
    241   // CHECK: call <2 x i64> @llvm.s390.vmaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
    242   vus = __builtin_s390_vmaleb(vuc, vuc, vus);
    243   // CHECK: call <8 x i16> @llvm.s390.vmaleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
    244   vui = __builtin_s390_vmaleh(vus, vus, vui);
    245   // CHECK: call <4 x i32> @llvm.s390.vmaleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
    246   vul = __builtin_s390_vmalef(vui, vui, vul);
    247   // CHECK: call <2 x i64> @llvm.s390.vmalef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
    248 
    249   vss = __builtin_s390_vmaob(vsc, vsc, vss);
    250   // CHECK: call <8 x i16> @llvm.s390.vmaob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
    251   vsi = __builtin_s390_vmaoh(vss, vss, vsi);
    252   // CHECK: call <4 x i32> @llvm.s390.vmaoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
    253   vsl = __builtin_s390_vmaof(vsi, vsi, vsl);
    254   // CHECK: call <2 x i64> @llvm.s390.vmaof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
    255   vus = __builtin_s390_vmalob(vuc, vuc, vus);
    256   // CHECK: call <8 x i16> @llvm.s390.vmalob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
    257   vui = __builtin_s390_vmaloh(vus, vus, vui);
    258   // CHECK: call <4 x i32> @llvm.s390.vmaloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
    259   vul = __builtin_s390_vmalof(vui, vui, vul);
    260   // CHECK: call <2 x i64> @llvm.s390.vmalof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
    261 
    262   vsc = __builtin_s390_vmhb(vsc, vsc);
    263   // CHECK: call <16 x i8> @llvm.s390.vmhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    264   vss = __builtin_s390_vmhh(vss, vss);
    265   // CHECK: call <8 x i16> @llvm.s390.vmhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    266   vsi = __builtin_s390_vmhf(vsi, vsi);
    267   // CHECK: call <4 x i32> @llvm.s390.vmhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    268   vuc = __builtin_s390_vmlhb(vuc, vuc);
    269   // CHECK: call <16 x i8> @llvm.s390.vmlhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    270   vus = __builtin_s390_vmlhh(vus, vus);
    271   // CHECK: call <8 x i16> @llvm.s390.vmlhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    272   vui = __builtin_s390_vmlhf(vui, vui);
    273   // CHECK: call <4 x i32> @llvm.s390.vmlhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    274 
    275   vss = __builtin_s390_vmeb(vsc, vsc);
    276   // CHECK: call <8 x i16> @llvm.s390.vmeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    277   vsi = __builtin_s390_vmeh(vss, vss);
    278   // CHECK: call <4 x i32> @llvm.s390.vmeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    279   vsl = __builtin_s390_vmef(vsi, vsi);
    280   // CHECK: call <2 x i64> @llvm.s390.vmef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    281   vus = __builtin_s390_vmleb(vuc, vuc);
    282   // CHECK: call <8 x i16> @llvm.s390.vmleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    283   vui = __builtin_s390_vmleh(vus, vus);
    284   // CHECK: call <4 x i32> @llvm.s390.vmleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    285   vul = __builtin_s390_vmlef(vui, vui);
    286   // CHECK: call <2 x i64> @llvm.s390.vmlef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    287 
    288   vss = __builtin_s390_vmob(vsc, vsc);
    289   // CHECK: call <8 x i16> @llvm.s390.vmob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    290   vsi = __builtin_s390_vmoh(vss, vss);
    291   // CHECK: call <4 x i32> @llvm.s390.vmoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    292   vsl = __builtin_s390_vmof(vsi, vsi);
    293   // CHECK: call <2 x i64> @llvm.s390.vmof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    294   vus = __builtin_s390_vmlob(vuc, vuc);
    295   // CHECK: call <8 x i16> @llvm.s390.vmlob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    296   vui = __builtin_s390_vmloh(vus, vus);
    297   // CHECK: call <4 x i32> @llvm.s390.vmloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    298   vul = __builtin_s390_vmlof(vui, vui);
    299   // CHECK: call <2 x i64> @llvm.s390.vmlof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    300 
    301   vuc = __builtin_s390_vpopctb(vuc);
    302   // CHECK: call <16 x i8> @llvm.ctpop.v16i8(<16 x i8> %{{.*}})
    303   vus = __builtin_s390_vpopcth(vus);
    304   // CHECK: call <8 x i16> @llvm.ctpop.v8i16(<8 x i16> %{{.*}})
    305   vui = __builtin_s390_vpopctf(vui);
    306   // CHECK: call <4 x i32> @llvm.ctpop.v4i32(<4 x i32> %{{.*}})
    307   vul = __builtin_s390_vpopctg(vul);
    308   // CHECK: call <2 x i64> @llvm.ctpop.v2i64(<2 x i64> %{{.*}})
    309 
    310   vuc = __builtin_s390_vsq(vuc, vuc);
    311   // CHECK: call <16 x i8> @llvm.s390.vsq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    312   vuc = __builtin_s390_vsbiq(vuc, vuc, vuc);
    313   // CHECK: call <16 x i8> @llvm.s390.vsbiq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    314   vuc = __builtin_s390_vscbiq(vuc, vuc);
    315   // CHECK: call <16 x i8> @llvm.s390.vscbiq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    316   vuc = __builtin_s390_vsbcbiq(vuc, vuc, vuc);
    317   // CHECK: call <16 x i8> @llvm.s390.vsbcbiq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    318 
    319   vuc = __builtin_s390_vscbib(vuc, vuc);
    320   // CHECK: call <16 x i8> @llvm.s390.vscbib(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    321   vus = __builtin_s390_vscbih(vus, vus);
    322   // CHECK: call <8 x i16> @llvm.s390.vscbih(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    323   vui = __builtin_s390_vscbif(vui, vui);
    324   // CHECK: call <4 x i32> @llvm.s390.vscbif(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    325   vul = __builtin_s390_vscbig(vul, vul);
    326   // CHECK: call <2 x i64> @llvm.s390.vscbig(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    327 
    328   vuc = __builtin_s390_vsldb(vuc, vuc, 0);
    329   // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    330   vuc = __builtin_s390_vsldb(vuc, vuc, 15);
    331   // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    332 
    333   vuc = __builtin_s390_vsl(vuc, vuc);
    334   // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    335   vuc = __builtin_s390_vslb(vuc, vuc);
    336   // CHECK: call <16 x i8> @llvm.s390.vslb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    337 
    338   vuc = __builtin_s390_vsra(vuc, vuc);
    339   // CHECK: call <16 x i8> @llvm.s390.vsra(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    340   vuc = __builtin_s390_vsrab(vuc, vuc);
    341   // CHECK: call <16 x i8> @llvm.s390.vsrab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    342 
    343   vuc = __builtin_s390_vsrl(vuc, vuc);
    344   // CHECK: call <16 x i8> @llvm.s390.vsrl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    345   vuc = __builtin_s390_vsrlb(vuc, vuc);
    346   // CHECK: call <16 x i8> @llvm.s390.vsrlb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    347 
    348   vui = __builtin_s390_vsumb(vuc, vuc);
    349   // CHECK: call <4 x i32> @llvm.s390.vsumb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    350   vui = __builtin_s390_vsumh(vus, vus);
    351   // CHECK: call <4 x i32> @llvm.s390.vsumh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    352   vul = __builtin_s390_vsumgh(vus, vus);
    353   // CHECK: call <2 x i64> @llvm.s390.vsumgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    354   vul = __builtin_s390_vsumgf(vui, vui);
    355   // CHECK: call <2 x i64> @llvm.s390.vsumgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    356   vuc = __builtin_s390_vsumqf(vui, vui);
    357   // CHECK: call <16 x i8> @llvm.s390.vsumqf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    358   vuc = __builtin_s390_vsumqg(vul, vul);
    359   // CHECK: call <16 x i8> @llvm.s390.vsumqg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    360 
    361   len = __builtin_s390_vtm(vuc, vuc);
    362   // CHECK: call i32 @llvm.s390.vtm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    363 
    364   vsc = __builtin_s390_vceqbs(vsc, vsc, &cc);
    365   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vceqbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    366   vss = __builtin_s390_vceqhs(vss, vss, &cc);
    367   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vceqhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    368   vsi = __builtin_s390_vceqfs(vsi, vsi, &cc);
    369   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vceqfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    370   vsl = __builtin_s390_vceqgs(vsl, vsl, &cc);
    371   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vceqgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    372 
    373   vsc = __builtin_s390_vchbs(vsc, vsc, &cc);
    374   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    375   vss = __builtin_s390_vchhs(vss, vss, &cc);
    376   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    377   vsi = __builtin_s390_vchfs(vsi, vsi, &cc);
    378   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    379   vsl = __builtin_s390_vchgs(vsl, vsl, &cc);
    380   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    381 
    382   vsc = __builtin_s390_vchlbs(vuc, vuc, &cc);
    383   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchlbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    384   vss = __builtin_s390_vchlhs(vus, vus, &cc);
    385   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchlhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    386   vsi = __builtin_s390_vchlfs(vui, vui, &cc);
    387   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchlfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    388   vsl = __builtin_s390_vchlgs(vul, vul, &cc);
    389   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchlgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
    390 }
    391 
    392 void test_string(void) {
    393   vuc = __builtin_s390_vfaeb(vuc, vuc, 0);
    394   // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    395   vuc = __builtin_s390_vfaeb(vuc, vuc, 15);
    396   // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    397   vus = __builtin_s390_vfaeh(vus, vus, 0);
    398   // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    399   vus = __builtin_s390_vfaeh(vus, vus, 15);
    400   // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    401   vui = __builtin_s390_vfaef(vui, vui, 0);
    402   // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    403   vui = __builtin_s390_vfaef(vui, vui, 15);
    404   // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    405 
    406   vuc = __builtin_s390_vfaezb(vuc, vuc, 0);
    407   // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    408   vuc = __builtin_s390_vfaezb(vuc, vuc, 15);
    409   // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    410   vus = __builtin_s390_vfaezh(vus, vus, 0);
    411   // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    412   vus = __builtin_s390_vfaezh(vus, vus, 15);
    413   // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    414   vui = __builtin_s390_vfaezf(vui, vui, 0);
    415   // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    416   vui = __builtin_s390_vfaezf(vui, vui, 15);
    417   // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    418 
    419   vuc = __builtin_s390_vfeeb(vuc, vuc);
    420   // CHECK: call <16 x i8> @llvm.s390.vfeeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    421   vus = __builtin_s390_vfeeh(vus, vus);
    422   // CHECK: call <8 x i16> @llvm.s390.vfeeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    423   vui = __builtin_s390_vfeef(vui, vui);
    424   // CHECK: call <4 x i32> @llvm.s390.vfeef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    425 
    426   vuc = __builtin_s390_vfeezb(vuc, vuc);
    427   // CHECK: call <16 x i8> @llvm.s390.vfeezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    428   vus = __builtin_s390_vfeezh(vus, vus);
    429   // CHECK: call <8 x i16> @llvm.s390.vfeezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    430   vui = __builtin_s390_vfeezf(vui, vui);
    431   // CHECK: call <4 x i32> @llvm.s390.vfeezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    432 
    433   vuc = __builtin_s390_vfeneb(vuc, vuc);
    434   // CHECK: call <16 x i8> @llvm.s390.vfeneb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    435   vus = __builtin_s390_vfeneh(vus, vus);
    436   // CHECK: call <8 x i16> @llvm.s390.vfeneh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    437   vui = __builtin_s390_vfenef(vui, vui);
    438   // CHECK: call <4 x i32> @llvm.s390.vfenef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    439 
    440   vuc = __builtin_s390_vfenezb(vuc, vuc);
    441   // CHECK: call <16 x i8> @llvm.s390.vfenezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    442   vus = __builtin_s390_vfenezh(vus, vus);
    443   // CHECK: call <8 x i16> @llvm.s390.vfenezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    444   vui = __builtin_s390_vfenezf(vui, vui);
    445   // CHECK: call <4 x i32> @llvm.s390.vfenezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    446 
    447   vuc = __builtin_s390_vistrb(vuc);
    448   // CHECK: call <16 x i8> @llvm.s390.vistrb(<16 x i8> %{{.*}})
    449   vus = __builtin_s390_vistrh(vus);
    450   // CHECK: call <8 x i16> @llvm.s390.vistrh(<8 x i16> %{{.*}})
    451   vui = __builtin_s390_vistrf(vui);
    452   // CHECK: call <4 x i32> @llvm.s390.vistrf(<4 x i32> %{{.*}})
    453 
    454   vuc = __builtin_s390_vstrcb(vuc, vuc, vuc, 0);
    455   // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    456   vuc = __builtin_s390_vstrcb(vuc, vuc, vuc, 15);
    457   // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    458   vus = __builtin_s390_vstrch(vus, vus, vus, 0);
    459   // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    460   vus = __builtin_s390_vstrch(vus, vus, vus, 15);
    461   // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    462   vui = __builtin_s390_vstrcf(vui, vui, vui, 0);
    463   // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    464   vui = __builtin_s390_vstrcf(vui, vui, vui, 15);
    465   // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    466 
    467   vuc = __builtin_s390_vstrczb(vuc, vuc, vuc, 0);
    468   // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    469   vuc = __builtin_s390_vstrczb(vuc, vuc, vuc, 15);
    470   // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    471   vus = __builtin_s390_vstrczh(vus, vus, vus, 0);
    472   // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    473   vus = __builtin_s390_vstrczh(vus, vus, vus, 15);
    474   // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    475   vui = __builtin_s390_vstrczf(vui, vui, vui, 0);
    476   // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    477   vui = __builtin_s390_vstrczf(vui, vui, vui, 15);
    478   // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    479 
    480   vuc = __builtin_s390_vfaebs(vuc, vuc, 0, &cc);
    481   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    482   vuc = __builtin_s390_vfaebs(vuc, vuc, 15, &cc);
    483   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    484   vus = __builtin_s390_vfaehs(vus, vus, 0, &cc);
    485   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    486   vus = __builtin_s390_vfaehs(vus, vus, 15, &cc);
    487   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    488   vui = __builtin_s390_vfaefs(vui, vui, 0, &cc);
    489   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    490   vui = __builtin_s390_vfaefs(vui, vui, 15, &cc);
    491   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    492 
    493   vuc = __builtin_s390_vfaezbs(vuc, vuc, 0, &cc);
    494   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    495   vuc = __builtin_s390_vfaezbs(vuc, vuc, 15, &cc);
    496   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    497   vus = __builtin_s390_vfaezhs(vus, vus, 0, &cc);
    498   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    499   vus = __builtin_s390_vfaezhs(vus, vus, 15, &cc);
    500   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    501   vui = __builtin_s390_vfaezfs(vui, vui, 0, &cc);
    502   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    503   vui = __builtin_s390_vfaezfs(vui, vui, 15, &cc);
    504   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    505 
    506   vuc = __builtin_s390_vfeebs(vuc, vuc, &cc);
    507   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    508   vus = __builtin_s390_vfeehs(vus, vus, &cc);
    509   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    510   vui = __builtin_s390_vfeefs(vui, vui, &cc);
    511   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    512 
    513   vuc = __builtin_s390_vfeezbs(vuc, vuc, &cc);
    514   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    515   vus = __builtin_s390_vfeezhs(vus, vus, &cc);
    516   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    517   vui = __builtin_s390_vfeezfs(vui, vui, &cc);
    518   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    519 
    520   vuc = __builtin_s390_vfenebs(vuc, vuc, &cc);
    521   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    522   vus = __builtin_s390_vfenehs(vus, vus, &cc);
    523   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    524   vui = __builtin_s390_vfenefs(vui, vui, &cc);
    525   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    526 
    527   vuc = __builtin_s390_vfenezbs(vuc, vuc, &cc);
    528   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
    529   vus = __builtin_s390_vfenezhs(vus, vus, &cc);
    530   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
    531   vui = __builtin_s390_vfenezfs(vui, vui, &cc);
    532   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
    533 
    534   vuc = __builtin_s390_vistrbs(vuc, &cc);
    535   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vistrbs(<16 x i8> %{{.*}})
    536   vus = __builtin_s390_vistrhs(vus, &cc);
    537   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vistrhs(<8 x i16> %{{.*}})
    538   vui = __builtin_s390_vistrfs(vui, &cc);
    539   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vistrfs(<4 x i32> %{{.*}})
    540 
    541   vuc = __builtin_s390_vstrcbs(vuc, vuc, vuc, 0, &cc);
    542   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    543   vuc = __builtin_s390_vstrcbs(vuc, vuc, vuc, 15, &cc);
    544   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    545   vus = __builtin_s390_vstrchs(vus, vus, vus, 0, &cc);
    546   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    547   vus = __builtin_s390_vstrchs(vus, vus, vus, 15, &cc);
    548   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    549   vui = __builtin_s390_vstrcfs(vui, vui, vui, 0, &cc);
    550   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    551   vui = __builtin_s390_vstrcfs(vui, vui, vui, 15, &cc);
    552   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    553 
    554   vuc = __builtin_s390_vstrczbs(vuc, vuc, vuc, 0, &cc);
    555   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
    556   vuc = __builtin_s390_vstrczbs(vuc, vuc, vuc, 15, &cc);
    557   // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
    558   vus = __builtin_s390_vstrczhs(vus, vus, vus, 0, &cc);
    559   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
    560   vus = __builtin_s390_vstrczhs(vus, vus, vus, 15, &cc);
    561   // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
    562   vui = __builtin_s390_vstrczfs(vui, vui, vui, 0, &cc);
    563   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
    564   vui = __builtin_s390_vstrczfs(vui, vui, vui, 15, &cc);
    565   // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
    566 }
    567 
    568 void test_float(void) {
    569   vsl = __builtin_s390_vfcedbs(vd, vd, &cc);
    570   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfcedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
    571   vsl = __builtin_s390_vfchdbs(vd, vd, &cc);
    572   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchdbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
    573   vsl = __builtin_s390_vfchedbs(vd, vd, &cc);
    574   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
    575 
    576   vsl = __builtin_s390_vftcidb(vd, 0, &cc);
    577   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 0)
    578   vsl = __builtin_s390_vftcidb(vd, 4095, &cc);
    579   // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 4095)
    580 
    581   vd = __builtin_s390_vfsqdb(vd);
    582   // CHECK: call <2 x double> @llvm.sqrt.v2f64(<2 x double> %{{.*}})
    583 
    584   vd = __builtin_s390_vfmadb(vd, vd, vd);
    585   // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> %{{.*}})
    586   vd = __builtin_s390_vfmsdb(vd, vd, vd);
    587   // CHECK: [[NEG:%[^ ]+]] = fsub <2 x double> <double -0.000000e+00, double -0.000000e+00>, %{{.*}}
    588   // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> [[NEG]])
    589 
    590   vd = __builtin_s390_vflpdb(vd);
    591   // CHECK: call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
    592   vd = __builtin_s390_vflndb(vd);
    593   // CHECK: [[ABS:%[^ ]+]] = call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
    594   // CHECK: fsub <2 x double> <double -0.000000e+00, double -0.000000e+00>, [[ABS]]
    595 
    596   vd = __builtin_s390_vfidb(vd, 0, 0);
    597   // CHECK: call <2 x double> @llvm.rint.v2f64(<2 x double> %{{.*}})
    598   vd = __builtin_s390_vfidb(vd, 4, 0);
    599   // CHECK: call <2 x double> @llvm.nearbyint.v2f64(<2 x double> %{{.*}})
    600   vd = __builtin_s390_vfidb(vd, 4, 1);
    601   // CHECK: call <2 x double> @llvm.round.v2f64(<2 x double> %{{.*}})
    602   vd = __builtin_s390_vfidb(vd, 4, 5);
    603   // CHECK: call <2 x double> @llvm.trunc.v2f64(<2 x double> %{{.*}})
    604   vd = __builtin_s390_vfidb(vd, 4, 6);
    605   // CHECK: call <2 x double> @llvm.ceil.v2f64(<2 x double> %{{.*}})
    606   vd = __builtin_s390_vfidb(vd, 4, 7);
    607   // CHECK: call <2 x double> @llvm.floor.v2f64(<2 x double> %{{.*}})
    608   vd = __builtin_s390_vfidb(vd, 4, 4);
    609   // CHECK: call <2 x double> @llvm.s390.vfidb(<2 x double> %{{.*}}, i32 4, i32 4)
    610 }
    611