Home | History | Annotate | Download | only in X86
      1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
      2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx,+xop | FileCheck %s
      3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2,+xop | FileCheck %s
      4 
      5 define <4 x double> @pcmov_4f64(<4 x double> %a, <4 x double> %b, <4 x double> %m) {
      6 ; CHECK-LABEL: pcmov_4f64:
      7 ; CHECK:       # BB#0:
      8 ; CHECK-NEXT:    vpcmov %ymm2, %ymm1, %ymm0, %ymm0
      9 ; CHECK-NEXT:    retq
     10   %1 = bitcast <4 x double> %m to <4 x i64>
     11   %2 = bitcast <4 x double> %a to <4 x i64>
     12   %3 = and <4 x i64> %1, %2
     13   %4 = xor <4 x i64> %1, <i64 -1, i64 -1, i64 -1, i64 -1>
     14   %5 = bitcast <4 x double> %b to <4 x i64>
     15   %6 = and <4 x i64> %4, %5
     16   %7 = or <4 x i64> %3, %6
     17   %8 = bitcast <4 x i64> %7 to <4 x double>
     18   ret <4 x double> %8
     19 }
     20 
     21 define <2 x double> @pcmov_2f64(<2 x double> %a, <2 x double> %b, <2 x double> %m) {
     22 ; CHECK-LABEL: pcmov_2f64:
     23 ; CHECK:       # BB#0:
     24 ; CHECK-NEXT:    vpcmov %xmm2, %xmm1, %xmm0, %xmm0
     25 ; CHECK-NEXT:    retq
     26   %1 = bitcast <2 x double> %m to <2 x i64>
     27   %2 = bitcast <2 x double> %a to <2 x i64>
     28   %3 = and <2 x i64> %1, %2
     29   %4 = xor <2 x i64> %1, <i64 -1, i64 -1>
     30   %5 = bitcast <2 x double> %b to <2 x i64>
     31   %6 = and <2 x i64> %4, %5
     32   %7 = or <2 x i64> %3, %6
     33   %8 = bitcast <2 x i64> %7 to <2 x double>
     34   ret <2 x double> %8
     35 }
     36 
     37 define <8 x float> @pcmov_8f32(<8 x float> %a, <8 x float> %b, <8 x float> %m) {
     38 ; CHECK-LABEL: pcmov_8f32:
     39 ; CHECK:       # BB#0:
     40 ; CHECK-NEXT:    vpcmov %ymm2, %ymm1, %ymm0, %ymm0
     41 ; CHECK-NEXT:    retq
     42   %1 = bitcast <8 x float> %m to <8 x i32>
     43   %2 = bitcast <8 x float> %a to <8 x i32>
     44   %3 = and <8 x i32> %1, %2
     45   %4 = xor <8 x i32> %1, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1>
     46   %5 = bitcast <8 x float> %b to <8 x i32>
     47   %6 = and <8 x i32> %4, %5
     48   %7 = or <8 x i32> %3, %6
     49   %8 = bitcast <8 x i32> %7 to <8 x float>
     50   ret <8 x float> %8
     51 }
     52 
     53 define <4 x float> @pcmov_4f32(<4 x float> %a, <4 x float> %b, <4 x float> %m) {
     54 ; CHECK-LABEL: pcmov_4f32:
     55 ; CHECK:       # BB#0:
     56 ; CHECK-NEXT:    vpcmov %xmm2, %xmm1, %xmm0, %xmm0
     57 ; CHECK-NEXT:    retq
     58   %1 = bitcast <4 x float> %m to <4 x i32>
     59   %2 = bitcast <4 x float> %a to <4 x i32>
     60   %3 = and <4 x i32> %1, %2
     61   %4 = xor <4 x i32> %1, <i32 -1, i32 -1, i32 -1, i32 -1>
     62   %5 = bitcast <4 x float> %b to <4 x i32>
     63   %6 = and <4 x i32> %4, %5
     64   %7 = or <4 x i32> %3, %6
     65   %8 = bitcast <4 x i32> %7 to <4 x float>
     66   ret <4 x float> %8
     67 }
     68 
     69 define <4 x i64> @pcmov_4i64(<4 x i64> %a, <4 x i64> %b, <4 x i64> %m) {
     70 ; CHECK-LABEL: pcmov_4i64:
     71 ; CHECK:       # BB#0:
     72 ; CHECK-NEXT:    vpcmov %ymm2, %ymm1, %ymm0, %ymm0
     73 ; CHECK-NEXT:    retq
     74   %1 = and <4 x i64> %a, %m
     75   %2 = xor <4 x i64> %m, <i64 -1, i64 -1, i64 -1, i64 -1>
     76   %3 = and <4 x i64> %b, %2
     77   %4 = or <4 x i64> %1, %3
     78   ret <4 x i64> %4
     79 }
     80 
     81 define <2 x i64> @pcmov_2i64(<2 x i64> %a, <2 x i64> %b, <2 x i64> %m) {
     82 ; CHECK-LABEL: pcmov_2i64:
     83 ; CHECK:       # BB#0:
     84 ; CHECK-NEXT:    vpcmov %xmm2, %xmm1, %xmm0, %xmm0
     85 ; CHECK-NEXT:    retq
     86   %1 = and <2 x i64> %a, %m
     87   %2 = xor <2 x i64> %m, <i64 -1, i64 -1>
     88   %3 = and <2 x i64> %b, %2
     89   %4 = or <2 x i64> %1, %3
     90   ret <2 x i64> %4
     91 }
     92 
     93 define <8 x i32> @pcmov_8i32(<8 x i32> %a, <8 x i32> %b, <8 x i32> %m) {
     94 ; CHECK-LABEL: pcmov_8i32:
     95 ; CHECK:       # BB#0:
     96 ; CHECK-NEXT:    vpcmov %ymm2, %ymm1, %ymm0, %ymm0
     97 ; CHECK-NEXT:    retq
     98   %1 = and <8 x i32> %a, %m
     99   %2 = xor <8 x i32> %m, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1>
    100   %3 = and <8 x i32> %b, %2
    101   %4 = or <8 x i32> %1, %3
    102   ret <8 x i32> %4
    103 }
    104 
    105 define <4 x i32> @pcmov_4i32(<4 x i32> %a, <4 x i32> %b, <4 x i32> %m) {
    106 ; CHECK-LABEL: pcmov_4i32:
    107 ; CHECK:       # BB#0:
    108 ; CHECK-NEXT:    vpcmov %xmm2, %xmm1, %xmm0, %xmm0
    109 ; CHECK-NEXT:    retq
    110   %1 = and <4 x i32> %a, %m
    111   %2 = xor <4 x i32> %m, <i32 -1, i32 -1, i32 -1, i32 -1>
    112   %3 = and <4 x i32> %b, %2
    113   %4 = or <4 x i32> %1, %3
    114   ret <4 x i32> %4
    115 }
    116 
    117 define <16 x i16> @pcmov_16i16(<16 x i16> %a, <16 x i16> %b, <16 x i16> %m) {
    118 ; CHECK-LABEL: pcmov_16i16:
    119 ; CHECK:       # BB#0:
    120 ; CHECK-NEXT:    vpcmov %ymm2, %ymm1, %ymm0, %ymm0
    121 ; CHECK-NEXT:    retq
    122   %1 = and <16 x i16> %a, %m
    123   %2 = xor <16 x i16> %m, <i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1>
    124   %3 = and <16 x i16> %b, %2
    125   %4 = or <16 x i16> %1, %3
    126   ret <16 x i16> %4
    127 }
    128 
    129 define <8 x i16> @pcmov_8i16(<8 x i16> %a, <8 x i16> %b, <8 x i16> %m) {
    130 ; CHECK-LABEL: pcmov_8i16:
    131 ; CHECK:       # BB#0:
    132 ; CHECK-NEXT:    vpcmov %xmm2, %xmm1, %xmm0, %xmm0
    133 ; CHECK-NEXT:    retq
    134   %1 = and <8 x i16> %a, %m
    135   %2 = xor <8 x i16> %m, <i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1>
    136   %3 = and <8 x i16> %b, %2
    137   %4 = or <8 x i16> %1, %3
    138   ret <8 x i16> %4
    139 }
    140 
    141 define <32 x i8> @pcmov_32i8(<32 x i8> %a, <32 x i8> %b, <32 x i8> %m) {
    142 ; CHECK-LABEL: pcmov_32i8:
    143 ; CHECK:       # BB#0:
    144 ; CHECK-NEXT:    vpcmov %ymm2, %ymm1, %ymm0, %ymm0
    145 ; CHECK-NEXT:    retq
    146   %1 = and <32 x i8> %a, %m
    147   %2 = xor <32 x i8> %m, <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>
    148   %3 = and <32 x i8> %b, %2
    149   %4 = or <32 x i8> %1, %3
    150   ret <32 x i8> %4
    151 }
    152 
    153 define <16 x i8> @pcmov_16i8(<16 x i8> %a, <16 x i8> %b, <16 x i8> %m) {
    154 ; CHECK-LABEL: pcmov_16i8:
    155 ; CHECK:       # BB#0:
    156 ; CHECK-NEXT:    vpcmov %xmm2, %xmm1, %xmm0, %xmm0
    157 ; CHECK-NEXT:    retq
    158   %1 = and <16 x i8> %a, %m
    159   %2 = xor <16 x i8> %m, <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>
    160   %3 = and <16 x i8> %b, %2
    161   %4 = or <16 x i8> %1, %3
    162   ret <16 x i8> %4
    163 }
    164