Home | History | Annotate | Download | only in CodeGen
      1 // RUN: %clang_cc1 -O1 -triple arm64-apple-ios7 -target-feature +neon -ffreestanding -S -o - -emit-llvm %s | FileCheck %s
      2 // RUN: %clang_cc1 -O1 -triple arm64-apple-ios7 -target-feature +neon -ffreestanding -S -o - %s | \
      3 // RUN:   FileCheck -check-prefix=CHECK_CODEGEN %s
      4 // REQUIRES: aarch64-registered-target
      5 
      6 // Test ARM64 SIMD vector shift right and insert: vsri[q]_n_*
      7 
      8 #include <arm_neon.h>
      9 
     10 int8x8_t test_vsri_n_s8(int8x8_t a1, int8x8_t a2) {
     11   // CHECK: test_vsri_n_s8
     12   return vsri_n_s8(a1, a2, 3);
     13   // CHECK: llvm.aarch64.neon.vsri.v8i8
     14   // CHECK_CODEGEN: sri.8b  v0, v1, #3
     15 }
     16 
     17 int16x4_t test_vsri_n_s16(int16x4_t a1, int16x4_t a2) {
     18   // CHECK: test_vsri_n_s16
     19   return vsri_n_s16(a1, a2, 3);
     20   // CHECK: llvm.aarch64.neon.vsri.v4i16
     21   // CHECK_CODEGEN: sri.4h  v0, v1, #3
     22 }
     23 
     24 int32x2_t test_vsri_n_s32(int32x2_t a1, int32x2_t a2) {
     25   // CHECK: test_vsri_n_s32
     26   return vsri_n_s32(a1, a2, 1);
     27   // CHECK: llvm.aarch64.neon.vsri.v2i32
     28   // CHECK_CODEGEN: sri.2s  v0, v1, #1
     29 }
     30 
     31 int64x1_t test_vsri_n_s64(int64x1_t a1, int64x1_t a2) {
     32   // CHECK: test_vsri_n_s64
     33   return vsri_n_s64(a1, a2, 1);
     34   // CHECK: llvm.aarch64.neon.vsri.v1i64
     35   // CHECK_CODEGEN: sri     d0, d1, #1
     36 }
     37 
     38 uint8x8_t test_vsri_n_u8(uint8x8_t a1, uint8x8_t a2) {
     39   // CHECK: test_vsri_n_u8
     40   return vsri_n_u8(a1, a2, 3);
     41   // CHECK: llvm.aarch64.neon.vsri.v8i8
     42   // CHECK_CODEGEN: sri.8b  v0, v1, #3
     43 }
     44 
     45 uint16x4_t test_vsri_n_u16(uint16x4_t a1, uint16x4_t a2) {
     46   // CHECK: test_vsri_n_u16
     47   return vsri_n_u16(a1, a2, 3);
     48   // CHECK: llvm.aarch64.neon.vsri.v4i16
     49   // CHECK_CODEGEN: sri.4h  v0, v1, #3
     50 }
     51 
     52 uint32x2_t test_vsri_n_u32(uint32x2_t a1, uint32x2_t a2) {
     53   // CHECK: test_vsri_n_u32
     54   return vsri_n_u32(a1, a2, 1);
     55   // CHECK: llvm.aarch64.neon.vsri.v2i32
     56   // CHECK_CODEGEN: sri.2s  v0, v1, #1
     57 }
     58 
     59 uint64x1_t test_vsri_n_u64(uint64x1_t a1, uint64x1_t a2) {
     60   // CHECK: test_vsri_n_u64
     61   return vsri_n_u64(a1, a2, 1);
     62   // CHECK: llvm.aarch64.neon.vsri.v1i64
     63   // CHECK_CODEGEN: sri     d0, d1, #1
     64 }
     65 
     66 poly8x8_t test_vsri_n_p8(poly8x8_t a1, poly8x8_t a2) {
     67   // CHECK: test_vsri_n_p8
     68   return vsri_n_p8(a1, a2, 1);
     69   // CHECK: llvm.aarch64.neon.vsri.v8i8
     70   // CHECK_CODEGEN: sri.8b  v0, v1, #1
     71 }
     72 
     73 poly16x4_t test_vsri_n_p16(poly16x4_t a1, poly16x4_t a2) {
     74   // CHECK: test_vsri_n_p16
     75   return vsri_n_p16(a1, a2, 1);
     76   // CHECK: llvm.aarch64.neon.vsri.v4i16
     77   // CHECK_CODEGEN: sri.4h  v0, v1, #1
     78 }
     79 
     80 int8x16_t test_vsriq_n_s8(int8x16_t a1, int8x16_t a2) {
     81   // CHECK: test_vsriq_n_s8
     82   return vsriq_n_s8(a1, a2, 3);
     83   // CHECK: llvm.aarch64.neon.vsri.v16i8
     84   // CHECK_CODEGEN: sri.16b v0, v1, #3
     85 }
     86 
     87 int16x8_t test_vsriq_n_s16(int16x8_t a1, int16x8_t a2) {
     88   // CHECK: test_vsriq_n_s16
     89   return vsriq_n_s16(a1, a2, 3);
     90   // CHECK: llvm.aarch64.neon.vsri.v8i16
     91   // CHECK_CODEGEN: sri.8h  v0, v1, #3
     92 }
     93 
     94 int32x4_t test_vsriq_n_s32(int32x4_t a1, int32x4_t a2) {
     95   // CHECK: test_vsriq_n_s32
     96   return vsriq_n_s32(a1, a2, 1);
     97   // CHECK: llvm.aarch64.neon.vsri.v4i32
     98   // CHECK_CODEGEN: sri.4s  v0, v1, #1
     99 }
    100 
    101 int64x2_t test_vsriq_n_s64(int64x2_t a1, int64x2_t a2) {
    102   // CHECK: test_vsriq_n_s64
    103   return vsriq_n_s64(a1, a2, 1);
    104   // CHECK: llvm.aarch64.neon.vsri.v2i64
    105   // CHECK_CODEGEN: sri.2d  v0, v1, #1
    106 }
    107 
    108 uint8x16_t test_vsriq_n_u8(uint8x16_t a1, uint8x16_t a2) {
    109   // CHECK: test_vsriq_n_u8
    110   return vsriq_n_u8(a1, a2, 3);
    111   // CHECK: llvm.aarch64.neon.vsri.v16i8
    112   // CHECK_CODEGEN: sri.16b v0, v1, #3
    113 }
    114 
    115 uint16x8_t test_vsriq_n_u16(uint16x8_t a1, uint16x8_t a2) {
    116   // CHECK: test_vsriq_n_u16
    117   return vsriq_n_u16(a1, a2, 3);
    118   // CHECK: llvm.aarch64.neon.vsri.v8i16
    119   // CHECK_CODEGEN: sri.8h  v0, v1, #3
    120 }
    121 
    122 uint32x4_t test_vsriq_n_u32(uint32x4_t a1, uint32x4_t a2) {
    123   // CHECK: test_vsriq_n_u32
    124   return vsriq_n_u32(a1, a2, 1);
    125   // CHECK: llvm.aarch64.neon.vsri.v4i32
    126   // CHECK_CODEGEN: sri.4s  v0, v1, #1
    127 }
    128 
    129 uint64x2_t test_vsriq_n_u64(uint64x2_t a1, uint64x2_t a2) {
    130   // CHECK: test_vsriq_n_u64
    131   return vsriq_n_u64(a1, a2, 1);
    132   // CHECK: llvm.aarch64.neon.vsri.v2i64
    133   // CHECK_CODEGEN: sri.2d  v0, v1, #1
    134 }
    135 
    136 poly8x16_t test_vsriq_n_p8(poly8x16_t a1, poly8x16_t a2) {
    137   // CHECK: test_vsriq_n_p8
    138   return vsriq_n_p8(a1, a2, 1);
    139   // CHECK: llvm.aarch64.neon.vsri.v16i8
    140   // CHECK_CODEGEN: sri.16b v0, v1, #1
    141 }
    142 
    143 poly16x8_t test_vsriq_n_p16(poly16x8_t a1, poly16x8_t a2) {
    144   // CHECK: test_vsriq_n_p16
    145   return vsriq_n_p16(a1, a2, 1);
    146   // CHECK: llvm.aarch64.neon.vsri.v8i16
    147   // CHECK_CODEGEN: sri.8h  v0, v1, #1
    148 }
    149 
    150