Home | History | Annotate | Download | only in SPARC
      1 ; RUN: opt -S %s -atomic-expand | FileCheck %s
      2 
      3 ;; Verify the cmpxchg and atomicrmw expansions where sub-word-size
      4 ;; instructions are not available.
      5 
      6 ;;; NOTE: this test is mostly target-independent -- any target which
      7 ;;; doesn't support cmpxchg of sub-word sizes would do.
      8 target datalayout = "E-m:e-i64:64-n32:64-S128"
      9 target triple = "sparcv9-unknown-unknown"
     10 
     11 ; CHECK-LABEL: @test_cmpxchg_i8(
     12 ; CHECK:  fence seq_cst
     13 ; CHECK:  %0 = ptrtoint i8* %arg to i64
     14 ; CHECK:  %1 = and i64 %0, -4
     15 ; CHECK:  %AlignedAddr = inttoptr i64 %1 to i32*
     16 ; CHECK:  %PtrLSB = and i64 %0, 3
     17 ; CHECK:  %2 = xor i64 %PtrLSB, 3
     18 ; CHECK:  %3 = shl i64 %2, 3
     19 ; CHECK:  %ShiftAmt = trunc i64 %3 to i32
     20 ; CHECK:  %Mask = shl i32 255, %ShiftAmt
     21 ; CHECK:  %Inv_Mask = xor i32 %Mask, -1
     22 ; CHECK:  %4 = zext i8 %new to i32
     23 ; CHECK:  %5 = shl i32 %4, %ShiftAmt
     24 ; CHECK:  %6 = zext i8 %old to i32
     25 ; CHECK:  %7 = shl i32 %6, %ShiftAmt
     26 ; CHECK:  %8 = load i32, i32* %AlignedAddr
     27 ; CHECK:  %9 = and i32 %8, %Inv_Mask
     28 ; CHECK:  br label %partword.cmpxchg.loop
     29 ; CHECK:partword.cmpxchg.loop:
     30 ; CHECK:  %10 = phi i32 [ %9, %entry ], [ %16, %partword.cmpxchg.failure ]
     31 ; CHECK:  %11 = or i32 %10, %5
     32 ; CHECK:  %12 = or i32 %10, %7
     33 ; CHECK:  %13 = cmpxchg i32* %AlignedAddr, i32 %12, i32 %11 monotonic monotonic
     34 ; CHECK:  %14 = extractvalue { i32, i1 } %13, 0
     35 ; CHECK:  %15 = extractvalue { i32, i1 } %13, 1
     36 ; CHECK:  br i1 %15, label %partword.cmpxchg.end, label %partword.cmpxchg.failure
     37 ; CHECK:partword.cmpxchg.failure:
     38 ; CHECK:  %16 = and i32 %14, %Inv_Mask
     39 ; CHECK:  %17 = icmp ne i32 %10, %16
     40 ; CHECK:  br i1 %17, label %partword.cmpxchg.loop, label %partword.cmpxchg.end
     41 ; CHECK:partword.cmpxchg.end:
     42 ; CHECK:  %18 = lshr i32 %14, %ShiftAmt
     43 ; CHECK:  %19 = trunc i32 %18 to i8
     44 ; CHECK:  %20 = insertvalue { i8, i1 } undef, i8 %19, 0
     45 ; CHECK:  %21 = insertvalue { i8, i1 } %20, i1 %15, 1
     46 ; CHECK:  fence seq_cst
     47 ; CHECK:  %ret = extractvalue { i8, i1 } %21, 0
     48 ; CHECK:  ret i8 %ret
     49 define i8 @test_cmpxchg_i8(i8* %arg, i8 %old, i8 %new) {
     50 entry:
     51   %ret_succ = cmpxchg i8* %arg, i8 %old, i8 %new seq_cst monotonic
     52   %ret = extractvalue { i8, i1 } %ret_succ, 0
     53   ret i8 %ret
     54 }
     55 
     56 ; CHECK-LABEL: @test_cmpxchg_i16(
     57 ; CHECK:  fence seq_cst
     58 ; CHECK:  %0 = ptrtoint i16* %arg to i64
     59 ; CHECK:  %1 = and i64 %0, -4
     60 ; CHECK:  %AlignedAddr = inttoptr i64 %1 to i32*
     61 ; CHECK:  %PtrLSB = and i64 %0, 3
     62 ; CHECK:  %2 = xor i64 %PtrLSB, 2
     63 ; CHECK:  %3 = shl i64 %2, 3
     64 ; CHECK:  %ShiftAmt = trunc i64 %3 to i32
     65 ; CHECK:  %Mask = shl i32 65535, %ShiftAmt
     66 ; CHECK:  %Inv_Mask = xor i32 %Mask, -1
     67 ; CHECK:  %4 = zext i16 %new to i32
     68 ; CHECK:  %5 = shl i32 %4, %ShiftAmt
     69 ; CHECK:  %6 = zext i16 %old to i32
     70 ; CHECK:  %7 = shl i32 %6, %ShiftAmt
     71 ; CHECK:  %8 = load i32, i32* %AlignedAddr
     72 ; CHECK:  %9 = and i32 %8, %Inv_Mask
     73 ; CHECK:  br label %partword.cmpxchg.loop
     74 ; CHECK:partword.cmpxchg.loop:
     75 ; CHECK:  %10 = phi i32 [ %9, %entry ], [ %16, %partword.cmpxchg.failure ]
     76 ; CHECK:  %11 = or i32 %10, %5
     77 ; CHECK:  %12 = or i32 %10, %7
     78 ; CHECK:  %13 = cmpxchg i32* %AlignedAddr, i32 %12, i32 %11 monotonic monotonic
     79 ; CHECK:  %14 = extractvalue { i32, i1 } %13, 0
     80 ; CHECK:  %15 = extractvalue { i32, i1 } %13, 1
     81 ; CHECK:  br i1 %15, label %partword.cmpxchg.end, label %partword.cmpxchg.failure
     82 ; CHECK:partword.cmpxchg.failure:
     83 ; CHECK:  %16 = and i32 %14, %Inv_Mask
     84 ; CHECK:  %17 = icmp ne i32 %10, %16
     85 ; CHECK:  br i1 %17, label %partword.cmpxchg.loop, label %partword.cmpxchg.end
     86 ; CHECK:partword.cmpxchg.end:
     87 ; CHECK:  %18 = lshr i32 %14, %ShiftAmt
     88 ; CHECK:  %19 = trunc i32 %18 to i16
     89 ; CHECK:  %20 = insertvalue { i16, i1 } undef, i16 %19, 0
     90 ; CHECK:  %21 = insertvalue { i16, i1 } %20, i1 %15, 1
     91 ; CHECK:  fence seq_cst
     92 ; CHECK:  %ret = extractvalue { i16, i1 } %21, 0
     93 ; CHECK:  ret i16 %ret
     94 define i16 @test_cmpxchg_i16(i16* %arg, i16 %old, i16 %new) {
     95 entry:
     96   %ret_succ = cmpxchg i16* %arg, i16 %old, i16 %new seq_cst monotonic
     97   %ret = extractvalue { i16, i1 } %ret_succ, 0
     98   ret i16 %ret
     99 }
    100 
    101 
    102 ; CHECK-LABEL: @test_add_i16(
    103 ; CHECK:  fence seq_cst
    104 ; CHECK:  %0 = ptrtoint i16* %arg to i64
    105 ; CHECK:  %1 = and i64 %0, -4
    106 ; CHECK:  %AlignedAddr = inttoptr i64 %1 to i32*
    107 ; CHECK:  %PtrLSB = and i64 %0, 3
    108 ; CHECK:  %2 = xor i64 %PtrLSB, 2
    109 ; CHECK:  %3 = shl i64 %2, 3
    110 ; CHECK:  %ShiftAmt = trunc i64 %3 to i32
    111 ; CHECK:  %Mask = shl i32 65535, %ShiftAmt
    112 ; CHECK:  %Inv_Mask = xor i32 %Mask, -1
    113 ; CHECK:  %4 = zext i16 %val to i32
    114 ; CHECK:  %ValOperand_Shifted = shl i32 %4, %ShiftAmt
    115 ; CHECK:  %5 = load i32, i32* %AlignedAddr, align 4
    116 ; CHECK:  br label %atomicrmw.start
    117 ; CHECK:atomicrmw.start:
    118 ; CHECK:  %loaded = phi i32 [ %5, %entry ], [ %newloaded, %atomicrmw.start ]
    119 ; CHECK:  %new = add i32 %loaded, %ValOperand_Shifted
    120 ; CHECK:  %6 = and i32 %new, %Mask
    121 ; CHECK:  %7 = and i32 %loaded, %Inv_Mask
    122 ; CHECK:  %8 = or i32 %7, %6
    123 ; CHECK:  %9 = cmpxchg i32* %AlignedAddr, i32 %loaded, i32 %8 monotonic monotonic
    124 ; CHECK:  %success = extractvalue { i32, i1 } %9, 1
    125 ; CHECK:  %newloaded = extractvalue { i32, i1 } %9, 0
    126 ; CHECK:  br i1 %success, label %atomicrmw.end, label %atomicrmw.start
    127 ; CHECK:atomicrmw.end:
    128 ; CHECK:  %10 = lshr i32 %newloaded, %ShiftAmt
    129 ; CHECK:  %11 = trunc i32 %10 to i16
    130 ; CHECK:  fence seq_cst
    131 ; CHECK:  ret i16 %11
    132 define i16 @test_add_i16(i16* %arg, i16 %val) {
    133 entry:
    134   %ret = atomicrmw add i16* %arg, i16 %val seq_cst
    135   ret i16 %ret
    136 }
    137 
    138 ; CHECK-LABEL: @test_xor_i16(
    139 ; (I'm going to just assert on the bits that differ from add, above.)
    140 ; CHECK:atomicrmw.start:
    141 ; CHECK:  %new = xor i32 %loaded, %ValOperand_Shifted
    142 ; CHECK:  %6 = cmpxchg i32* %AlignedAddr, i32 %loaded, i32 %new monotonic monotonic
    143 ; CHECK:atomicrmw.end:
    144 define i16 @test_xor_i16(i16* %arg, i16 %val) {
    145 entry:
    146   %ret = atomicrmw xor i16* %arg, i16 %val seq_cst
    147   ret i16 %ret
    148 }
    149 
    150 ; CHECK-LABEL: @test_min_i16(
    151 ; CHECK:atomicrmw.start:
    152 ; CHECK:  %6 = lshr i32 %loaded, %ShiftAmt
    153 ; CHECK:  %7 = trunc i32 %6 to i16
    154 ; CHECK:  %8 = icmp sle i16 %7, %val
    155 ; CHECK:  %new = select i1 %8, i16 %7, i16 %val
    156 ; CHECK:  %9 = zext i16 %new to i32
    157 ; CHECK:  %10 = shl i32 %9, %ShiftAmt
    158 ; CHECK:  %11 = and i32 %loaded, %Inv_Mask
    159 ; CHECK:  %12 = or i32 %11, %10
    160 ; CHECK:  %13 = cmpxchg i32* %AlignedAddr, i32 %loaded, i32 %12 monotonic monotonic
    161 ; CHECK:atomicrmw.end:
    162 define i16 @test_min_i16(i16* %arg, i16 %val) {
    163 entry:
    164   %ret = atomicrmw min i16* %arg, i16 %val seq_cst
    165   ret i16 %ret
    166 }
    167