Home | History | Annotate | Download | only in X86
      1 ; RUN: llc -mtriple=x86_64-darwin -mcpu=generic < %s | FileCheck %s
      2 ; RUN: llc -mtriple=x86_64-darwin -mcpu=atom < %s | FileCheck -check-prefix=ATOM %s
      3 
      4 ; CHECK-LABEL: t:
      5 ; CHECK: movl (%r9,%rax,4), %e{{..}}
      6 ; CHECK-NEXT: decq
      7 ; CHECK-NEXT: jne
      8 
      9 ; ATOM-LABEL: t:
     10 ; ATOM: movl (%r9,%r{{.+}},4), %e{{..}}
     11 ; ATOM-NEXT: decq
     12 ; ATOM-NEXT: jne
     13 
     14 @Te0 = external global [256 x i32]		; <[256 x i32]*> [#uses=5]
     15 @Te1 = external global [256 x i32]		; <[256 x i32]*> [#uses=4]
     16 @Te3 = external global [256 x i32]		; <[256 x i32]*> [#uses=2]
     17 
     18 define void @t(i8* nocapture %in, i8* nocapture %out, i32* nocapture %rk, i32 %r) nounwind {
     19 entry:
     20 	%0 = load i32, i32* %rk, align 4		; <i32> [#uses=1]
     21 	%1 = getelementptr i32, i32* %rk, i64 1		; <i32*> [#uses=1]
     22 	%2 = load i32, i32* %1, align 4		; <i32> [#uses=1]
     23 	%tmp15 = add i32 %r, -1		; <i32> [#uses=1]
     24 	%tmp.16 = zext i32 %tmp15 to i64		; <i64> [#uses=2]
     25 	br label %bb
     26 
     27 bb:		; preds = %bb1, %entry
     28 	%indvar = phi i64 [ 0, %entry ], [ %indvar.next, %bb1 ]		; <i64> [#uses=3]
     29 	%s1.0 = phi i32 [ %2, %entry ], [ %56, %bb1 ]		; <i32> [#uses=2]
     30 	%s0.0 = phi i32 [ %0, %entry ], [ %43, %bb1 ]		; <i32> [#uses=2]
     31 	%tmp18 = shl i64 %indvar, 4		; <i64> [#uses=4]
     32 	%rk26 = bitcast i32* %rk to i8*		; <i8*> [#uses=6]
     33 	%3 = lshr i32 %s0.0, 24		; <i32> [#uses=1]
     34 	%4 = zext i32 %3 to i64		; <i64> [#uses=1]
     35 	%5 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %4		; <i32*> [#uses=1]
     36 	%6 = load i32, i32* %5, align 4		; <i32> [#uses=1]
     37 	%7 = lshr i32 %s1.0, 16		; <i32> [#uses=1]
     38 	%8 = and i32 %7, 255		; <i32> [#uses=1]
     39 	%9 = zext i32 %8 to i64		; <i64> [#uses=1]
     40 	%10 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %9		; <i32*> [#uses=1]
     41 	%11 = load i32, i32* %10, align 4		; <i32> [#uses=1]
     42 	%ctg2.sum2728 = or i64 %tmp18, 8		; <i64> [#uses=1]
     43 	%12 = getelementptr i8, i8* %rk26, i64 %ctg2.sum2728		; <i8*> [#uses=1]
     44 	%13 = bitcast i8* %12 to i32*		; <i32*> [#uses=1]
     45 	%14 = load i32, i32* %13, align 4		; <i32> [#uses=1]
     46 	%15 = xor i32 %11, %6		; <i32> [#uses=1]
     47 	%16 = xor i32 %15, %14		; <i32> [#uses=3]
     48 	%17 = lshr i32 %s1.0, 24		; <i32> [#uses=1]
     49 	%18 = zext i32 %17 to i64		; <i64> [#uses=1]
     50 	%19 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %18		; <i32*> [#uses=1]
     51 	%20 = load i32, i32* %19, align 4		; <i32> [#uses=1]
     52 	%21 = and i32 %s0.0, 255		; <i32> [#uses=1]
     53 	%22 = zext i32 %21 to i64		; <i64> [#uses=1]
     54 	%23 = getelementptr [256 x i32], [256 x i32]* @Te3, i64 0, i64 %22		; <i32*> [#uses=1]
     55 	%24 = load i32, i32* %23, align 4		; <i32> [#uses=1]
     56 	%ctg2.sum2930 = or i64 %tmp18, 12		; <i64> [#uses=1]
     57 	%25 = getelementptr i8, i8* %rk26, i64 %ctg2.sum2930		; <i8*> [#uses=1]
     58 	%26 = bitcast i8* %25 to i32*		; <i32*> [#uses=1]
     59 	%27 = load i32, i32* %26, align 4		; <i32> [#uses=1]
     60 	%28 = xor i32 %24, %20		; <i32> [#uses=1]
     61 	%29 = xor i32 %28, %27		; <i32> [#uses=4]
     62 	%30 = lshr i32 %16, 24		; <i32> [#uses=1]
     63 	%31 = zext i32 %30 to i64		; <i64> [#uses=1]
     64 	%32 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %31		; <i32*> [#uses=1]
     65 	%33 = load i32, i32* %32, align 4		; <i32> [#uses=2]
     66 	%exitcond = icmp eq i64 %indvar, %tmp.16		; <i1> [#uses=1]
     67 	br i1 %exitcond, label %bb2, label %bb1
     68 
     69 bb1:		; preds = %bb
     70 	%ctg2.sum31 = add i64 %tmp18, 16		; <i64> [#uses=1]
     71 	%34 = getelementptr i8, i8* %rk26, i64 %ctg2.sum31		; <i8*> [#uses=1]
     72 	%35 = bitcast i8* %34 to i32*		; <i32*> [#uses=1]
     73 	%36 = lshr i32 %29, 16		; <i32> [#uses=1]
     74 	%37 = and i32 %36, 255		; <i32> [#uses=1]
     75 	%38 = zext i32 %37 to i64		; <i64> [#uses=1]
     76 	%39 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %38		; <i32*> [#uses=1]
     77 	%40 = load i32, i32* %39, align 4		; <i32> [#uses=1]
     78 	%41 = load i32, i32* %35, align 4		; <i32> [#uses=1]
     79 	%42 = xor i32 %40, %33		; <i32> [#uses=1]
     80 	%43 = xor i32 %42, %41		; <i32> [#uses=1]
     81 	%44 = lshr i32 %29, 24		; <i32> [#uses=1]
     82 	%45 = zext i32 %44 to i64		; <i64> [#uses=1]
     83 	%46 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %45		; <i32*> [#uses=1]
     84 	%47 = load i32, i32* %46, align 4		; <i32> [#uses=1]
     85 	%48 = and i32 %16, 255		; <i32> [#uses=1]
     86 	%49 = zext i32 %48 to i64		; <i64> [#uses=1]
     87 	%50 = getelementptr [256 x i32], [256 x i32]* @Te3, i64 0, i64 %49		; <i32*> [#uses=1]
     88 	%51 = load i32, i32* %50, align 4		; <i32> [#uses=1]
     89 	%ctg2.sum32 = add i64 %tmp18, 20		; <i64> [#uses=1]
     90 	%52 = getelementptr i8, i8* %rk26, i64 %ctg2.sum32		; <i8*> [#uses=1]
     91 	%53 = bitcast i8* %52 to i32*		; <i32*> [#uses=1]
     92 	%54 = load i32, i32* %53, align 4		; <i32> [#uses=1]
     93 	%55 = xor i32 %51, %47		; <i32> [#uses=1]
     94 	%56 = xor i32 %55, %54		; <i32> [#uses=1]
     95 	%indvar.next = add i64 %indvar, 1		; <i64> [#uses=1]
     96 	br label %bb
     97 
     98 bb2:		; preds = %bb
     99 	%tmp10 = shl i64 %tmp.16, 4		; <i64> [#uses=2]
    100 	%ctg2.sum = add i64 %tmp10, 16		; <i64> [#uses=1]
    101 	%tmp1213 = getelementptr i8, i8* %rk26, i64 %ctg2.sum		; <i8*> [#uses=1]
    102 	%57 = bitcast i8* %tmp1213 to i32*		; <i32*> [#uses=1]
    103 	%58 = and i32 %33, -16777216		; <i32> [#uses=1]
    104 	%59 = lshr i32 %29, 16		; <i32> [#uses=1]
    105 	%60 = and i32 %59, 255		; <i32> [#uses=1]
    106 	%61 = zext i32 %60 to i64		; <i64> [#uses=1]
    107 	%62 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %61		; <i32*> [#uses=1]
    108 	%63 = load i32, i32* %62, align 4		; <i32> [#uses=1]
    109 	%64 = and i32 %63, 16711680		; <i32> [#uses=1]
    110 	%65 = or i32 %64, %58		; <i32> [#uses=1]
    111 	%66 = load i32, i32* %57, align 4		; <i32> [#uses=1]
    112 	%67 = xor i32 %65, %66		; <i32> [#uses=2]
    113 	%68 = lshr i32 %29, 8		; <i32> [#uses=1]
    114 	%69 = zext i32 %68 to i64		; <i64> [#uses=1]
    115 	%70 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %69		; <i32*> [#uses=1]
    116 	%71 = load i32, i32* %70, align 4		; <i32> [#uses=1]
    117 	%72 = and i32 %71, -16777216		; <i32> [#uses=1]
    118 	%73 = and i32 %16, 255		; <i32> [#uses=1]
    119 	%74 = zext i32 %73 to i64		; <i64> [#uses=1]
    120 	%75 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %74		; <i32*> [#uses=1]
    121 	%76 = load i32, i32* %75, align 4		; <i32> [#uses=1]
    122 	%77 = and i32 %76, 16711680		; <i32> [#uses=1]
    123 	%78 = or i32 %77, %72		; <i32> [#uses=1]
    124 	%ctg2.sum25 = add i64 %tmp10, 20		; <i64> [#uses=1]
    125 	%79 = getelementptr i8, i8* %rk26, i64 %ctg2.sum25		; <i8*> [#uses=1]
    126 	%80 = bitcast i8* %79 to i32*		; <i32*> [#uses=1]
    127 	%81 = load i32, i32* %80, align 4		; <i32> [#uses=1]
    128 	%82 = xor i32 %78, %81		; <i32> [#uses=2]
    129 	%83 = lshr i32 %67, 24		; <i32> [#uses=1]
    130 	%84 = trunc i32 %83 to i8		; <i8> [#uses=1]
    131 	store i8 %84, i8* %out, align 1
    132 	%85 = lshr i32 %67, 16		; <i32> [#uses=1]
    133 	%86 = trunc i32 %85 to i8		; <i8> [#uses=1]
    134 	%87 = getelementptr i8, i8* %out, i64 1		; <i8*> [#uses=1]
    135 	store i8 %86, i8* %87, align 1
    136 	%88 = getelementptr i8, i8* %out, i64 4		; <i8*> [#uses=1]
    137 	%89 = lshr i32 %82, 24		; <i32> [#uses=1]
    138 	%90 = trunc i32 %89 to i8		; <i8> [#uses=1]
    139 	store i8 %90, i8* %88, align 1
    140 	%91 = lshr i32 %82, 16		; <i32> [#uses=1]
    141 	%92 = trunc i32 %91 to i8		; <i8> [#uses=1]
    142 	%93 = getelementptr i8, i8* %out, i64 5		; <i8*> [#uses=1]
    143 	store i8 %92, i8* %93, align 1
    144 	ret void
    145 }
    146 
    147 ; Check that DAGCombiner doesn't mess up the IV update when the exiting value
    148 ; is equal to the stride.
    149 ; It must not fold (cmp (add iv, 1), 1) --> (cmp iv, 0).
    150 
    151 ; CHECK-LABEL: f:
    152 ; CHECK: %for.body
    153 ; CHECK: incl [[IV:%e..]]
    154 ; CHECK: cmpl $1, [[IV]]
    155 ; CHECK: jne
    156 ; CHECK: ret
    157 
    158 ; ATOM-LABEL: f:
    159 ; ATOM: %for.body
    160 ; ATOM: incl [[IV:%e..]]
    161 ; ATOM: cmpl $1, [[IV]]
    162 ; ATOM: jne
    163 ; ATOM: ret
    164 
    165 define i32 @f(i32 %i, i32* nocapture %a) nounwind uwtable readonly ssp {
    166 entry:
    167   %cmp4 = icmp eq i32 %i, 1
    168   br i1 %cmp4, label %for.end, label %for.body.lr.ph
    169 
    170 for.body.lr.ph:                                   ; preds = %entry
    171   %0 = sext i32 %i to i64
    172   br label %for.body
    173 
    174 for.body:                                         ; preds = %for.body.lr.ph, %for.body
    175   %indvars.iv = phi i64 [ %0, %for.body.lr.ph ], [ %indvars.iv.next, %for.body ]
    176   %bi.06 = phi i32 [ 0, %for.body.lr.ph ], [ %i.addr.0.bi.0, %for.body ]
    177   %b.05 = phi i32 [ 0, %for.body.lr.ph ], [ %.b.0, %for.body ]
    178   %arrayidx = getelementptr inbounds i32, i32* %a, i64 %indvars.iv
    179   %1 = load i32, i32* %arrayidx, align 4
    180   %cmp1 = icmp ugt i32 %1, %b.05
    181   %.b.0 = select i1 %cmp1, i32 %1, i32 %b.05
    182   %2 = trunc i64 %indvars.iv to i32
    183   %i.addr.0.bi.0 = select i1 %cmp1, i32 %2, i32 %bi.06
    184   %indvars.iv.next = add i64 %indvars.iv, 1
    185   %lftr.wideiv = trunc i64 %indvars.iv.next to i32
    186   %exitcond = icmp eq i32 %lftr.wideiv, 1
    187   br i1 %exitcond, label %for.end, label %for.body
    188 
    189 for.end:                                          ; preds = %for.body, %entry
    190   %bi.0.lcssa = phi i32 [ 0, %entry ], [ %i.addr.0.bi.0, %for.body ]
    191   ret i32 %bi.0.lcssa
    192 }
    193