Home | History | Annotate | Download | only in X86
      1 ; RUN: llc -asm-verbose=false -disable-branch-fold -disable-code-place -disable-tail-duplicate -march=x86-64 < %s | FileCheck %s
      2 ; rdar://7236213
      3 
      4 ; CodeGen shouldn't require any lea instructions inside the marked loop.
      5 ; It should properly set up post-increment uses and do coalescing for
      6 ; the induction variables.
      7 
      8 ; CHECK: # Start
      9 ; CHECK-NOT: lea
     10 ; CHECK: # Stop
     11 
     12 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64"
     13 
     14 define void @foo(float* %I, i64 %IS, float* nocapture %Start, float* nocapture %Step, float* %O, i64 %OS, i64 %N) nounwind {
     15 entry:
     16   %times4 = alloca float, align 4                 ; <float*> [#uses=3]
     17   %timesN = alloca float, align 4                 ; <float*> [#uses=2]
     18   %0 = load float* %Step, align 4                 ; <float> [#uses=8]
     19   %1 = ptrtoint float* %I to i64                  ; <i64> [#uses=1]
     20   %2 = ptrtoint float* %O to i64                  ; <i64> [#uses=1]
     21   %tmp = xor i64 %2, %1                           ; <i64> [#uses=1]
     22   %tmp16 = and i64 %tmp, 15                       ; <i64> [#uses=1]
     23   %3 = icmp eq i64 %tmp16, 0                      ; <i1> [#uses=1]
     24   %4 = trunc i64 %IS to i32                       ; <i32> [#uses=1]
     25   %5 = xor i32 %4, 1                              ; <i32> [#uses=1]
     26   %6 = trunc i64 %OS to i32                       ; <i32> [#uses=1]
     27   %7 = xor i32 %6, 1                              ; <i32> [#uses=1]
     28   %8 = or i32 %7, %5                              ; <i32> [#uses=1]
     29   %9 = icmp eq i32 %8, 0                          ; <i1> [#uses=1]
     30   br i1 %9, label %bb, label %return
     31 
     32 bb:                                               ; preds = %entry
     33   %10 = load float* %Start, align 4               ; <float> [#uses=1]
     34   br label %bb2
     35 
     36 bb1:                                              ; preds = %bb3
     37   %11 = load float* %I_addr.0, align 4            ; <float> [#uses=1]
     38   %12 = fmul float %11, %x.0                      ; <float> [#uses=1]
     39   store float %12, float* %O_addr.0, align 4
     40   %13 = fadd float %x.0, %0                       ; <float> [#uses=1]
     41   %indvar.next53 = add i64 %14, 1                 ; <i64> [#uses=1]
     42   br label %bb2
     43 
     44 bb2:                                              ; preds = %bb1, %bb
     45   %14 = phi i64 [ %indvar.next53, %bb1 ], [ 0, %bb ] ; <i64> [#uses=21]
     46   %x.0 = phi float [ %13, %bb1 ], [ %10, %bb ]    ; <float> [#uses=6]
     47   %N_addr.0 = sub i64 %N, %14                     ; <i64> [#uses=4]
     48   %O_addr.0 = getelementptr float* %O, i64 %14    ; <float*> [#uses=4]
     49   %I_addr.0 = getelementptr float* %I, i64 %14    ; <float*> [#uses=3]
     50   %15 = icmp slt i64 %N_addr.0, 1                 ; <i1> [#uses=1]
     51   br i1 %15, label %bb4, label %bb3
     52 
     53 bb3:                                              ; preds = %bb2
     54   %16 = ptrtoint float* %O_addr.0 to i64          ; <i64> [#uses=1]
     55   %17 = and i64 %16, 15                           ; <i64> [#uses=1]
     56   %18 = icmp eq i64 %17, 0                        ; <i1> [#uses=1]
     57   br i1 %18, label %bb4, label %bb1
     58 
     59 bb4:                                              ; preds = %bb3, %bb2
     60   %19 = fmul float %0, 4.000000e+00               ; <float> [#uses=1]
     61   store float %19, float* %times4, align 4
     62   %20 = fmul float %0, 1.600000e+01               ; <float> [#uses=1]
     63   store float %20, float* %timesN, align 4
     64   %21 = fmul float %0, 0.000000e+00               ; <float> [#uses=1]
     65   %22 = fadd float %21, %x.0                      ; <float> [#uses=1]
     66   %23 = fadd float %x.0, %0                       ; <float> [#uses=1]
     67   %24 = fmul float %0, 2.000000e+00               ; <float> [#uses=1]
     68   %25 = fadd float %24, %x.0                      ; <float> [#uses=1]
     69   %26 = fmul float %0, 3.000000e+00               ; <float> [#uses=1]
     70   %27 = fadd float %26, %x.0                      ; <float> [#uses=1]
     71   %28 = insertelement <4 x float> undef, float %22, i32 0 ; <<4 x float>> [#uses=1]
     72   %29 = insertelement <4 x float> %28, float %23, i32 1 ; <<4 x float>> [#uses=1]
     73   %30 = insertelement <4 x float> %29, float %25, i32 2 ; <<4 x float>> [#uses=1]
     74   %31 = insertelement <4 x float> %30, float %27, i32 3 ; <<4 x float>> [#uses=5]
     75   %asmtmp.i = call <4 x float> asm "movss $1, $0\09\0Apshufd $$0, $0, $0", "=x,*m,~{dirflag},~{fpsr},~{flags}"(float* %times4) nounwind ; <<4 x float>> [#uses=3]
     76   %32 = fadd <4 x float> %31, %asmtmp.i           ; <<4 x float>> [#uses=3]
     77   %33 = fadd <4 x float> %32, %asmtmp.i           ; <<4 x float>> [#uses=3]
     78   %34 = fadd <4 x float> %33, %asmtmp.i           ; <<4 x float>> [#uses=2]
     79   %asmtmp.i18 = call <4 x float> asm "movss $1, $0\09\0Apshufd $$0, $0, $0", "=x,*m,~{dirflag},~{fpsr},~{flags}"(float* %timesN) nounwind ; <<4 x float>> [#uses=8]
     80   %35 = icmp sgt i64 %N_addr.0, 15                ; <i1> [#uses=2]
     81   br i1 %3, label %bb6.preheader, label %bb8
     82 
     83 bb6.preheader:                                    ; preds = %bb4
     84   br i1 %35, label %bb.nph43, label %bb7
     85 
     86 bb.nph43:                                         ; preds = %bb6.preheader
     87   %tmp108 = add i64 %14, 16                       ; <i64> [#uses=1]
     88   %tmp111 = add i64 %14, 4                        ; <i64> [#uses=1]
     89   %tmp115 = add i64 %14, 8                        ; <i64> [#uses=1]
     90   %tmp119 = add i64 %14, 12                       ; <i64> [#uses=1]
     91   %tmp134 = add i64 %N, -16                       ; <i64> [#uses=1]
     92   %tmp135 = sub i64 %tmp134, %14                  ; <i64> [#uses=1]
     93   call void asm sideeffect "# Start.", "~{dirflag},~{fpsr},~{flags}"() nounwind
     94   br label %bb5
     95 
     96 bb5:                                              ; preds = %bb.nph43, %bb5
     97   %indvar102 = phi i64 [ 0, %bb.nph43 ], [ %indvar.next103, %bb5 ] ; <i64> [#uses=3]
     98   %vX3.041 = phi <4 x float> [ %34, %bb.nph43 ], [ %45, %bb5 ] ; <<4 x float>> [#uses=2]
     99   %vX0.039 = phi <4 x float> [ %31, %bb.nph43 ], [ %41, %bb5 ] ; <<4 x float>> [#uses=2]
    100   %vX2.037 = phi <4 x float> [ %33, %bb.nph43 ], [ %46, %bb5 ] ; <<4 x float>> [#uses=2]
    101   %vX1.036 = phi <4 x float> [ %32, %bb.nph43 ], [ %47, %bb5 ] ; <<4 x float>> [#uses=2]
    102   %tmp104 = shl i64 %indvar102, 4                 ; <i64> [#uses=5]
    103   %tmp105 = add i64 %14, %tmp104                  ; <i64> [#uses=2]
    104   %scevgep106 = getelementptr float* %I, i64 %tmp105 ; <float*> [#uses=1]
    105   %scevgep106107 = bitcast float* %scevgep106 to <4 x float>* ; <<4 x float>*> [#uses=1]
    106   %tmp109 = add i64 %tmp108, %tmp104              ; <i64> [#uses=2]
    107   %tmp112 = add i64 %tmp111, %tmp104              ; <i64> [#uses=2]
    108   %scevgep113 = getelementptr float* %I, i64 %tmp112 ; <float*> [#uses=1]
    109   %scevgep113114 = bitcast float* %scevgep113 to <4 x float>* ; <<4 x float>*> [#uses=1]
    110   %tmp116 = add i64 %tmp115, %tmp104              ; <i64> [#uses=2]
    111   %scevgep117 = getelementptr float* %I, i64 %tmp116 ; <float*> [#uses=1]
    112   %scevgep117118 = bitcast float* %scevgep117 to <4 x float>* ; <<4 x float>*> [#uses=1]
    113   %tmp120 = add i64 %tmp119, %tmp104              ; <i64> [#uses=2]
    114   %scevgep121 = getelementptr float* %I, i64 %tmp120 ; <float*> [#uses=1]
    115   %scevgep121122 = bitcast float* %scevgep121 to <4 x float>* ; <<4 x float>*> [#uses=1]
    116   %scevgep123 = getelementptr float* %O, i64 %tmp105 ; <float*> [#uses=1]
    117   %scevgep123124 = bitcast float* %scevgep123 to <4 x float>* ; <<4 x float>*> [#uses=1]
    118   %scevgep126 = getelementptr float* %O, i64 %tmp112 ; <float*> [#uses=1]
    119   %scevgep126127 = bitcast float* %scevgep126 to <4 x float>* ; <<4 x float>*> [#uses=1]
    120   %scevgep128 = getelementptr float* %O, i64 %tmp116 ; <float*> [#uses=1]
    121   %scevgep128129 = bitcast float* %scevgep128 to <4 x float>* ; <<4 x float>*> [#uses=1]
    122   %scevgep130 = getelementptr float* %O, i64 %tmp120 ; <float*> [#uses=1]
    123   %scevgep130131 = bitcast float* %scevgep130 to <4 x float>* ; <<4 x float>*> [#uses=1]
    124   %tmp132 = mul i64 %indvar102, -16               ; <i64> [#uses=1]
    125   %tmp136 = add i64 %tmp135, %tmp132              ; <i64> [#uses=2]
    126   %36 = load <4 x float>* %scevgep106107, align 16 ; <<4 x float>> [#uses=1]
    127   %37 = load <4 x float>* %scevgep113114, align 16 ; <<4 x float>> [#uses=1]
    128   %38 = load <4 x float>* %scevgep117118, align 16 ; <<4 x float>> [#uses=1]
    129   %39 = load <4 x float>* %scevgep121122, align 16 ; <<4 x float>> [#uses=1]
    130   %40 = fmul <4 x float> %36, %vX0.039            ; <<4 x float>> [#uses=1]
    131   %41 = fadd <4 x float> %vX0.039, %asmtmp.i18    ; <<4 x float>> [#uses=2]
    132   %42 = fmul <4 x float> %37, %vX1.036            ; <<4 x float>> [#uses=1]
    133   %43 = fmul <4 x float> %38, %vX2.037            ; <<4 x float>> [#uses=1]
    134   %44 = fmul <4 x float> %39, %vX3.041            ; <<4 x float>> [#uses=1]
    135   store <4 x float> %40, <4 x float>* %scevgep123124, align 16
    136   store <4 x float> %42, <4 x float>* %scevgep126127, align 16
    137   store <4 x float> %43, <4 x float>* %scevgep128129, align 16
    138   store <4 x float> %44, <4 x float>* %scevgep130131, align 16
    139   %45 = fadd <4 x float> %vX3.041, %asmtmp.i18    ; <<4 x float>> [#uses=1]
    140   %46 = fadd <4 x float> %vX2.037, %asmtmp.i18    ; <<4 x float>> [#uses=1]
    141   %47 = fadd <4 x float> %vX1.036, %asmtmp.i18    ; <<4 x float>> [#uses=1]
    142   %48 = icmp sgt i64 %tmp136, 15                  ; <i1> [#uses=1]
    143   %indvar.next103 = add i64 %indvar102, 1         ; <i64> [#uses=1]
    144   br i1 %48, label %bb5, label %bb6.bb7_crit_edge
    145 
    146 bb6.bb7_crit_edge:                                ; preds = %bb5
    147   call void asm sideeffect "# Stop.", "~{dirflag},~{fpsr},~{flags}"() nounwind
    148   %scevgep110 = getelementptr float* %I, i64 %tmp109 ; <float*> [#uses=1]
    149   %scevgep125 = getelementptr float* %O, i64 %tmp109 ; <float*> [#uses=1]
    150   br label %bb7
    151 
    152 bb7:                                              ; preds = %bb6.bb7_crit_edge, %bb6.preheader
    153   %I_addr.1.lcssa = phi float* [ %scevgep110, %bb6.bb7_crit_edge ], [ %I_addr.0, %bb6.preheader ] ; <float*> [#uses=1]
    154   %O_addr.1.lcssa = phi float* [ %scevgep125, %bb6.bb7_crit_edge ], [ %O_addr.0, %bb6.preheader ] ; <float*> [#uses=1]
    155   %vX0.0.lcssa = phi <4 x float> [ %41, %bb6.bb7_crit_edge ], [ %31, %bb6.preheader ] ; <<4 x float>> [#uses=1]
    156   %N_addr.1.lcssa = phi i64 [ %tmp136, %bb6.bb7_crit_edge ], [ %N_addr.0, %bb6.preheader ] ; <i64> [#uses=1]
    157   %asmtmp.i17 = call <4 x float> asm "movss $1, $0\09\0Apshufd $$0, $0, $0", "=x,*m,~{dirflag},~{fpsr},~{flags}"(float* %times4) nounwind ; <<4 x float>> [#uses=0]
    158   br label %bb11
    159 
    160 bb8:                                              ; preds = %bb4
    161   br i1 %35, label %bb.nph, label %bb11
    162 
    163 bb.nph:                                           ; preds = %bb8
    164   %I_addr.0.sum = add i64 %14, -1                 ; <i64> [#uses=1]
    165   %49 = getelementptr inbounds float* %I, i64 %I_addr.0.sum ; <float*> [#uses=1]
    166   %50 = bitcast float* %49 to <4 x float>*        ; <<4 x float>*> [#uses=1]
    167   %51 = load <4 x float>* %50, align 16           ; <<4 x float>> [#uses=1]
    168   %tmp54 = add i64 %14, 16                        ; <i64> [#uses=1]
    169   %tmp56 = add i64 %14, 3                         ; <i64> [#uses=1]
    170   %tmp60 = add i64 %14, 7                         ; <i64> [#uses=1]
    171   %tmp64 = add i64 %14, 11                        ; <i64> [#uses=1]
    172   %tmp68 = add i64 %14, 15                        ; <i64> [#uses=1]
    173   %tmp76 = add i64 %14, 4                         ; <i64> [#uses=1]
    174   %tmp80 = add i64 %14, 8                         ; <i64> [#uses=1]
    175   %tmp84 = add i64 %14, 12                        ; <i64> [#uses=1]
    176   %tmp90 = add i64 %N, -16                        ; <i64> [#uses=1]
    177   %tmp91 = sub i64 %tmp90, %14                    ; <i64> [#uses=1]
    178   br label %bb9
    179 
    180 bb9:                                              ; preds = %bb.nph, %bb9
    181   %indvar = phi i64 [ 0, %bb.nph ], [ %indvar.next, %bb9 ] ; <i64> [#uses=3]
    182   %vX3.125 = phi <4 x float> [ %34, %bb.nph ], [ %69, %bb9 ] ; <<4 x float>> [#uses=2]
    183   %vX0.223 = phi <4 x float> [ %31, %bb.nph ], [ %65, %bb9 ] ; <<4 x float>> [#uses=2]
    184   %vX2.121 = phi <4 x float> [ %33, %bb.nph ], [ %70, %bb9 ] ; <<4 x float>> [#uses=2]
    185   %vX1.120 = phi <4 x float> [ %32, %bb.nph ], [ %71, %bb9 ] ; <<4 x float>> [#uses=2]
    186   %vI0.019 = phi <4 x float> [ %51, %bb.nph ], [ %55, %bb9 ] ; <<4 x float>> [#uses=1]
    187   %tmp51 = shl i64 %indvar, 4                     ; <i64> [#uses=9]
    188   %tmp55 = add i64 %tmp54, %tmp51                 ; <i64> [#uses=2]
    189   %tmp57 = add i64 %tmp56, %tmp51                 ; <i64> [#uses=1]
    190   %scevgep58 = getelementptr float* %I, i64 %tmp57 ; <float*> [#uses=1]
    191   %scevgep5859 = bitcast float* %scevgep58 to <4 x float>* ; <<4 x float>*> [#uses=1]
    192   %tmp61 = add i64 %tmp60, %tmp51                 ; <i64> [#uses=1]
    193   %scevgep62 = getelementptr float* %I, i64 %tmp61 ; <float*> [#uses=1]
    194   %scevgep6263 = bitcast float* %scevgep62 to <4 x float>* ; <<4 x float>*> [#uses=1]
    195   %tmp65 = add i64 %tmp64, %tmp51                 ; <i64> [#uses=1]
    196   %scevgep66 = getelementptr float* %I, i64 %tmp65 ; <float*> [#uses=1]
    197   %scevgep6667 = bitcast float* %scevgep66 to <4 x float>* ; <<4 x float>*> [#uses=1]
    198   %tmp69 = add i64 %tmp68, %tmp51                 ; <i64> [#uses=1]
    199   %scevgep70 = getelementptr float* %I, i64 %tmp69 ; <float*> [#uses=1]
    200   %scevgep7071 = bitcast float* %scevgep70 to <4 x float>* ; <<4 x float>*> [#uses=1]
    201   %tmp72 = add i64 %14, %tmp51                    ; <i64> [#uses=1]
    202   %scevgep73 = getelementptr float* %O, i64 %tmp72 ; <float*> [#uses=1]
    203   %scevgep7374 = bitcast float* %scevgep73 to <4 x float>* ; <<4 x float>*> [#uses=1]
    204   %tmp77 = add i64 %tmp76, %tmp51                 ; <i64> [#uses=1]
    205   %scevgep78 = getelementptr float* %O, i64 %tmp77 ; <float*> [#uses=1]
    206   %scevgep7879 = bitcast float* %scevgep78 to <4 x float>* ; <<4 x float>*> [#uses=1]
    207   %tmp81 = add i64 %tmp80, %tmp51                 ; <i64> [#uses=1]
    208   %scevgep82 = getelementptr float* %O, i64 %tmp81 ; <float*> [#uses=1]
    209   %scevgep8283 = bitcast float* %scevgep82 to <4 x float>* ; <<4 x float>*> [#uses=1]
    210   %tmp85 = add i64 %tmp84, %tmp51                 ; <i64> [#uses=1]
    211   %scevgep86 = getelementptr float* %O, i64 %tmp85 ; <float*> [#uses=1]
    212   %scevgep8687 = bitcast float* %scevgep86 to <4 x float>* ; <<4 x float>*> [#uses=1]
    213   %tmp88 = mul i64 %indvar, -16                   ; <i64> [#uses=1]
    214   %tmp92 = add i64 %tmp91, %tmp88                 ; <i64> [#uses=2]
    215   %52 = load <4 x float>* %scevgep5859, align 16  ; <<4 x float>> [#uses=2]
    216   %53 = load <4 x float>* %scevgep6263, align 16  ; <<4 x float>> [#uses=2]
    217   %54 = load <4 x float>* %scevgep6667, align 16  ; <<4 x float>> [#uses=2]
    218   %55 = load <4 x float>* %scevgep7071, align 16  ; <<4 x float>> [#uses=2]
    219   %56 = shufflevector <4 x float> %vI0.019, <4 x float> %52, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
    220   %57 = shufflevector <4 x float> %56, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
    221   %58 = shufflevector <4 x float> %52, <4 x float> %53, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
    222   %59 = shufflevector <4 x float> %58, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
    223   %60 = shufflevector <4 x float> %53, <4 x float> %54, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
    224   %61 = shufflevector <4 x float> %60, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
    225   %62 = shufflevector <4 x float> %54, <4 x float> %55, <4 x i32> <i32 4, i32 1, i32 2, i32 3> ; <<4 x float>> [#uses=1]
    226   %63 = shufflevector <4 x float> %62, <4 x float> undef, <4 x i32> <i32 1, i32 2, i32 3, i32 0> ; <<4 x float>> [#uses=1]
    227   %64 = fmul <4 x float> %57, %vX0.223            ; <<4 x float>> [#uses=1]
    228   %65 = fadd <4 x float> %vX0.223, %asmtmp.i18    ; <<4 x float>> [#uses=2]
    229   %66 = fmul <4 x float> %59, %vX1.120            ; <<4 x float>> [#uses=1]
    230   %67 = fmul <4 x float> %61, %vX2.121            ; <<4 x float>> [#uses=1]
    231   %68 = fmul <4 x float> %63, %vX3.125            ; <<4 x float>> [#uses=1]
    232   store <4 x float> %64, <4 x float>* %scevgep7374, align 16
    233   store <4 x float> %66, <4 x float>* %scevgep7879, align 16
    234   store <4 x float> %67, <4 x float>* %scevgep8283, align 16
    235   store <4 x float> %68, <4 x float>* %scevgep8687, align 16
    236   %69 = fadd <4 x float> %vX3.125, %asmtmp.i18    ; <<4 x float>> [#uses=1]
    237   %70 = fadd <4 x float> %vX2.121, %asmtmp.i18    ; <<4 x float>> [#uses=1]
    238   %71 = fadd <4 x float> %vX1.120, %asmtmp.i18    ; <<4 x float>> [#uses=1]
    239   %72 = icmp sgt i64 %tmp92, 15                   ; <i1> [#uses=1]
    240   %indvar.next = add i64 %indvar, 1               ; <i64> [#uses=1]
    241   br i1 %72, label %bb9, label %bb10.bb11.loopexit_crit_edge
    242 
    243 bb10.bb11.loopexit_crit_edge:                     ; preds = %bb9
    244   %scevgep = getelementptr float* %I, i64 %tmp55  ; <float*> [#uses=1]
    245   %scevgep75 = getelementptr float* %O, i64 %tmp55 ; <float*> [#uses=1]
    246   br label %bb11
    247 
    248 bb11:                                             ; preds = %bb8, %bb10.bb11.loopexit_crit_edge, %bb7
    249   %N_addr.2 = phi i64 [ %N_addr.1.lcssa, %bb7 ], [ %tmp92, %bb10.bb11.loopexit_crit_edge ], [ %N_addr.0, %bb8 ] ; <i64> [#uses=2]
    250   %vX0.1 = phi <4 x float> [ %vX0.0.lcssa, %bb7 ], [ %65, %bb10.bb11.loopexit_crit_edge ], [ %31, %bb8 ] ; <<4 x float>> [#uses=1]
    251   %O_addr.2 = phi float* [ %O_addr.1.lcssa, %bb7 ], [ %scevgep75, %bb10.bb11.loopexit_crit_edge ], [ %O_addr.0, %bb8 ] ; <float*> [#uses=1]
    252   %I_addr.2 = phi float* [ %I_addr.1.lcssa, %bb7 ], [ %scevgep, %bb10.bb11.loopexit_crit_edge ], [ %I_addr.0, %bb8 ] ; <float*> [#uses=1]
    253   %73 = extractelement <4 x float> %vX0.1, i32 0  ; <float> [#uses=2]
    254   %74 = icmp sgt i64 %N_addr.2, 0                 ; <i1> [#uses=1]
    255   br i1 %74, label %bb12, label %bb14
    256 
    257 bb12:                                             ; preds = %bb11, %bb12
    258   %indvar94 = phi i64 [ %indvar.next95, %bb12 ], [ 0, %bb11 ] ; <i64> [#uses=3]
    259   %x.130 = phi float [ %77, %bb12 ], [ %73, %bb11 ] ; <float> [#uses=2]
    260   %I_addr.433 = getelementptr float* %I_addr.2, i64 %indvar94 ; <float*> [#uses=1]
    261   %O_addr.432 = getelementptr float* %O_addr.2, i64 %indvar94 ; <float*> [#uses=1]
    262   %75 = load float* %I_addr.433, align 4          ; <float> [#uses=1]
    263   %76 = fmul float %75, %x.130                    ; <float> [#uses=1]
    264   store float %76, float* %O_addr.432, align 4
    265   %77 = fadd float %x.130, %0                     ; <float> [#uses=2]
    266   %indvar.next95 = add i64 %indvar94, 1           ; <i64> [#uses=2]
    267   %exitcond = icmp eq i64 %indvar.next95, %N_addr.2 ; <i1> [#uses=1]
    268   br i1 %exitcond, label %bb14, label %bb12
    269 
    270 bb14:                                             ; preds = %bb12, %bb11
    271   %x.1.lcssa = phi float [ %73, %bb11 ], [ %77, %bb12 ] ; <float> [#uses=1]
    272   store float %x.1.lcssa, float* %Start, align 4
    273   ret void
    274 
    275 return:                                           ; preds = %entry
    276   ret void
    277 }
    278 
    279 ; Codegen shouldn't crash on this testcase.
    280 
    281 define void @bar(i32 %a, i32 %b) nounwind {
    282 entry:                           ; preds = %bb1, %entry, %for.end204
    283   br label %outer
    284 
    285 outer:                                     ; preds = %bb1, %entry
    286   %i6 = phi i32 [ %storemerge171, %bb1 ], [ %a, %entry ] ; <i32> [#uses=2]
    287   %storemerge171 = add i32 %i6, 1      ; <i32> [#uses=1]
    288   br label %inner
    289 
    290 inner:                                       ; preds = %bb0, %if.end275
    291   %i8 = phi i32 [ %a, %outer ], [ %indvar.next159, %bb0 ] ; <i32> [#uses=2]
    292   %t338 = load i32* undef                     ; <i32> [#uses=1]
    293   %t191 = mul i32 %i8, %t338        ; <i32> [#uses=1]
    294   %t179 = add i32 %i6, %t191        ; <i32> [#uses=1]
    295   br label %bb0
    296 
    297 bb0:                                     ; preds = %for.body332
    298   %indvar.next159 = add i32 %i8, 1     ; <i32> [#uses=1]
    299   br i1 undef, label %bb1, label %inner
    300 
    301 bb1:                                     ; preds = %bb0, %outer
    302   %midx.4 = phi i32 [ %t179, %bb0 ] ; <i32> [#uses=0]
    303   br label %outer
    304 }
    305