Home | History | Annotate | Download | only in Hexagon
      1 ; RUN: llc -march=hexagon -enable-unsafe-fp-math -enable-pipeliner \
      2 ; RUN:     -pipeliner-prune-deps=false -stats -o /dev/null < %s
      3 ; REQUIRES: asserts
      4 
      5 ; Test that checks we dont crash when SWP a loop with lots of Phis, and
      6 ; the Phi operand refer to Phis from the same loop.
      7 
      8 ; Function Attrs: nounwind
      9 define void @f0(float* nocapture %a0, float* nocapture %a1) #0 {
     10 b0:
     11   %v0 = alloca [400 x float], align 4
     12   %v1 = getelementptr inbounds float, float* %a1, i32 1
     13   %v2 = getelementptr inbounds float, float* %a1, i32 2
     14   %v3 = getelementptr inbounds float, float* %a1, i32 3
     15   %v4 = getelementptr inbounds float, float* %a1, i32 4
     16   %v5 = getelementptr inbounds float, float* %a1, i32 5
     17   %v6 = getelementptr inbounds float, float* %a1, i32 6
     18   %v7 = getelementptr inbounds float, float* %a1, i32 7
     19   %v8 = getelementptr inbounds float, float* %a1, i32 8
     20   %v9 = getelementptr inbounds float, float* %a1, i32 9
     21   %v10 = getelementptr inbounds float, float* %a1, i32 10
     22   %v11 = getelementptr inbounds float, float* %a1, i32 11
     23   %v12 = getelementptr inbounds float, float* %a1, i32 12
     24   %v13 = getelementptr inbounds float, float* %a1, i32 13
     25   %v14 = getelementptr inbounds float, float* %a1, i32 14
     26   %v15 = getelementptr inbounds float, float* %a1, i32 15
     27   %v16 = getelementptr inbounds float, float* %a1, i32 16
     28   %v17 = load float, float* %a1, align 4
     29   %v18 = load float, float* %v1, align 4
     30   %v19 = load float, float* %v2, align 4
     31   %v20 = load float, float* %v3, align 4
     32   %v21 = load float, float* %v4, align 4
     33   %v22 = load float, float* %v5, align 4
     34   %v23 = load float, float* %v6, align 4
     35   %v24 = load float, float* %v7, align 4
     36   %v25 = load float, float* %v8, align 4
     37   %v26 = load float, float* %v9, align 4
     38   %v27 = load float, float* %v10, align 4
     39   %v28 = load float, float* %v11, align 4
     40   %v29 = load float, float* %v12, align 4
     41   %v30 = load float, float* %v13, align 4
     42   %v31 = load float, float* %v14, align 4
     43   %v32 = load float, float* %v15, align 4
     44   %v33 = load float, float* %v16, align 4
     45   br label %b1
     46 
     47 b1:                                               ; preds = %b1, %b0
     48   %v34 = phi float [ undef, %b0 ], [ %v103, %b1 ]
     49   %v35 = phi float [ undef, %b0 ], [ %v34, %b1 ]
     50   %v36 = phi float [ undef, %b0 ], [ %v35, %b1 ]
     51   %v37 = phi float [ undef, %b0 ], [ %v36, %b1 ]
     52   %v38 = phi float [ undef, %b0 ], [ %v37, %b1 ]
     53   %v39 = phi float [ undef, %b0 ], [ %v38, %b1 ]
     54   %v40 = phi float [ undef, %b0 ], [ %v39, %b1 ]
     55   %v41 = phi float [ undef, %b0 ], [ %v40, %b1 ]
     56   %v42 = phi float [ undef, %b0 ], [ %v41, %b1 ]
     57   %v43 = phi float [ undef, %b0 ], [ %v42, %b1 ]
     58   %v44 = phi float [ undef, %b0 ], [ %v43, %b1 ]
     59   %v45 = phi float [ undef, %b0 ], [ %v44, %b1 ]
     60   %v46 = phi float [ undef, %b0 ], [ %v45, %b1 ]
     61   %v47 = phi float [ undef, %b0 ], [ %v46, %b1 ]
     62   %v48 = phi float [ undef, %b0 ], [ %v47, %b1 ]
     63   %v49 = phi float [ undef, %b0 ], [ %v48, %b1 ]
     64   %v50 = phi float [ %v33, %b0 ], [ %v105, %b1 ]
     65   %v51 = phi float [ %v32, %b0 ], [ %v100, %b1 ]
     66   %v52 = phi float [ %v31, %b0 ], [ %v98, %b1 ]
     67   %v53 = phi float [ %v30, %b0 ], [ %v96, %b1 ]
     68   %v54 = phi float [ %v29, %b0 ], [ %v94, %b1 ]
     69   %v55 = phi float [ %v28, %b0 ], [ %v92, %b1 ]
     70   %v56 = phi float [ %v27, %b0 ], [ %v90, %b1 ]
     71   %v57 = phi float [ %v26, %b0 ], [ %v88, %b1 ]
     72   %v58 = phi float [ %v25, %b0 ], [ %v86, %b1 ]
     73   %v59 = phi float [ %v24, %b0 ], [ %v84, %b1 ]
     74   %v60 = phi float [ %v23, %b0 ], [ %v82, %b1 ]
     75   %v61 = phi float [ %v22, %b0 ], [ %v80, %b1 ]
     76   %v62 = phi float [ %v21, %b0 ], [ %v78, %b1 ]
     77   %v63 = phi float [ %v20, %b0 ], [ %v76, %b1 ]
     78   %v64 = phi float [ %v19, %b0 ], [ %v74, %b1 ]
     79   %v65 = phi float [ %v18, %b0 ], [ %v72, %b1 ]
     80   %v66 = phi float [ %v17, %b0 ], [ %v69, %b1 ]
     81   %v67 = phi i32 [ 0, %b0 ], [ %v70, %b1 ]
     82   %v68 = fmul float %v49, %v49
     83   %v69 = fadd float %v66, %v68
     84   %v70 = add nsw i32 %v67, 1
     85   %v71 = fmul float %v49, %v48
     86   %v72 = fadd float %v65, %v71
     87   %v73 = fmul float %v49, %v47
     88   %v74 = fadd float %v64, %v73
     89   %v75 = fmul float %v49, %v46
     90   %v76 = fadd float %v63, %v75
     91   %v77 = fmul float %v49, %v45
     92   %v78 = fadd float %v62, %v77
     93   %v79 = fmul float %v49, %v44
     94   %v80 = fadd float %v61, %v79
     95   %v81 = fmul float %v49, %v43
     96   %v82 = fadd float %v60, %v81
     97   %v83 = fmul float %v49, %v42
     98   %v84 = fadd float %v59, %v83
     99   %v85 = fmul float %v49, %v41
    100   %v86 = fadd float %v58, %v85
    101   %v87 = fmul float %v49, %v40
    102   %v88 = fadd float %v57, %v87
    103   %v89 = fmul float %v49, %v39
    104   %v90 = fadd float %v56, %v89
    105   %v91 = fmul float %v49, %v38
    106   %v92 = fadd float %v55, %v91
    107   %v93 = fmul float %v49, %v37
    108   %v94 = fadd float %v54, %v93
    109   %v95 = fmul float %v49, %v36
    110   %v96 = fadd float %v53, %v95
    111   %v97 = fmul float %v49, %v35
    112   %v98 = fadd float %v52, %v97
    113   %v99 = fmul float %v49, %v34
    114   %v100 = fadd float %v51, %v99
    115   %v101 = add nsw i32 %v67, 16
    116   %v102 = getelementptr inbounds [400 x float], [400 x float]* %v0, i32 0, i32 %v101
    117   %v103 = load float, float* %v102, align 4, !tbaa !0
    118   %v104 = fmul float %v49, %v103
    119   %v105 = fadd float %v50, %v104
    120   %v106 = icmp eq i32 %v70, 384
    121   br i1 %v106, label %b2, label %b1
    122 
    123 b2:                                               ; preds = %b1
    124   store float %v69, float* %a1, align 4
    125   store float %v72, float* %v1, align 4
    126   store float %v74, float* %v2, align 4
    127   store float %v76, float* %v3, align 4
    128   store float %v78, float* %v4, align 4
    129   store float %v80, float* %v5, align 4
    130   store float %v82, float* %v6, align 4
    131   store float %v84, float* %v7, align 4
    132   store float %v86, float* %v8, align 4
    133   store float %v88, float* %v9, align 4
    134   store float %v90, float* %v10, align 4
    135   store float %v92, float* %v11, align 4
    136   store float %v94, float* %v12, align 4
    137   store float %v96, float* %v13, align 4
    138   store float %v98, float* %v14, align 4
    139   store float %v100, float* %v15, align 4
    140   store float %v105, float* %v16, align 4
    141   %v107 = fcmp olt float %v69, 1.000000e+00
    142   br i1 %v107, label %b3, label %b4
    143 
    144 b3:                                               ; preds = %b2
    145   store float 1.000000e+00, float* %a1, align 4, !tbaa !0
    146   br label %b4
    147 
    148 b4:                                               ; preds = %b3, %b2
    149   ret void
    150 }
    151 
    152 attributes #0 = { nounwind "target-cpu"="hexagonv55" }
    153 
    154 !0 = !{!1, !1, i64 0}
    155 !1 = !{!"float", !2}
    156 !2 = !{!"omnipotent char", !3}
    157 !3 = !{!"Simple C/C++ TBAA"}
    158