1 ; RUN: llc -march=hexagon -enable-unsafe-fp-math -enable-pipeliner \ 2 ; RUN: -pipeliner-prune-deps=false -stats -o /dev/null < %s 3 ; REQUIRES: asserts 4 5 ; Test that checks we dont crash when SWP a loop with lots of Phis, and 6 ; the Phi operand refer to Phis from the same loop. 7 8 ; Function Attrs: nounwind 9 define void @f0(float* nocapture %a0, float* nocapture %a1) #0 { 10 b0: 11 %v0 = alloca [400 x float], align 4 12 %v1 = getelementptr inbounds float, float* %a1, i32 1 13 %v2 = getelementptr inbounds float, float* %a1, i32 2 14 %v3 = getelementptr inbounds float, float* %a1, i32 3 15 %v4 = getelementptr inbounds float, float* %a1, i32 4 16 %v5 = getelementptr inbounds float, float* %a1, i32 5 17 %v6 = getelementptr inbounds float, float* %a1, i32 6 18 %v7 = getelementptr inbounds float, float* %a1, i32 7 19 %v8 = getelementptr inbounds float, float* %a1, i32 8 20 %v9 = getelementptr inbounds float, float* %a1, i32 9 21 %v10 = getelementptr inbounds float, float* %a1, i32 10 22 %v11 = getelementptr inbounds float, float* %a1, i32 11 23 %v12 = getelementptr inbounds float, float* %a1, i32 12 24 %v13 = getelementptr inbounds float, float* %a1, i32 13 25 %v14 = getelementptr inbounds float, float* %a1, i32 14 26 %v15 = getelementptr inbounds float, float* %a1, i32 15 27 %v16 = getelementptr inbounds float, float* %a1, i32 16 28 %v17 = load float, float* %a1, align 4 29 %v18 = load float, float* %v1, align 4 30 %v19 = load float, float* %v2, align 4 31 %v20 = load float, float* %v3, align 4 32 %v21 = load float, float* %v4, align 4 33 %v22 = load float, float* %v5, align 4 34 %v23 = load float, float* %v6, align 4 35 %v24 = load float, float* %v7, align 4 36 %v25 = load float, float* %v8, align 4 37 %v26 = load float, float* %v9, align 4 38 %v27 = load float, float* %v10, align 4 39 %v28 = load float, float* %v11, align 4 40 %v29 = load float, float* %v12, align 4 41 %v30 = load float, float* %v13, align 4 42 %v31 = load float, float* %v14, align 4 43 %v32 = load float, float* %v15, align 4 44 %v33 = load float, float* %v16, align 4 45 br label %b1 46 47 b1: ; preds = %b1, %b0 48 %v34 = phi float [ undef, %b0 ], [ %v103, %b1 ] 49 %v35 = phi float [ undef, %b0 ], [ %v34, %b1 ] 50 %v36 = phi float [ undef, %b0 ], [ %v35, %b1 ] 51 %v37 = phi float [ undef, %b0 ], [ %v36, %b1 ] 52 %v38 = phi float [ undef, %b0 ], [ %v37, %b1 ] 53 %v39 = phi float [ undef, %b0 ], [ %v38, %b1 ] 54 %v40 = phi float [ undef, %b0 ], [ %v39, %b1 ] 55 %v41 = phi float [ undef, %b0 ], [ %v40, %b1 ] 56 %v42 = phi float [ undef, %b0 ], [ %v41, %b1 ] 57 %v43 = phi float [ undef, %b0 ], [ %v42, %b1 ] 58 %v44 = phi float [ undef, %b0 ], [ %v43, %b1 ] 59 %v45 = phi float [ undef, %b0 ], [ %v44, %b1 ] 60 %v46 = phi float [ undef, %b0 ], [ %v45, %b1 ] 61 %v47 = phi float [ undef, %b0 ], [ %v46, %b1 ] 62 %v48 = phi float [ undef, %b0 ], [ %v47, %b1 ] 63 %v49 = phi float [ undef, %b0 ], [ %v48, %b1 ] 64 %v50 = phi float [ %v33, %b0 ], [ %v105, %b1 ] 65 %v51 = phi float [ %v32, %b0 ], [ %v100, %b1 ] 66 %v52 = phi float [ %v31, %b0 ], [ %v98, %b1 ] 67 %v53 = phi float [ %v30, %b0 ], [ %v96, %b1 ] 68 %v54 = phi float [ %v29, %b0 ], [ %v94, %b1 ] 69 %v55 = phi float [ %v28, %b0 ], [ %v92, %b1 ] 70 %v56 = phi float [ %v27, %b0 ], [ %v90, %b1 ] 71 %v57 = phi float [ %v26, %b0 ], [ %v88, %b1 ] 72 %v58 = phi float [ %v25, %b0 ], [ %v86, %b1 ] 73 %v59 = phi float [ %v24, %b0 ], [ %v84, %b1 ] 74 %v60 = phi float [ %v23, %b0 ], [ %v82, %b1 ] 75 %v61 = phi float [ %v22, %b0 ], [ %v80, %b1 ] 76 %v62 = phi float [ %v21, %b0 ], [ %v78, %b1 ] 77 %v63 = phi float [ %v20, %b0 ], [ %v76, %b1 ] 78 %v64 = phi float [ %v19, %b0 ], [ %v74, %b1 ] 79 %v65 = phi float [ %v18, %b0 ], [ %v72, %b1 ] 80 %v66 = phi float [ %v17, %b0 ], [ %v69, %b1 ] 81 %v67 = phi i32 [ 0, %b0 ], [ %v70, %b1 ] 82 %v68 = fmul float %v49, %v49 83 %v69 = fadd float %v66, %v68 84 %v70 = add nsw i32 %v67, 1 85 %v71 = fmul float %v49, %v48 86 %v72 = fadd float %v65, %v71 87 %v73 = fmul float %v49, %v47 88 %v74 = fadd float %v64, %v73 89 %v75 = fmul float %v49, %v46 90 %v76 = fadd float %v63, %v75 91 %v77 = fmul float %v49, %v45 92 %v78 = fadd float %v62, %v77 93 %v79 = fmul float %v49, %v44 94 %v80 = fadd float %v61, %v79 95 %v81 = fmul float %v49, %v43 96 %v82 = fadd float %v60, %v81 97 %v83 = fmul float %v49, %v42 98 %v84 = fadd float %v59, %v83 99 %v85 = fmul float %v49, %v41 100 %v86 = fadd float %v58, %v85 101 %v87 = fmul float %v49, %v40 102 %v88 = fadd float %v57, %v87 103 %v89 = fmul float %v49, %v39 104 %v90 = fadd float %v56, %v89 105 %v91 = fmul float %v49, %v38 106 %v92 = fadd float %v55, %v91 107 %v93 = fmul float %v49, %v37 108 %v94 = fadd float %v54, %v93 109 %v95 = fmul float %v49, %v36 110 %v96 = fadd float %v53, %v95 111 %v97 = fmul float %v49, %v35 112 %v98 = fadd float %v52, %v97 113 %v99 = fmul float %v49, %v34 114 %v100 = fadd float %v51, %v99 115 %v101 = add nsw i32 %v67, 16 116 %v102 = getelementptr inbounds [400 x float], [400 x float]* %v0, i32 0, i32 %v101 117 %v103 = load float, float* %v102, align 4, !tbaa !0 118 %v104 = fmul float %v49, %v103 119 %v105 = fadd float %v50, %v104 120 %v106 = icmp eq i32 %v70, 384 121 br i1 %v106, label %b2, label %b1 122 123 b2: ; preds = %b1 124 store float %v69, float* %a1, align 4 125 store float %v72, float* %v1, align 4 126 store float %v74, float* %v2, align 4 127 store float %v76, float* %v3, align 4 128 store float %v78, float* %v4, align 4 129 store float %v80, float* %v5, align 4 130 store float %v82, float* %v6, align 4 131 store float %v84, float* %v7, align 4 132 store float %v86, float* %v8, align 4 133 store float %v88, float* %v9, align 4 134 store float %v90, float* %v10, align 4 135 store float %v92, float* %v11, align 4 136 store float %v94, float* %v12, align 4 137 store float %v96, float* %v13, align 4 138 store float %v98, float* %v14, align 4 139 store float %v100, float* %v15, align 4 140 store float %v105, float* %v16, align 4 141 %v107 = fcmp olt float %v69, 1.000000e+00 142 br i1 %v107, label %b3, label %b4 143 144 b3: ; preds = %b2 145 store float 1.000000e+00, float* %a1, align 4, !tbaa !0 146 br label %b4 147 148 b4: ; preds = %b3, %b2 149 ret void 150 } 151 152 attributes #0 = { nounwind "target-cpu"="hexagonv55" } 153 154 !0 = !{!1, !1, i64 0} 155 !1 = !{!"float", !2} 156 !2 = !{!"omnipotent char", !3} 157 !3 = !{!"Simple C/C++ TBAA"} 158