1 ; RUN: llc < %s -march=x86-64 -enable-lsr-nested | FileCheck %s 2 ; 3 ; Nested LSR is required to optimize this case. 4 ; We do not expect to see this form of IR without -enable-iv-rewrite. 5 6 ; xfailed for now because the scheduler two-address hack has been disabled. 7 ; Now it's generating a leal -1 rather than a decq. 8 ; XFAIL: * 9 10 define void @borf(i8* nocapture %in, i8* nocapture %out) nounwind { 11 ; CHECK-LABEL: borf: 12 ; CHECK-NOT: inc 13 ; CHECK-NOT: leal 1( 14 ; CHECK-NOT: leal -1( 15 ; CHECK: decq 16 ; CHECK-NEXT: cmpq $-478 17 ; CHECK: ret 18 19 bb4.thread: 20 br label %bb2.outer 21 22 bb2.outer: ; preds = %bb4, %bb4.thread 23 %indvar19 = phi i64 [ 0, %bb4.thread ], [ %indvar.next29, %bb4 ] ; <i64> [#uses=3] 24 %indvar31 = trunc i64 %indvar19 to i16 ; <i16> [#uses=1] 25 %i.0.reg2mem.0.ph = sub i16 639, %indvar31 ; <i16> [#uses=1] 26 %0 = zext i16 %i.0.reg2mem.0.ph to i32 ; <i32> [#uses=1] 27 %1 = mul i32 %0, 480 ; <i32> [#uses=1] 28 %tmp21 = mul i64 %indvar19, -478 ; <i64> [#uses=1] 29 br label %bb2 30 31 bb2: ; preds = %bb2, %bb2.outer 32 %indvar = phi i64 [ 0, %bb2.outer ], [ %indvar.next, %bb2 ] ; <i64> [#uses=3] 33 %indvar16 = trunc i64 %indvar to i16 ; <i16> [#uses=1] 34 %ctg2 = getelementptr i8* %out, i64 %tmp21 ; <i8*> [#uses=1] 35 %tmp22 = ptrtoint i8* %ctg2 to i64 ; <i64> [#uses=1] 36 %tmp24 = sub i64 %tmp22, %indvar ; <i64> [#uses=1] 37 %out_addr.0.reg2mem.0 = inttoptr i64 %tmp24 to i8* ; <i8*> [#uses=1] 38 %j.0.reg2mem.0 = sub i16 479, %indvar16 ; <i16> [#uses=1] 39 %2 = zext i16 %j.0.reg2mem.0 to i32 ; <i32> [#uses=1] 40 %3 = add i32 %1, %2 ; <i32> [#uses=9] 41 %4 = add i32 %3, -481 ; <i32> [#uses=1] 42 %5 = zext i32 %4 to i64 ; <i64> [#uses=1] 43 %6 = getelementptr i8* %in, i64 %5 ; <i8*> [#uses=1] 44 %7 = load i8* %6, align 1 ; <i8> [#uses=1] 45 %8 = add i32 %3, -480 ; <i32> [#uses=1] 46 %9 = zext i32 %8 to i64 ; <i64> [#uses=1] 47 %10 = getelementptr i8* %in, i64 %9 ; <i8*> [#uses=1] 48 %11 = load i8* %10, align 1 ; <i8> [#uses=1] 49 %12 = add i32 %3, -479 ; <i32> [#uses=1] 50 %13 = zext i32 %12 to i64 ; <i64> [#uses=1] 51 %14 = getelementptr i8* %in, i64 %13 ; <i8*> [#uses=1] 52 %15 = load i8* %14, align 1 ; <i8> [#uses=1] 53 %16 = add i32 %3, -1 ; <i32> [#uses=1] 54 %17 = zext i32 %16 to i64 ; <i64> [#uses=1] 55 %18 = getelementptr i8* %in, i64 %17 ; <i8*> [#uses=1] 56 %19 = load i8* %18, align 1 ; <i8> [#uses=1] 57 %20 = zext i32 %3 to i64 ; <i64> [#uses=1] 58 %21 = getelementptr i8* %in, i64 %20 ; <i8*> [#uses=1] 59 %22 = load i8* %21, align 1 ; <i8> [#uses=1] 60 %23 = add i32 %3, 1 ; <i32> [#uses=1] 61 %24 = zext i32 %23 to i64 ; <i64> [#uses=1] 62 %25 = getelementptr i8* %in, i64 %24 ; <i8*> [#uses=1] 63 %26 = load i8* %25, align 1 ; <i8> [#uses=1] 64 %27 = add i32 %3, 481 ; <i32> [#uses=1] 65 %28 = zext i32 %27 to i64 ; <i64> [#uses=1] 66 %29 = getelementptr i8* %in, i64 %28 ; <i8*> [#uses=1] 67 %30 = load i8* %29, align 1 ; <i8> [#uses=1] 68 %31 = add i32 %3, 480 ; <i32> [#uses=1] 69 %32 = zext i32 %31 to i64 ; <i64> [#uses=1] 70 %33 = getelementptr i8* %in, i64 %32 ; <i8*> [#uses=1] 71 %34 = load i8* %33, align 1 ; <i8> [#uses=1] 72 %35 = add i32 %3, 479 ; <i32> [#uses=1] 73 %36 = zext i32 %35 to i64 ; <i64> [#uses=1] 74 %37 = getelementptr i8* %in, i64 %36 ; <i8*> [#uses=1] 75 %38 = load i8* %37, align 1 ; <i8> [#uses=1] 76 %39 = add i8 %11, %7 ; <i8> [#uses=1] 77 %40 = add i8 %39, %15 ; <i8> [#uses=1] 78 %41 = add i8 %40, %19 ; <i8> [#uses=1] 79 %42 = add i8 %41, %22 ; <i8> [#uses=1] 80 %43 = add i8 %42, %26 ; <i8> [#uses=1] 81 %44 = add i8 %43, %30 ; <i8> [#uses=1] 82 %45 = add i8 %44, %34 ; <i8> [#uses=1] 83 %46 = add i8 %45, %38 ; <i8> [#uses=1] 84 store i8 %46, i8* %out_addr.0.reg2mem.0, align 1 85 %indvar.next = add i64 %indvar, 1 ; <i64> [#uses=2] 86 %exitcond = icmp eq i64 %indvar.next, 478 ; <i1> [#uses=1] 87 br i1 %exitcond, label %bb4, label %bb2 88 89 bb4: ; preds = %bb2 90 %indvar.next29 = add i64 %indvar19, 1 ; <i64> [#uses=2] 91 %exitcond30 = icmp eq i64 %indvar.next29, 638 ; <i1> [#uses=1] 92 br i1 %exitcond30, label %return, label %bb2.outer 93 94 return: ; preds = %bb4 95 ret void 96 } 97