/external/llvm/test/Transforms/InstCombine/ |
nsw.ll | 45 %add3 = add nsw i32 %add, 3 46 ret i32 %add3 53 %add3 = add nsw i8 %add, 3 54 ret i8 %add3 61 %add3 = add nsw i8 %add, 2 62 ret i8 %add3
|
/external/llvm/test/CodeGen/Hexagon/ |
cext-check.ll | 23 %add3 = add nsw i32 %2, 300 27 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ] 51 %add3 = add nsw i32 %conv2, 6000 55 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ]
|
postinc-store.ll | 18 %add3 = add i32 %factor, %conv 19 store i32 %add3, i32* %arrayidx.phi, align 4
|
/external/llvm/test/CodeGen/ARM/ |
2013-01-21-PR14992.ll | 20 %add3 = add nsw i32 %add, %2 21 ret i32 %add3
|
/external/llvm/test/CodeGen/X86/ |
misched-ilp.ll | 22 %add3 = fsub float %add1, %add2 23 %add4 = fadd float %add, %add3
|
atom-fixup-lea3.ll | 34 %sum.010 = phi i32 [ 0, %for.body.lr.ph ], [ %add3, %for.body ] 43 %add3 = add nsw i32 %2, %sum.010 48 %sum.0.lcssa = phi i32 [ 0, %entry ], [ %add3, %for.body ]
|
fast-isel-avoid-unnecessary-pic-base.ll | 22 %add3 = add nsw i32 %add, %tmp2 23 ret i32 %add3
|
twoaddr-lea.ll | 33 %add3 = add i32 %add, %c 34 %add5 = add i32 %add3, %d
|
/external/llvm/test/CodeGen/SystemZ/ |
frame-05.ll | 51 %add3 = add i32 %l3, %add1 52 %add4 = add i32 %l4, %add3 65 store volatile i32 %add3, i32 *%ptr 118 %add3 = add i32 %l3, %add1 119 %add4 = add i32 %l4, %add3 131 store volatile i32 %add3, i32 *%ptr 174 %add3 = add i32 %l3, %add1 175 %add4 = add i32 %l4, %add3 180 store volatile i32 %add3, i32 *%ptr 209 %add3 = add i32 %l3, %add [all...] |
frame-06.ll | 48 %add3 = add i64 %l3, %add1 49 %add4 = add i64 %l4, %add3 62 store volatile i64 %add3, i64 *%ptr 115 %add3 = add i64 %l3, %add1 116 %add4 = add i64 %l4, %add3 128 store volatile i64 %add3, i64 *%ptr 171 %add3 = add i64 %l3, %add1 172 %add4 = add i64 %l4, %add3 177 store volatile i64 %add3, i64 *%ptr 206 %add3 = add i64 %l3, %add [all...] |
frame-02.ll | 59 %add3 = fadd float %l3, %add2 60 %add4 = fadd float %l4, %add3 75 store volatile float %add3, float *%ptr 140 %add3 = fadd float %l3, %add2 141 %add4 = fadd float %l4, %add3 155 store volatile float %add3, float *%ptr 200 %add3 = fadd float %l3, %add2 201 %add4 = fadd float %l4, %add3 209 store volatile float %add3, float *%ptr 243 %add3 = fadd float %l3, %add [all...] |
frame-03.ll | 61 %add3 = fadd double %l3, %add2 62 %add4 = fadd double %l4, %add3 77 store volatile double %add3, double *%ptr 142 %add3 = fadd double %l3, %add2 143 %add4 = fadd double %l4, %add3 157 store volatile double %add3, double *%ptr 202 %add3 = fadd double %l3, %add2 203 %add4 = fadd double %l4, %add3 211 store volatile double %add3, double *%ptr 245 %add3 = fadd double %l3, %add [all...] |
frame-07.ll | 90 %add3 = fadd double %l3, %add2 91 %add4 = fadd double %l4, %add3 106 store volatile double %add3, double *%ptr 219 %add3 = fadd double %l3, %add2 220 %add4 = fadd double %l4, %add3 235 store volatile double %add3, double *%ptr
|
frame-09.ll | 82 %add3 = add i32 %l3, %add1 83 %add4 = add i32 %l4, %add3 95 store volatile i32 %add3, i32 *%ptr
|
fp-add-01.ll | 109 %add3 = fadd float %add2, %val3 110 %add4 = fadd float %add3, %val4
|
fp-add-02.ll | 109 %add3 = fadd double %add2, %val3 110 %add4 = fadd double %add3, %val4
|
int-add-05.ll | 131 %add3 = add i64 %add2, %val3 132 %add4 = add i64 %add3, %val4
|
int-add-08.ll | 139 %add3 = add i128 %add2, %val3 140 %add4 = add i128 %add3, %val4
|
/external/llvm/test/Transforms/DeadStoreElimination/ |
pr11390.ll | 13 %add3 = add i64 %add2, 1 14 %call4 = tail call noalias i8* @malloc(i64 %add3) nounwind
|
/external/llvm/test/Transforms/IndVarSimplify/ |
ult-sub-to-eq.ll | 19 %add3 = fadd float %2, %mul 20 store float %add3, float* %arrayidx2, align 4
|
/external/llvm/test/Transforms/LoopVectorize/ |
runtime-limit.ll | 23 %add3 = add nsw i32 %add, %2 26 %add5 = add nsw i32 %add3, %3 57 %add3 = add nsw i32 %add, %2 60 %add5 = add nsw i32 %add3, %3
|
/external/llvm/test/CodeGen/Mips/ |
return-vector.ll | 26 %add3 = add i32 %v4, %v5 29 %add6 = add i32 %add3, %add4 56 %add3 = fadd float %add1, %add2 57 ret float %add3 78 %add3 = fadd double %add1, %add2 79 ret double %add3 109 %add3 = add i32 %add1, %add2 110 ret i32 %add3
|
stldst.ll | 24 %add3 = add nsw i32 %4, 4 33 %call7 = tail call i32 (i8*, ...)* @printf(i8* getelementptr inbounds ([32 x i8]* @.str, i32 0, i32 0), i32 %0, i32 %1, i32 %add, i32 %add1, i32 %sub, i32 %add2, i32 %add3, i32 %sub4, i32 %sub5, i32 %add6) nounwind
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
hoist.ll | 40 %add3 = add nsw i32 %1, %k 41 store i32 %add3, i32* %arrayidx2, align 4
|
/external/llvm/test/Analysis/CostModel/X86/ |
vectorized-loop.ll | 63 %add3 = add nsw i32 %15, %mul 64 store i32 %add3, i32* %arrayidx2, align 4
|