/external/llvm/test/Transforms/GVN/ |
pr12979.ll | 9 %add2 = add i32 %x, %y 10 %foo = add i32 %add1, %add2 20 %add2 = add i32 %x, %y 21 %foo = add i32 %add1, %add2 31 %add2 = add i32 %x, %y 32 %foo = add i32 %add1, %add2 42 %add2 = add nsw i32 %x, %y 43 %foo = add i32 %add1, %add2 53 %add2 = add nsw i32 %x, %y 54 %foo = add i32 %add1, %add2 [all...] |
fpmath.ll | 9 %add2 = fadd double %x, %y 10 %foo = fadd double %add1, %add2 19 %add2 = fadd double %x, %y, !fpmath !0 20 %foo = fadd double %add1, %add2 29 %add2 = fadd double %x, %y, !fpmath !0 30 %foo = fadd double %add1, %add2 39 %add2 = fadd double %x, %y, !fpmath !1 40 %foo = fadd double %add1, %add2
|
commute.ll | 8 %add2 = add i32 %y, %x 9 call void @use(i32 %add1, i32 %add2)
|
/external/llvm/test/Transforms/LoopStrengthReduce/ |
pr2537.ll | 10 %x.0 = phi i128 [ 0, %entry ], [ %add2, %dobody ] 12 %add2 = add i128 %x.0, shl (i128 1, i128 48) 14 %cmp = icmp ult i128 %add2, shl (i128 1, i128 64)
|
/external/llvm/test/CodeGen/ARM/ |
2009-04-08-FloatUndef.ll | 8 %add2 = fadd <4 x float> %mul1, %input2 ; <<4 x float>> [#uses=1] 9 store <4 x float> %add2, <4 x float>* null, align 16
|
/external/llvm/test/CodeGen/Hexagon/ |
cext-valid-packet1.ll | 14 %add2 = add nsw i32 %c, 200002 16 %b.addr.0 = select i1 %cmp, i32 %add1, i32 %add2
|
postinc-load.ll | 14 %sum.03 = phi i32 [ 0, %entry ], [ %add2, %for.body ] 19 %add2 = add i32 %add, %conv 27 ret i32 %add2
|
/external/llvm/test/CodeGen/PowerPC/ |
2007-11-19-VectorSplitting.ll | 13 %add2 = fadd <4 x float> %mul1, %input2 ; <<4 x float>> 14 store <4 x float> %add2, <4 x float>* null, align 16
|
/external/clang/test/CodeGenCXX/ |
debug-info-template-member.cpp | 6 int add2(int j) function in class:MyClass
|
/external/llvm/test/Transforms/SimplifyCFG/ |
multiple-phis.ll | 8 ; CHECK-NEXT: %low.0.add2 = select i1 %cmp1, i32 %low.0, i32 %add2 17 %low.0 = phi i32 [ 0, %entry ], [ %low.0, %if.then ], [ %add2, %if.else ] 34 %add2 = add i32 %div, 1
|
/external/llvm/test/CodeGen/NVPTX/ |
add-128bit.ll | 15 %add2 = zext i64 %add to i128 16 %val = add i128 %t1, %add2
|
/external/llvm/test/CodeGen/SystemZ/ |
addr-01.ll | 23 %add2 = add i64 %add1, 100 24 %ptr = inttoptr i64 %add2 to i8 * 35 %add2 = add i64 %add1, %index 36 %ptr = inttoptr i64 %add2 to i8 * 47 %add2 = sub i64 %add1, 100 48 %ptr = inttoptr i64 %add2 to i8 * 59 %add2 = add i64 %add1, %index 60 %ptr = inttoptr i64 %add2 to i8 *
|
addr-02.ll | 25 %add2 = add i64 %add1, 100 26 %ptr = inttoptr i64 %add2 to i8 * 38 %add2 = add i64 %add1, %index 39 %ptr = inttoptr i64 %add2 to i8 * 51 %add2 = sub i64 %add1, 100 52 %ptr = inttoptr i64 %add2 to i8 * 64 %add2 = add i64 %add1, %index 65 %ptr = inttoptr i64 %add2 to i8 *
|
frame-02.ll | 58 %add2 = fadd float %l2, %add1 59 %add3 = fadd float %l3, %add2 74 store volatile float %add2, float *%ptr 139 %add2 = fadd float %l2, %add1 140 %add3 = fadd float %l3, %add2 154 store volatile float %add2, float *%ptr 199 %add2 = fadd float %l2, %add1 200 %add3 = fadd float %l3, %add2 208 store volatile float %add2, float *%ptr 242 %add2 = fadd float %l2, %add [all...] |
frame-03.ll | 60 %add2 = fadd double %l2, %add1 61 %add3 = fadd double %l3, %add2 76 store volatile double %add2, double *%ptr 141 %add2 = fadd double %l2, %add1 142 %add3 = fadd double %l3, %add2 156 store volatile double %add2, double *%ptr 201 %add2 = fadd double %l2, %add1 202 %add3 = fadd double %l3, %add2 210 store volatile double %add2, double *%ptr 244 %add2 = fadd double %l2, %add [all...] |
int-add-02.ll | 114 %add2 = add i64 %add1, 4092 115 %ptr = inttoptr i64 %add2 to i32 * 127 %add2 = add i64 %add1, 4096 128 %ptr = inttoptr i64 %add2 to i32 * 165 %add2 = add i32 %add1, %val2 166 %add3 = add i32 %add2, %val3
|
and-05.ll | 144 %add2 = add i64 %add1, 4095 145 %ptr = inttoptr i64 %add2 to i8 * 159 %add2 = add i64 %add1, 4096 160 %ptr = inttoptr i64 %add2 to i8 *
|
fp-move-03.ll | 94 %add2 = add i64 %add1, 4092 95 %ptr = inttoptr i64 %add2 to float * 106 %add2 = add i64 %add1, 4096 107 %ptr = inttoptr i64 %add2 to float *
|
/external/llvm/test/CodeGen/X86/ |
fast-isel-args.ll | 23 %add2 = add nsw i64 %add, %conv1 24 ret i64 %add2
|
misched-ilp.ll | 21 %add2 = fadd float %e, %f 22 %add3 = fsub float %add1, %add2
|
/external/llvm/test/Transforms/DeadStoreElimination/ |
pr11390.ll | 12 %add2 = add i64 %add, %call1 13 %add3 = add i64 %add2, 1 26 %arrayidx8 = getelementptr inbounds i8* %call4, i64 %add2
|
/external/llvm/test/Bitcode/ |
ptest-new.ll | 12 %add2 = add i32 %add1, %res2 13 ret i32 %add2
|
ptest-old.ll | 12 %add2 = add i32 %add1, %res2 13 ret i32 %add2
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
barriercall.ll | 16 %add2 = add nsw i32 %mul1, 9 18 store i32 %add2, i32* %arrayidx3, align 4
|
cross_block_slp.ll | 33 %add2 = fadd float %1, 8.000000e+00 46 %conv5 = fpext float %add2 to double
|