/external/llvm/test/Analysis/ScalarEvolution/ |
2011-04-26-FoldAddRec.ll | 22 %p_18.addr.011 = phi i8 [ %add12, %for.inc9 ], [ %p_18, %for.cond ] 23 %add12 = add i8 %p_18.addr.011, 1 24 %mul.i2 = mul i8 %add12, %conv.i4
|
/external/swiftshader/third_party/LLVM/test/Analysis/ScalarEvolution/ |
2011-04-26-FoldAddRec.ll | 22 %p_18.addr.011 = phi i8 [ %add12, %for.inc9 ], [ %p_18, %for.cond ] 23 %add12 = add i8 %p_18.addr.011, 1 24 %mul.i2 = mul i8 %add12, %conv.i4
|
/external/llvm/test/Transforms/LoopReroll/ |
reduction.ll | 11 %r.029 = phi i32 [ 0, %entry ], [ %add12, %for.body ] 26 %add12 = add nsw i32 %add8, %6 47 ret i32 %add12 56 %r.029 = phi float [ 0.0, %entry ], [ %add12, %for.body ] 71 %add12 = fadd float %add8, %6 92 ret float %add12 101 %r.029 = phi i32 [ 0, %entry ], [ %add12, %for.body ] 116 %add12 = add nsw i32 %add8, %6 128 ret i32 %add12
|
indvar_with_ext.ll | 115 ;CHECK: %add12 = add i8 %i.022, 2 116 ;CHECK-NEXT: %conv = sext i8 %add12 to i32 121 %i.022 = phi i8 [ %add12, %for.body ], [ 0, %for.body.preheader ] 133 %add12 = add i8 %i.022, 2 134 %conv = sext i8 %add12 to i32
|
/external/llvm/test/Analysis/BasicAA/ |
bug.23626.ll | 18 %add12 = or i32 %num.0.lcssa, 2 19 %idxprom13 = zext i32 %add12 to i64
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
long_chains.ll | 28 %add12 = fadd double %mul11, 1.000000e+00 31 %mul15 = fmul double %add12, %add12
|
reduction.ll | 29 %add12 = or i32 %mul, 1 30 %arrayidx3 = getelementptr inbounds double, double* %A, i32 %add12
|
/external/llvm/test/CodeGen/SystemZ/ |
frame-05.ll | 60 %add12 = add i32 %l12, %add11 61 %add13 = add i32 %l13, %add12 74 store volatile i32 %add12, i32 *%ptr 126 %add12 = add i32 %l12, %add11 127 %add13 = add i32 %l13, %add12 139 store volatile i32 %add12, i32 *%ptr
|
frame-06.ll | 57 %add12 = add i64 %l12, %add11 58 %add13 = add i64 %l13, %add12 71 store volatile i64 %add12, i64 *%ptr 123 %add12 = add i64 %l12, %add11 124 %add13 = add i64 %l13, %add12 136 store volatile i64 %add12, i64 *%ptr
|
frame-04.ll | 55 %add12 = fadd fp128 %l12, %add9 56 %add13 = fadd fp128 %l13, %add12 63 store volatile fp128 %add12, fp128 *%ptr 110 %add12 = fadd fp128 %l12, %add9 117 store volatile fp128 %add12, fp128 *%ptr
|
frame-02.ll | 68 %add12 = fadd float %l12, %add11 69 %add13 = fadd float %l13, %add12 84 store volatile float %add12, float *%ptr 149 %add12 = fadd float %l12, %add11 150 %add13 = fadd float %l13, %add12 164 store volatile float %add12, float *%ptr
|
frame-03.ll | 70 %add12 = fadd double %l12, %add11 71 %add13 = fadd double %l13, %add12 86 store volatile double %add12, double *%ptr 151 %add12 = fadd double %l12, %add11 152 %add13 = fadd double %l13, %add12 166 store volatile double %add12, double *%ptr
|
frame-07.ll | 99 %add12 = fadd double %l12, %add11 100 %add13 = fadd double %l13, %add12 115 store volatile double %add12, double *%ptr 228 %add12 = fadd double %l12, %add11 229 %add13 = fadd double %l13, %add12 244 store volatile double %add12, double *%ptr
|
frame-08.ll | 51 %add12 = add i32 %l12, %add11 52 %add13 = add i32 %l13, %add12 64 store volatile i32 %add12, i32 *%ptr 154 %add12 = add i32 %l12, %add11 155 %add13 = add i32 %l13, %add12 167 store volatile i32 %add12, i32 *%ptr
|
frame-09.ll | 90 %add12 = add i32 %l12, %add10 91 %add13 = add i32 %l13, %add12 103 store volatile i32 %add12, i32 *%ptr
|
int-add-11.ll | 170 %add12 = add i32 %val12, 127 189 %new12 = phi i32 [ %val12, %entry ], [ %add12, %add ] 253 %add12 = add i32 %val12, -128 272 %new12 = phi i32 [ %val12, %entry ], [ %add12, %add ]
|
int-add-12.ll | 169 %add12 = add i64 %val12, 127 188 %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ] 252 %add12 = add i64 %val12, -128 271 %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ]
|
/external/llvm/test/Transforms/BBVectorize/ |
loop1.ll | 30 %add12 = fadd double %add7, %mul11 32 store double %add12, double* %arrayidx14, align 8 57 ; CHECK: %add12 = fadd double %add7, %mul6.v.r2 59 ; CHECK: store double %add12, double* %arrayidx14, align 8 83 ; CHECK-UNRL: %add12 = fadd <2 x double> %add7, %mul11 85 ; CHECK-UNRL: store <2 x double> %add12, <2 x double>* %4, align 8
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
loop1.ll | 30 %add12 = fadd double %add7, %mul11 32 store double %add12, double* %arrayidx14, align 8 57 ; CHECK-UNRL: %add12 = fadd <2 x double> %add7, %mul11
|
/external/llvm/test/CodeGen/AMDGPU/ |
ds-negative-offset-addressing-mode-loop.ll | 54 %add12 = fadd float %add11, %tmp4 55 %add13 = fadd float %sum.03, %add12
|
/external/llvm/test/CodeGen/Hexagon/ |
csr-func-usedef.ll | 46 %add12 = add nuw nsw i32 %add10, %conv9 47 %add14 = add nuw nsw i32 %add12, %conv11
|
/external/llvm/test/CodeGen/X86/ |
atom-fixup-lea2.ll | 71 %add12 = add i32 %add, %4 75 %arrayidx = getelementptr inbounds i32, i32* %6, i32 %add12
|
/external/llvm/test/Transforms/LoopStrengthReduce/AArch64/ |
req-regs.ll | 47 %add12 = shl i32 %add11, 1 48 %add13 = add nsw i32 %add12, %i.053
|
/external/llvm/test/CodeGen/ARM/ |
thumb2-size-reduction-internal-flags.ll | 36 %savefaulty.0194 = phi i32 [ %add12, %for.inc30 ], [ 0, %for.cond3.preheader ] 44 %savefaulty.1187 = phi i32 [ %savefaulty.0194, %for.cond6.preheader ], [ %add12, %for.body8 ] 51 %add12 = add nsw i32 %2, %savefaulty.1187 130 %add84 = add nsw i32 %14, %add12 136 %savefaulty.5 = phi i32 [ %add12, %for.end73.if.end85_crit_edge ], [ %add84, %if.then80 ]
|
special-reg-mcore.ll | 50 %add12 = add i32 %add11, %12 52 %add13 = add i32 %add12, %13
|