HomeSort by relevance Sort by last modified time
    Searched full:add12 (Results 1 - 25 of 39) sorted by null

1 2

  /external/llvm/test/Analysis/ScalarEvolution/
2011-04-26-FoldAddRec.ll 22 %p_18.addr.011 = phi i8 [ %add12, %for.inc9 ], [ %p_18, %for.cond ]
23 %add12 = add i8 %p_18.addr.011, 1
24 %mul.i2 = mul i8 %add12, %conv.i4
  /external/swiftshader/third_party/LLVM/test/Analysis/ScalarEvolution/
2011-04-26-FoldAddRec.ll 22 %p_18.addr.011 = phi i8 [ %add12, %for.inc9 ], [ %p_18, %for.cond ]
23 %add12 = add i8 %p_18.addr.011, 1
24 %mul.i2 = mul i8 %add12, %conv.i4
  /external/llvm/test/Transforms/LoopReroll/
reduction.ll 11 %r.029 = phi i32 [ 0, %entry ], [ %add12, %for.body ]
26 %add12 = add nsw i32 %add8, %6
47 ret i32 %add12
56 %r.029 = phi float [ 0.0, %entry ], [ %add12, %for.body ]
71 %add12 = fadd float %add8, %6
92 ret float %add12
101 %r.029 = phi i32 [ 0, %entry ], [ %add12, %for.body ]
116 %add12 = add nsw i32 %add8, %6
128 ret i32 %add12
indvar_with_ext.ll 115 ;CHECK: %add12 = add i8 %i.022, 2
116 ;CHECK-NEXT: %conv = sext i8 %add12 to i32
121 %i.022 = phi i8 [ %add12, %for.body ], [ 0, %for.body.preheader ]
133 %add12 = add i8 %i.022, 2
134 %conv = sext i8 %add12 to i32
  /external/llvm/test/Analysis/BasicAA/
bug.23626.ll 18 %add12 = or i32 %num.0.lcssa, 2
19 %idxprom13 = zext i32 %add12 to i64
  /external/llvm/test/Transforms/SLPVectorizer/X86/
long_chains.ll 28 %add12 = fadd double %mul11, 1.000000e+00
31 %mul15 = fmul double %add12, %add12
reduction.ll 29 %add12 = or i32 %mul, 1
30 %arrayidx3 = getelementptr inbounds double, double* %A, i32 %add12
  /external/llvm/test/CodeGen/SystemZ/
frame-05.ll 60 %add12 = add i32 %l12, %add11
61 %add13 = add i32 %l13, %add12
74 store volatile i32 %add12, i32 *%ptr
126 %add12 = add i32 %l12, %add11
127 %add13 = add i32 %l13, %add12
139 store volatile i32 %add12, i32 *%ptr
frame-06.ll 57 %add12 = add i64 %l12, %add11
58 %add13 = add i64 %l13, %add12
71 store volatile i64 %add12, i64 *%ptr
123 %add12 = add i64 %l12, %add11
124 %add13 = add i64 %l13, %add12
136 store volatile i64 %add12, i64 *%ptr
frame-04.ll 55 %add12 = fadd fp128 %l12, %add9
56 %add13 = fadd fp128 %l13, %add12
63 store volatile fp128 %add12, fp128 *%ptr
110 %add12 = fadd fp128 %l12, %add9
117 store volatile fp128 %add12, fp128 *%ptr
frame-02.ll 68 %add12 = fadd float %l12, %add11
69 %add13 = fadd float %l13, %add12
84 store volatile float %add12, float *%ptr
149 %add12 = fadd float %l12, %add11
150 %add13 = fadd float %l13, %add12
164 store volatile float %add12, float *%ptr
frame-03.ll 70 %add12 = fadd double %l12, %add11
71 %add13 = fadd double %l13, %add12
86 store volatile double %add12, double *%ptr
151 %add12 = fadd double %l12, %add11
152 %add13 = fadd double %l13, %add12
166 store volatile double %add12, double *%ptr
frame-07.ll 99 %add12 = fadd double %l12, %add11
100 %add13 = fadd double %l13, %add12
115 store volatile double %add12, double *%ptr
228 %add12 = fadd double %l12, %add11
229 %add13 = fadd double %l13, %add12
244 store volatile double %add12, double *%ptr
frame-08.ll 51 %add12 = add i32 %l12, %add11
52 %add13 = add i32 %l13, %add12
64 store volatile i32 %add12, i32 *%ptr
154 %add12 = add i32 %l12, %add11
155 %add13 = add i32 %l13, %add12
167 store volatile i32 %add12, i32 *%ptr
frame-09.ll 90 %add12 = add i32 %l12, %add10
91 %add13 = add i32 %l13, %add12
103 store volatile i32 %add12, i32 *%ptr
int-add-11.ll 170 %add12 = add i32 %val12, 127
189 %new12 = phi i32 [ %val12, %entry ], [ %add12, %add ]
253 %add12 = add i32 %val12, -128
272 %new12 = phi i32 [ %val12, %entry ], [ %add12, %add ]
int-add-12.ll 169 %add12 = add i64 %val12, 127
188 %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ]
252 %add12 = add i64 %val12, -128
271 %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ]
  /external/llvm/test/Transforms/BBVectorize/
loop1.ll 30 %add12 = fadd double %add7, %mul11
32 store double %add12, double* %arrayidx14, align 8
57 ; CHECK: %add12 = fadd double %add7, %mul6.v.r2
59 ; CHECK: store double %add12, double* %arrayidx14, align 8
83 ; CHECK-UNRL: %add12 = fadd <2 x double> %add7, %mul11
85 ; CHECK-UNRL: store <2 x double> %add12, <2 x double>* %4, align 8
  /external/llvm/test/Transforms/BBVectorize/X86/
loop1.ll 30 %add12 = fadd double %add7, %mul11
32 store double %add12, double* %arrayidx14, align 8
57 ; CHECK-UNRL: %add12 = fadd <2 x double> %add7, %mul11
  /external/llvm/test/CodeGen/AMDGPU/
ds-negative-offset-addressing-mode-loop.ll 54 %add12 = fadd float %add11, %tmp4
55 %add13 = fadd float %sum.03, %add12
  /external/llvm/test/CodeGen/Hexagon/
csr-func-usedef.ll 46 %add12 = add nuw nsw i32 %add10, %conv9
47 %add14 = add nuw nsw i32 %add12, %conv11
  /external/llvm/test/CodeGen/X86/
atom-fixup-lea2.ll 71 %add12 = add i32 %add, %4
75 %arrayidx = getelementptr inbounds i32, i32* %6, i32 %add12
  /external/llvm/test/Transforms/LoopStrengthReduce/AArch64/
req-regs.ll 47 %add12 = shl i32 %add11, 1
48 %add13 = add nsw i32 %add12, %i.053
  /external/llvm/test/CodeGen/ARM/
thumb2-size-reduction-internal-flags.ll 36 %savefaulty.0194 = phi i32 [ %add12, %for.inc30 ], [ 0, %for.cond3.preheader ]
44 %savefaulty.1187 = phi i32 [ %savefaulty.0194, %for.cond6.preheader ], [ %add12, %for.body8 ]
51 %add12 = add nsw i32 %2, %savefaulty.1187
130 %add84 = add nsw i32 %14, %add12
136 %savefaulty.5 = phi i32 [ %add12, %for.end73.if.end85_crit_edge ], [ %add84, %if.then80 ]
special-reg-mcore.ll 50 %add12 = add i32 %add11, %12
52 %add13 = add i32 %add12, %13

Completed in 307 milliseconds

1 2