HomeSort by relevance Sort by last modified time
    Searched full:add3 (Results 1 - 25 of 69) sorted by null

1 2 3

  /external/llvm/test/Transforms/InstCombine/
nsw.ll 45 %add3 = add nsw i32 %add, 3
46 ret i32 %add3
53 %add3 = add nsw i8 %add, 3
54 ret i8 %add3
61 %add3 = add nsw i8 %add, 2
62 ret i8 %add3
  /external/llvm/test/CodeGen/Hexagon/
cext-check.ll 23 %add3 = add nsw i32 %2, 300
27 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ]
51 %add3 = add nsw i32 %conv2, 6000
55 %retval.0 = phi i32 [ %add, %if.then ], [ %add3, %if.end ]
postinc-store.ll 18 %add3 = add i32 %factor, %conv
19 store i32 %add3, i32* %arrayidx.phi, align 4
  /external/llvm/test/CodeGen/ARM/
2013-01-21-PR14992.ll 20 %add3 = add nsw i32 %add, %2
21 ret i32 %add3
  /external/llvm/test/CodeGen/X86/
misched-ilp.ll 22 %add3 = fsub float %add1, %add2
23 %add4 = fadd float %add, %add3
atom-fixup-lea3.ll 34 %sum.010 = phi i32 [ 0, %for.body.lr.ph ], [ %add3, %for.body ]
43 %add3 = add nsw i32 %2, %sum.010
48 %sum.0.lcssa = phi i32 [ 0, %entry ], [ %add3, %for.body ]
fast-isel-avoid-unnecessary-pic-base.ll 22 %add3 = add nsw i32 %add, %tmp2
23 ret i32 %add3
twoaddr-lea.ll 33 %add3 = add i32 %add, %c
34 %add5 = add i32 %add3, %d
  /external/llvm/test/CodeGen/SystemZ/
frame-05.ll 51 %add3 = add i32 %l3, %add1
52 %add4 = add i32 %l4, %add3
65 store volatile i32 %add3, i32 *%ptr
118 %add3 = add i32 %l3, %add1
119 %add4 = add i32 %l4, %add3
131 store volatile i32 %add3, i32 *%ptr
174 %add3 = add i32 %l3, %add1
175 %add4 = add i32 %l4, %add3
180 store volatile i32 %add3, i32 *%ptr
209 %add3 = add i32 %l3, %add
    [all...]
frame-06.ll 48 %add3 = add i64 %l3, %add1
49 %add4 = add i64 %l4, %add3
62 store volatile i64 %add3, i64 *%ptr
115 %add3 = add i64 %l3, %add1
116 %add4 = add i64 %l4, %add3
128 store volatile i64 %add3, i64 *%ptr
171 %add3 = add i64 %l3, %add1
172 %add4 = add i64 %l4, %add3
177 store volatile i64 %add3, i64 *%ptr
206 %add3 = add i64 %l3, %add
    [all...]
frame-02.ll 59 %add3 = fadd float %l3, %add2
60 %add4 = fadd float %l4, %add3
75 store volatile float %add3, float *%ptr
140 %add3 = fadd float %l3, %add2
141 %add4 = fadd float %l4, %add3
155 store volatile float %add3, float *%ptr
200 %add3 = fadd float %l3, %add2
201 %add4 = fadd float %l4, %add3
209 store volatile float %add3, float *%ptr
243 %add3 = fadd float %l3, %add
    [all...]
frame-03.ll 61 %add3 = fadd double %l3, %add2
62 %add4 = fadd double %l4, %add3
77 store volatile double %add3, double *%ptr
142 %add3 = fadd double %l3, %add2
143 %add4 = fadd double %l4, %add3
157 store volatile double %add3, double *%ptr
202 %add3 = fadd double %l3, %add2
203 %add4 = fadd double %l4, %add3
211 store volatile double %add3, double *%ptr
245 %add3 = fadd double %l3, %add
    [all...]
frame-07.ll 90 %add3 = fadd double %l3, %add2
91 %add4 = fadd double %l4, %add3
106 store volatile double %add3, double *%ptr
219 %add3 = fadd double %l3, %add2
220 %add4 = fadd double %l4, %add3
235 store volatile double %add3, double *%ptr
frame-09.ll 82 %add3 = add i32 %l3, %add1
83 %add4 = add i32 %l4, %add3
95 store volatile i32 %add3, i32 *%ptr
fp-add-01.ll 109 %add3 = fadd float %add2, %val3
110 %add4 = fadd float %add3, %val4
fp-add-02.ll 109 %add3 = fadd double %add2, %val3
110 %add4 = fadd double %add3, %val4
int-add-05.ll 131 %add3 = add i64 %add2, %val3
132 %add4 = add i64 %add3, %val4
int-add-08.ll 139 %add3 = add i128 %add2, %val3
140 %add4 = add i128 %add3, %val4
  /external/llvm/test/Transforms/DeadStoreElimination/
pr11390.ll 13 %add3 = add i64 %add2, 1
14 %call4 = tail call noalias i8* @malloc(i64 %add3) nounwind
  /external/llvm/test/Transforms/IndVarSimplify/
ult-sub-to-eq.ll 19 %add3 = fadd float %2, %mul
20 store float %add3, float* %arrayidx2, align 4
  /external/llvm/test/Transforms/LoopVectorize/
runtime-limit.ll 23 %add3 = add nsw i32 %add, %2
26 %add5 = add nsw i32 %add3, %3
57 %add3 = add nsw i32 %add, %2
60 %add5 = add nsw i32 %add3, %3
  /external/llvm/test/CodeGen/Mips/
return-vector.ll 26 %add3 = add i32 %v4, %v5
29 %add6 = add i32 %add3, %add4
56 %add3 = fadd float %add1, %add2
57 ret float %add3
78 %add3 = fadd double %add1, %add2
79 ret double %add3
109 %add3 = add i32 %add1, %add2
110 ret i32 %add3
stldst.ll 24 %add3 = add nsw i32 %4, 4
33 %call7 = tail call i32 (i8*, ...)* @printf(i8* getelementptr inbounds ([32 x i8]* @.str, i32 0, i32 0), i32 %0, i32 %1, i32 %add, i32 %add1, i32 %sub, i32 %add2, i32 %add3, i32 %sub4, i32 %sub5, i32 %add6) nounwind
  /external/llvm/test/Transforms/SLPVectorizer/X86/
hoist.ll 40 %add3 = add nsw i32 %1, %k
41 store i32 %add3, i32* %arrayidx2, align 4
  /external/llvm/test/Analysis/CostModel/X86/
vectorized-loop.ll 63 %add3 = add nsw i32 %15, %mul
64 store i32 %add3, i32* %arrayidx2, align 4

Completed in 675 milliseconds

1 2 3