HomeSort by relevance Sort by last modified time
    Searched full:add4 (Results 26 - 50 of 79) sorted by null

12 3 4

  /external/llvm/test/Transforms/LoopVectorize/
if-conversion-reduction.ll 24 %add4 = add i32 %add, %0
28 %sum.1 = phi i32 [ %add4, %if.then ], [ %sum.011, %for.body ]
  /external/llvm/test/Transforms/SLPVectorizer/X86/
long_chains.ll 20 %add4 = add i8 %1, 3
22 %conv7 = sitofp i8 %add4 to double
external_user.ll 44 %R.018 = phi double [ %0, %entry ], [ %add4, %for.body ]
49 %add4 = fadd double %mul, 4.000000e+00
58 store double %add4, double* %arrayidx7, align 8
rgb_phi.ll 48 %R.030 = phi float [ %0, %entry ], [ %add4, %for.body.for.body_crit_edge ]
50 %add4 = fadd float %R.030, %mul
72 %add16 = fadd float %add4, %add9
addsub.ll 36 %add4 = add nsw i32 %6, %7
37 %sub = sub nsw i32 %add3, %add4
81 %add4 = add nsw i32 %add2, %add3
82 store i32 %add4, i32* getelementptr inbounds ([4 x i32]* @a, i32 0, i64 1), align 4
  /external/llvm/test/CodeGen/AArch64/
arm64-misched-basic-A57.ll 70 %add4 = add nsw i32 %9, %add
72 %add6 = add nsw i32 %add4, %add5
75 %add8 = add nsw i32 %10, %add4
arm64-abi_align.ll 52 %add4 = add i32 %add3, %conv
53 %add7 = add i32 %add4, %conv6
105 %add4 = add i32 %add3, %conv
106 %add7 = add i32 %add4, %conv6
161 %add4 = add i32 %add3, %conv
162 %add7 = add i32 %add4, %conv6
215 %add4 = add i32 %add3, %conv
216 %add7 = add i32 %add4, %conv6
275 %add4 = add i32 %add3, %conv
276 %add7 = add i32 %add4, %conv
    [all...]
  /external/llvm/test/CodeGen/X86/
haddsub-2.ll 15 %add4 = fadd float %vecext2, %vecext3
16 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
39 %add4 = fadd float %vecext2, %vecext3
40 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 0
111 %add4 = add i32 %vecext2, %vecext3
112 %vecinit5 = insertelement <4 x i32> %vecinit, i32 %add4, i32 1
138 %add4 = add i32 %vecext2, %vecext3
139 %vecinit5 = insertelement <4 x i32> %vecinit, i32 %add4, i32 0
283 %add4 = fadd double %vecext2, %vecext3
284 %vecinit5 = insertelement <4 x double> %vecinit, double %add4, i32
    [all...]
atomic_add.ll 29 define void @add4(i64* nocapture %p, i32 %v) nounwind ssp {
31 ; CHECK-LABEL: add4:
  /external/llvm/test/CodeGen/SystemZ/
frame-07.ll 91 %add4 = fadd double %l4, %add3
92 %add5 = fadd double %l5, %add4
107 store volatile double %add4, double *%ptr
220 %add4 = fadd double %l4, %add3
221 %add5 = fadd double %l5, %add4
236 store volatile double %add4, double *%ptr
frame-09.ll 83 %add4 = add i32 %l4, %add3
84 %add5 = add i32 %l5, %add4
96 store volatile i32 %add4, i32 *%ptr
fp-add-01.ll 110 %add4 = fadd float %add3, %val4
111 %add5 = fadd float %add4, %val5
fp-add-02.ll 110 %add4 = fadd double %add3, %val4
111 %add5 = fadd double %add4, %val5
int-add-05.ll 132 %add4 = add i64 %add3, %val4
133 %add5 = add i64 %add4, %val5
int-add-08.ll 140 %add4 = add i128 %add3, %val4
141 store i128 %add4, i128 *%retptr
fp-move-02.ll 222 %add4 = fadd double %add3, %double4
223 %add5 = fadd double %add4, %double5
255 %int4 = phi i64 [ 0, %entry ], [ %add4, %loop ]
267 %add4 = add i64 %int4, %bias
292 %conv4 = bitcast i64 %add4 to double
372 %add4 = add i64 %conv4, %bias
373 store volatile i64 %add4, i64 *@iptr
int-add-11.ll 162 %add4 = add i32 %val4, 127
181 %new4 = phi i32 [ %val4, %entry ], [ %add4, %add ]
245 %add4 = add i32 %val4, -128
264 %new4 = phi i32 [ %val4, %entry ], [ %add4, %add ]
int-add-12.ll 161 %add4 = add i64 %val4, 127
180 %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ]
244 %add4 = add i64 %val4, -128
263 %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ]
int-add-02.ll 167 %add4 = add i32 %add3, %val4
168 %add5 = add i32 %add4, %val5
  /external/llvm/test/Transforms/InstCombine/
overflow.ll 86 %add4 = add nsw i32 %add, 128
87 %cmp = icmp ugt i32 %add4, 255
  /external/llvm/test/Transforms/LoopIdiom/
basic-address-space.ll 79 %add4 = add nsw i32 %tmp5, 5
80 %idxprom5 = sext i32 %add4 to i64
  /external/llvm/test/Transforms/LoopStrengthReduce/AArch64/
req-regs.ll 39 %add4 = shl i32 %add3, 1
40 %add5 = add nsw i32 %add4, %i.053
  /external/llvm/test/Transforms/LoopVectorize/X86/
illegal-parallel-loop-uniform-write.ll 29 %add4.us = add i32 %add.us, %1
30 %idxprom.us = sext i32 %add4.us to i64
  /external/llvm/test/Analysis/DependenceAnalysis/
Propagating.ll 34 %add4 = add nsw i64 %i.03, 1
35 %arrayidx5 = getelementptr inbounds [100 x i32]* %A, i64 %add4, i64 %add
248 %add4 = add nsw i64 %add, 1
250 %arrayidx6 = getelementptr inbounds [100 x i32]* %A, i64 %add5, i64 %add4
354 %add4 = add nsw i64 %add, 2
356 %arrayidx6 = getelementptr inbounds [100 x i32]* %A, i64 %add5, i64 %add4
408 %add4 = add nsw i64 %add, 2
411 %arrayidx7 = getelementptr inbounds [100 x i32]* %A, i64 %add6, i64 %add4
514 %add4 = add nsw i64 %add, 2
517 %arrayidx7 = getelementptr inbounds [100 x i32]* %A, i64 %add6, i64 %add4
    [all...]
  /external/llvm/test/Transforms/SampleProfile/
branch.ll 57 %add4 = fadd double %add, %conv, !dbg !36
58 tail call void @llvm.dbg.value(metadata !{double %add4}, i64 0, metadata !18), !dbg !36
61 %add5 = fadd double %add4, %mul, !dbg !37
62 %sub = fsub double %add4, %add5, !dbg !37

Completed in 664 milliseconds

12 3 4