/external/llvm/test/Transforms/LoopVectorize/ |
if-conversion-reduction.ll | 24 %add4 = add i32 %add, %0 28 %sum.1 = phi i32 [ %add4, %if.then ], [ %sum.011, %for.body ]
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
long_chains.ll | 20 %add4 = add i8 %1, 3 22 %conv7 = sitofp i8 %add4 to double
|
external_user.ll | 44 %R.018 = phi double [ %0, %entry ], [ %add4, %for.body ] 49 %add4 = fadd double %mul, 4.000000e+00 58 store double %add4, double* %arrayidx7, align 8
|
rgb_phi.ll | 48 %R.030 = phi float [ %0, %entry ], [ %add4, %for.body.for.body_crit_edge ] 50 %add4 = fadd float %R.030, %mul 72 %add16 = fadd float %add4, %add9
|
addsub.ll | 36 %add4 = add nsw i32 %6, %7 37 %sub = sub nsw i32 %add3, %add4 81 %add4 = add nsw i32 %add2, %add3 82 store i32 %add4, i32* getelementptr inbounds ([4 x i32]* @a, i32 0, i64 1), align 4
|
/external/llvm/test/CodeGen/AArch64/ |
arm64-misched-basic-A57.ll | 70 %add4 = add nsw i32 %9, %add 72 %add6 = add nsw i32 %add4, %add5 75 %add8 = add nsw i32 %10, %add4
|
arm64-abi_align.ll | 52 %add4 = add i32 %add3, %conv 53 %add7 = add i32 %add4, %conv6 105 %add4 = add i32 %add3, %conv 106 %add7 = add i32 %add4, %conv6 161 %add4 = add i32 %add3, %conv 162 %add7 = add i32 %add4, %conv6 215 %add4 = add i32 %add3, %conv 216 %add7 = add i32 %add4, %conv6 275 %add4 = add i32 %add3, %conv 276 %add7 = add i32 %add4, %conv [all...] |
/external/llvm/test/CodeGen/X86/ |
haddsub-2.ll | 15 %add4 = fadd float %vecext2, %vecext3 16 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 39 %add4 = fadd float %vecext2, %vecext3 40 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 0 111 %add4 = add i32 %vecext2, %vecext3 112 %vecinit5 = insertelement <4 x i32> %vecinit, i32 %add4, i32 1 138 %add4 = add i32 %vecext2, %vecext3 139 %vecinit5 = insertelement <4 x i32> %vecinit, i32 %add4, i32 0 283 %add4 = fadd double %vecext2, %vecext3 284 %vecinit5 = insertelement <4 x double> %vecinit, double %add4, i32 [all...] |
atomic_add.ll | 29 define void @add4(i64* nocapture %p, i32 %v) nounwind ssp { 31 ; CHECK-LABEL: add4:
|
/external/llvm/test/CodeGen/SystemZ/ |
frame-07.ll | 91 %add4 = fadd double %l4, %add3 92 %add5 = fadd double %l5, %add4 107 store volatile double %add4, double *%ptr 220 %add4 = fadd double %l4, %add3 221 %add5 = fadd double %l5, %add4 236 store volatile double %add4, double *%ptr
|
frame-09.ll | 83 %add4 = add i32 %l4, %add3 84 %add5 = add i32 %l5, %add4 96 store volatile i32 %add4, i32 *%ptr
|
fp-add-01.ll | 110 %add4 = fadd float %add3, %val4 111 %add5 = fadd float %add4, %val5
|
fp-add-02.ll | 110 %add4 = fadd double %add3, %val4 111 %add5 = fadd double %add4, %val5
|
int-add-05.ll | 132 %add4 = add i64 %add3, %val4 133 %add5 = add i64 %add4, %val5
|
int-add-08.ll | 140 %add4 = add i128 %add3, %val4 141 store i128 %add4, i128 *%retptr
|
fp-move-02.ll | 222 %add4 = fadd double %add3, %double4 223 %add5 = fadd double %add4, %double5 255 %int4 = phi i64 [ 0, %entry ], [ %add4, %loop ] 267 %add4 = add i64 %int4, %bias 292 %conv4 = bitcast i64 %add4 to double 372 %add4 = add i64 %conv4, %bias 373 store volatile i64 %add4, i64 *@iptr
|
int-add-11.ll | 162 %add4 = add i32 %val4, 127 181 %new4 = phi i32 [ %val4, %entry ], [ %add4, %add ] 245 %add4 = add i32 %val4, -128 264 %new4 = phi i32 [ %val4, %entry ], [ %add4, %add ]
|
int-add-12.ll | 161 %add4 = add i64 %val4, 127 180 %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ] 244 %add4 = add i64 %val4, -128 263 %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ]
|
int-add-02.ll | 167 %add4 = add i32 %add3, %val4 168 %add5 = add i32 %add4, %val5
|
/external/llvm/test/Transforms/InstCombine/ |
overflow.ll | 86 %add4 = add nsw i32 %add, 128 87 %cmp = icmp ugt i32 %add4, 255
|
/external/llvm/test/Transforms/LoopIdiom/ |
basic-address-space.ll | 79 %add4 = add nsw i32 %tmp5, 5 80 %idxprom5 = sext i32 %add4 to i64
|
/external/llvm/test/Transforms/LoopStrengthReduce/AArch64/ |
req-regs.ll | 39 %add4 = shl i32 %add3, 1 40 %add5 = add nsw i32 %add4, %i.053
|
/external/llvm/test/Transforms/LoopVectorize/X86/ |
illegal-parallel-loop-uniform-write.ll | 29 %add4.us = add i32 %add.us, %1 30 %idxprom.us = sext i32 %add4.us to i64
|
/external/llvm/test/Analysis/DependenceAnalysis/ |
Propagating.ll | 34 %add4 = add nsw i64 %i.03, 1 35 %arrayidx5 = getelementptr inbounds [100 x i32]* %A, i64 %add4, i64 %add 248 %add4 = add nsw i64 %add, 1 250 %arrayidx6 = getelementptr inbounds [100 x i32]* %A, i64 %add5, i64 %add4 354 %add4 = add nsw i64 %add, 2 356 %arrayidx6 = getelementptr inbounds [100 x i32]* %A, i64 %add5, i64 %add4 408 %add4 = add nsw i64 %add, 2 411 %arrayidx7 = getelementptr inbounds [100 x i32]* %A, i64 %add6, i64 %add4 514 %add4 = add nsw i64 %add, 2 517 %arrayidx7 = getelementptr inbounds [100 x i32]* %A, i64 %add6, i64 %add4 [all...] |
/external/llvm/test/Transforms/SampleProfile/ |
branch.ll | 57 %add4 = fadd double %add, %conv, !dbg !36 58 tail call void @llvm.dbg.value(metadata !{double %add4}, i64 0, metadata !18), !dbg !36 61 %add5 = fadd double %add4, %mul, !dbg !37 62 %sub = fsub double %add4, %add5, !dbg !37
|