/external/llvm/test/CodeGen/Mips/ |
addressing-mode.ll | 16 %s.022 = phi i32 [ 0, %entry ], [ %add7, %for.inc9 ] 21 %s.120 = phi i32 [ %s.022, %for.cond1.preheader ], [ %add7, %for.body3 ] 28 %add7 = add i32 %add, %1 39 ret i32 %add7
|
/external/llvm/test/CodeGen/X86/ |
2011-06-19-QuicksortCoalescerBug.ll | 18 %add7 = add nsw i32 %i.0, 1 19 %cmp = icmp sgt i32 %add7, %r.tr 23 store i32 %add7, i32* %arrayidx14, align 4 28 %i.1 = phi i32 [ %add16, %if.then ], [ %add7, %do.body ]
|
fast-isel-args.ll | 35 %add7 = fadd float %add5, %add6 36 ret float %add7 47 %add7 = fadd double %add5, %add6 48 ret double %add7
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
2011-06-19-QuicksortCoalescerBug.ll | 18 %add7 = add nsw i32 %i.0, 1 19 %cmp = icmp sgt i32 %add7, %r.tr 23 store i32 %add7, i32* %arrayidx14, align 4 28 %i.1 = phi i32 [ %add16, %if.then ], [ %add7, %do.body ]
|
/external/tensorflow/tensorflow/contrib/tensorrt/segment/ |
segment_test.cc | 232 // add0 add1 add7 248 TF_Operation* add7 = Add(feed, feed, graph, s, "add7"); local 252 TF_Operation* add5 = Add(add2, add7, graph, s, "add5"); 254 TF_Operation* add8 = Add(add7, add7, graph, s, "add8"); 272 "add4", "add6", "add7", "add8"}), 310 // add7 332 TF_Operation* add7 = Add(add3, add6, graph, s, "add7"); local [all...] |
/external/llvm/test/Transforms/LoopDistribute/ |
pr28443.ll | 12 %add75.epil = phi i64 [ %add7.epil, %for.body ], [ %a, %entry ] 19 %add7.epil = add nsw i64 %add75.epil, 2 20 %epil.iter.cmp = icmp eq i64 %add7.epil, 0
|
/external/llvm/test/Transforms/Inline/ |
vector-bonus.ll | 21 %add7 = add nsw i32 %vecext, %vecext7 25 %retval.0 = phi i32 [ %mul1, %if.then ], [ %add7, %if.else ]
|
/art/test/485-checker-dce-loop-update/smali/ |
TestCase.smali | 32 ## CHECK-DAG: <<PhiX:i\d+>> Phi [<<ArgX>>,<<Add5:i\d+>>,<<Add7:i\d+>>] loop:<<HeaderY:B\d+>> 36 ## CHECK-DAG: <<Add7>> Add [<<PhiX>>,<<Cst7>>] loop:<<HeaderY>> 83 ## CHECK-DAG: <<PhiX:i\d+>> Phi [<<ArgX>>,<<Add5:i\d+>>,<<Add7:i\d+>>] loop:<<HeaderY:B\d+>> 88 ## CHECK-DAG: <<Add7>> Add [<<PhiX>>,<<Cst7>>] loop:<<HeaderY>> 96 ## CHECK-DAG: <<PhiX:i\d+>> Phi [<<ArgX>>,<<Add7:i\d+>>] loop:<<HeaderY:B\d+>> 98 ## CHECK-DAG: <<Add7>> Add [<<PhiX>>,<<Cst7>>] loop:<<HeaderY>> 140 ## CHECK-DAG: <<PhiX:i\d+>> Phi [<<ArgX>>,<<Add5:i\d+>>,<<Add7:i\d+>>] loop:<<HeaderY:B\d+>> 146 ## CHECK-DAG: <<Add7>> Add [<<PhiX>>,<<Cst7>>] loop:<<HeaderY>> 155 ## CHECK-DAG: <<PhiX:i\d+>> Phi [<<ArgX>>,<<Add7:i\d+>>] loop:<<HeaderY:B\d+>> 157 ## CHECK-DAG: <<Add7>> Add [<<PhiX>>,<<Cst7>>] loop:<<HeaderY> [all...] |
/external/llvm/test/CodeGen/MSP430/ |
spill-to-stack.ll | 35 %add7 = add i32 %6, 7 36 store i32 %add7, i32* %p6
|
/external/llvm/test/CodeGen/PowerPC/ |
qpx-bv-sint.ll | 15 %add7.4 = fadd <2 x double> undef, %mul.4 16 store <2 x double> %add7.4, <2 x double>* undef, align 16
|
/external/llvm/test/Transforms/LoopStrengthReduce/ |
scev-insertpt-bug.ll | 37 %add7 = add i32 %1, 1 38 %cmp12 = icmp ugt i32 %add7, %sub
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
cross_block_slp.ll | 49 %add7 = fadd double %conv5, %3 50 store double %add7, double* %arrayidx6, align 8
|
/external/llvm/test/CodeGen/SystemZ/ |
frame-02.ll | 63 %add7 = fadd float %l7, %add6 64 %add8 = fadd float %l8, %add7 79 store volatile float %add7, float *%ptr 144 %add7 = fadd float %l7, %add6 145 %add8 = fadd float %l8, %add7 159 store volatile float %add7, float *%ptr 204 %add7 = fadd float %l7, %add6 205 %add8 = fadd float %l8, %add7 213 store volatile float %add7, float *%ptr 247 %add7 = fadd float %l7, %add [all...] |
frame-03.ll | 65 %add7 = fadd double %l7, %add6 66 %add8 = fadd double %l8, %add7 81 store volatile double %add7, double *%ptr 146 %add7 = fadd double %l7, %add6 147 %add8 = fadd double %l8, %add7 161 store volatile double %add7, double *%ptr 206 %add7 = fadd double %l7, %add6 207 %add8 = fadd double %l8, %add7 215 store volatile double %add7, double *%ptr 249 %add7 = fadd double %l7, %add [all...] |
frame-05.ll | 55 %add7 = add i32 %l7, %add6 56 %add8 = add i32 %l8, %add7 69 store volatile i32 %add7, i32 *%ptr 121 %add7 = add i32 %l7, %add5 122 %add8 = add i32 %l8, %add7 134 store volatile i32 %add7, i32 *%ptr
|
frame-06.ll | 52 %add7 = add i64 %l7, %add6 53 %add8 = add i64 %l8, %add7 66 store volatile i64 %add7, i64 *%ptr 118 %add7 = add i64 %l7, %add5 119 %add8 = add i64 %l8, %add7 131 store volatile i64 %add7, i64 *%ptr
|
frame-07.ll | 94 %add7 = fadd double %l7, %add6 95 %add8 = fadd double %l8, %add7 110 store volatile double %add7, double *%ptr 223 %add7 = fadd double %l7, %add6 224 %add8 = fadd double %l8, %add7 239 store volatile double %add7, double *%ptr
|
frame-08.ll | 46 %add7 = add i32 %l7, %add6 47 %add8 = add i32 %l8, %add7 59 store volatile i32 %add7, i32 *%ptr 149 %add7 = add i32 %l7, %add6 150 %add8 = add i32 %l8, %add7 162 store volatile i32 %add7, i32 *%ptr
|
frame-09.ll | 86 %add7 = add i32 %l7, %add6 87 %add8 = add i32 %l8, %add7 99 store volatile i32 %add7, i32 *%ptr
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
loop1.ll | 25 %add7 = fadd double %add, %mul6 30 %add12 = fadd double %add7, %mul11 52 ; CHECK-UNRL: %add7 = fadd <2 x double> %add, %mul6 57 ; CHECK-UNRL: %add12 = fadd <2 x double> %add7, %mul11
|
/external/llvm/test/Transforms/BBVectorize/ |
loop1.ll | 25 %add7 = fadd double %add, %mul6 30 %add12 = fadd double %add7, %mul11 56 ; CHECK: %add7 = fadd double %add, %mul6.v.r1 57 ; CHECK: %add12 = fadd double %add7, %mul6.v.r2 78 ; CHECK-UNRL: %add7 = fadd <2 x double> %add, %mul6 83 ; CHECK-UNRL: %add12 = fadd <2 x double> %add7, %mul11
|
ld1.ll | 18 %add7 = fadd double %mul5, %i5 21 %mul13 = fmul double %add7, %i4
|
/external/llvm/test/CodeGen/ARM/ |
bfx.ll | 51 %add7 = add i32 %add, %2 52 ret i32 %add7
|
/external/llvm/test/Transforms/LoopVectorize/ |
runtime-limit.ll | 42 %add7 = add nsw i32 %add5, %4 44 store i32 %add7, i32* %arrayidx8, align 4 80 %add7 = add nsw i32 %add5, %4 82 store i32 %add7, i32* %arrayidx8, align 4
|
/external/llvm/test/CodeGen/AArch64/ |
arm64-misched-basic-A57.ll | 74 %add7 = add nsw i32 %9, %add3 76 %add9 = add nsw i32 %add7, %add8 79 %add11 = add nsw i32 %10, %add7
|