/external/llvm/test/Transforms/SimplifyCFG/ |
multiple-phis.ll | 8 ; CHECK-NEXT: %low.0.add2 = select i1 %cmp1, i32 %low.0, i32 %add2 17 %low.0 = phi i32 [ 0, %entry ], [ %low.0, %if.then ], [ %add2, %if.else ] 34 %add2 = add i32 %div, 1
|
/external/llvm/test/CodeGen/AArch64/ |
analyzecmp.ll | 20 %add2 = add nsw i64 %rem, 64 26 %__n.0 = phi i64 [ %add2, %if.then ], [ %rem, %entry ]
|
preferred-alignment.ll | 18 %add2 = add nsw i32 %add, %conv1 20 %add3 = add nsw i32 %add2, %2
|
arm64-fma-combines.ll | 30 %add2 = fadd fast <2 x double> %e2, <double 3.000000e+00, double -3.000000e+00> 33 %mul2 = fmul fast <2 x double> %add2,<double 3.000000e+00, double -3.000000e+00> 37 %mulx = fmul fast <2 x double> %add2, %e2 73 %add2 = fadd fast <2 x float> %e2, <float 3.000000e+00, float -3.000000e+00> 76 %mul2 = fmul fast <2 x float> %add2,<float 3.000000e+00, float -3.000000e+00> 80 %mulx = fmul fast <2 x float> %add2, %e2 115 %add2 = fadd fast <4 x float> %e2, <float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00> 118 %mul2 = fmul fast <4 x float> %add2,<float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00> 122 %mulx = fmul fast <4 x float> %add2, %e2
|
/external/llvm/test/CodeGen/Mips/ |
disable-tail-merge.ll | 23 %add2 = add nsw i32 %0, 11 24 store i32 %add2, i32* @g0, align 4
|
/external/llvm/test/CodeGen/NVPTX/ |
add-128bit.ll | 15 %add2 = zext i64 %add to i128 16 %val = add i128 %t1, %add2
|
/external/llvm/test/CodeGen/SystemZ/ |
addr-01.ll | 23 %add2 = add i64 %add1, 100 24 %ptr = inttoptr i64 %add2 to i8 * 35 %add2 = add i64 %add1, %index 36 %ptr = inttoptr i64 %add2 to i8 * 47 %add2 = sub i64 %add1, 100 48 %ptr = inttoptr i64 %add2 to i8 * 59 %add2 = add i64 %add1, %index 60 %ptr = inttoptr i64 %add2 to i8 *
|
addr-02.ll | 25 %add2 = add i64 %add1, 100 26 %ptr = inttoptr i64 %add2 to i8 * 38 %add2 = add i64 %add1, %index 39 %ptr = inttoptr i64 %add2 to i8 * 51 %add2 = sub i64 %add1, 100 52 %ptr = inttoptr i64 %add2 to i8 * 64 %add2 = add i64 %add1, %index 65 %ptr = inttoptr i64 %add2 to i8 *
|
frame-02.ll | 58 %add2 = fadd float %l2, %add1 59 %add3 = fadd float %l3, %add2 74 store volatile float %add2, float *%ptr 139 %add2 = fadd float %l2, %add1 140 %add3 = fadd float %l3, %add2 154 store volatile float %add2, float *%ptr 199 %add2 = fadd float %l2, %add1 200 %add3 = fadd float %l3, %add2 208 store volatile float %add2, float *%ptr 242 %add2 = fadd float %l2, %add [all...] |
frame-03.ll | 60 %add2 = fadd double %l2, %add1 61 %add3 = fadd double %l3, %add2 76 store volatile double %add2, double *%ptr 141 %add2 = fadd double %l2, %add1 142 %add3 = fadd double %l3, %add2 156 store volatile double %add2, double *%ptr 201 %add2 = fadd double %l2, %add1 202 %add3 = fadd double %l3, %add2 210 store volatile double %add2, double *%ptr 244 %add2 = fadd double %l2, %add [all...] |
/external/llvm/test/CodeGen/X86/ |
misched-ilp.ll | 21 %add2 = fadd float %e, %f 22 %add3 = fsub float %add1, %add2
|
/art/compiler/optimizing/ |
scheduler_test.cc | 93 // add2 Add [add1, c2] 94 // mul Mul [add1, add2] 95 // div_check DivZeroCheck [add2] (env: add2, mul) 98 // array_set1 ArraySet [array, add1, add2] 100 // array_set2 ArraySet [array, add1, add2] 109 HInstruction* add2 = new (&allocator_) HAdd(Primitive::kPrimInt, add1, c2); local 110 HInstruction* mul = new (&allocator_) HMul(Primitive::kPrimInt, add1, add2); 111 HInstruction* div_check = new (&allocator_) HDivZeroCheck(add2, 0); 114 HInstruction* array_set1 = new (&allocator_) HArraySet(array, add1, add2, Primitive::kPrimInt, 0) [all...] |
/external/llvm/test/CodeGen/Hexagon/ |
hwloop2.ll | 19 %j.05 = phi i32 [ 0, %for.body.lr.ph ], [ %add2, %for.body ] 25 %add2 = add nsw i32 %j.05, 1 35 %j.0.lcssa = phi i32 [ 0, %entry ], [ %add2, %for.end.loopexit ]
|
/external/llvm/test/Transforms/DeadStoreElimination/ |
pr11390.ll | 12 %add2 = add i64 %add, %call1 13 %add3 = add i64 %add2, 1 26 %arrayidx8 = getelementptr inbounds i8, i8* %call4, i64 %add2
|
/cts/tests/tests/renderscript/src/android/renderscript/cts/ |
reduction.rs | 28 int4 __attribute__((kernel)) add2(uint x)
|
/external/llvm/test/Bitcode/ |
ptest-new.ll | 13 %add2 = add i32 %add1, %res2 14 ret i32 %add2
|
ptest-old.ll | 13 %add2 = add i32 %add1, %res2 14 ret i32 %add2
|
/external/llvm/test/CodeGen/ARM/ |
disable-fp-elim.ll | 18 %add2 = add i32 %add1, %e 19 %add3 = add i32 %add2, %call
|
/external/llvm/test/CodeGen/Thumb2/ |
constant-islands-new-island-padding.ll | 27 %add2 = fadd float %2, 0x3FF3C0BDC0000000 28 store float %add2, float* @f0, align 4
|
/external/llvm/test/Transforms/LICM/ |
extra-copies.ll | 14 %add2 = add nsw i32 %mul, %x 15 %mul3 = add nsw i32 %add2, %mul
|
/external/llvm/test/tools/gold/X86/ |
slp-vectorize.ll | 19 %add2 = fadd float %tmp1, 1.000000e+00 20 store float %add2, float* %arrayidx1, align 4
|
/external/swiftshader/third_party/subzero/tests_lit/llvm2ice_tests/ |
local-cse.ll | 21 %add2 = add i32 %b, %a 22 %add3 = add i32 %add1, %add2
|
/external/llvm/test/CodeGen/AMDGPU/ |
mad-sub.ll | 18 %add2 = add i64 %tid.ext, 2 19 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 42 %add2 = add i64 %tid.ext, 2 43 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 63 %add2 = add i64 %tid.ext, 2 64 %gep2 = getelementptr double, double addrspace(1)* %ptr, i64 %add2 87 %add2 = add i64 %tid.ext, 2 88 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 112 %add2 = add i64 %tid.ext, 2 113 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2 [all...] |
tti-unroll-prefs.ll | 38 %b.addr.014 = phi i32 [ %b, %if.then4.lr.ph ], [ %add2, %if.then4 ] 39 %add2 = add nsw i32 %b.addr.014, 1 46 %cmp3 = icmp slt i32 %add2, %a
|
/external/llvm/test/Transforms/LoopVectorize/X86/ |
reg-usage.ll | 57 %add2.lcssa = phi i64 [ %add2, %for.body ] 58 ret i64 %add2.lcssa 62 %s.011 = phi i64 [ 0, %entry ], [ %add2, %for.body ] 67 %add2 = add nsw i64 %add, %s.011
|