HomeSort by relevance Sort by last modified time
    Searched full:add2 (Results 26 - 50 of 304) sorted by null

12 3 4 5 6 7 8 91011>>

  /external/llvm/test/Transforms/SimplifyCFG/
multiple-phis.ll 8 ; CHECK-NEXT: %low.0.add2 = select i1 %cmp1, i32 %low.0, i32 %add2
17 %low.0 = phi i32 [ 0, %entry ], [ %low.0, %if.then ], [ %add2, %if.else ]
34 %add2 = add i32 %div, 1
  /external/llvm/test/CodeGen/AArch64/
analyzecmp.ll 20 %add2 = add nsw i64 %rem, 64
26 %__n.0 = phi i64 [ %add2, %if.then ], [ %rem, %entry ]
preferred-alignment.ll 18 %add2 = add nsw i32 %add, %conv1
20 %add3 = add nsw i32 %add2, %2
arm64-fma-combines.ll 30 %add2 = fadd fast <2 x double> %e2, <double 3.000000e+00, double -3.000000e+00>
33 %mul2 = fmul fast <2 x double> %add2,<double 3.000000e+00, double -3.000000e+00>
37 %mulx = fmul fast <2 x double> %add2, %e2
73 %add2 = fadd fast <2 x float> %e2, <float 3.000000e+00, float -3.000000e+00>
76 %mul2 = fmul fast <2 x float> %add2,<float 3.000000e+00, float -3.000000e+00>
80 %mulx = fmul fast <2 x float> %add2, %e2
115 %add2 = fadd fast <4 x float> %e2, <float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00>
118 %mul2 = fmul fast <4 x float> %add2,<float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00>
122 %mulx = fmul fast <4 x float> %add2, %e2
  /external/llvm/test/CodeGen/Mips/
disable-tail-merge.ll 23 %add2 = add nsw i32 %0, 11
24 store i32 %add2, i32* @g0, align 4
  /external/llvm/test/CodeGen/NVPTX/
add-128bit.ll 15 %add2 = zext i64 %add to i128
16 %val = add i128 %t1, %add2
  /external/llvm/test/CodeGen/SystemZ/
addr-01.ll 23 %add2 = add i64 %add1, 100
24 %ptr = inttoptr i64 %add2 to i8 *
35 %add2 = add i64 %add1, %index
36 %ptr = inttoptr i64 %add2 to i8 *
47 %add2 = sub i64 %add1, 100
48 %ptr = inttoptr i64 %add2 to i8 *
59 %add2 = add i64 %add1, %index
60 %ptr = inttoptr i64 %add2 to i8 *
addr-02.ll 25 %add2 = add i64 %add1, 100
26 %ptr = inttoptr i64 %add2 to i8 *
38 %add2 = add i64 %add1, %index
39 %ptr = inttoptr i64 %add2 to i8 *
51 %add2 = sub i64 %add1, 100
52 %ptr = inttoptr i64 %add2 to i8 *
64 %add2 = add i64 %add1, %index
65 %ptr = inttoptr i64 %add2 to i8 *
frame-02.ll 58 %add2 = fadd float %l2, %add1
59 %add3 = fadd float %l3, %add2
74 store volatile float %add2, float *%ptr
139 %add2 = fadd float %l2, %add1
140 %add3 = fadd float %l3, %add2
154 store volatile float %add2, float *%ptr
199 %add2 = fadd float %l2, %add1
200 %add3 = fadd float %l3, %add2
208 store volatile float %add2, float *%ptr
242 %add2 = fadd float %l2, %add
    [all...]
frame-03.ll 60 %add2 = fadd double %l2, %add1
61 %add3 = fadd double %l3, %add2
76 store volatile double %add2, double *%ptr
141 %add2 = fadd double %l2, %add1
142 %add3 = fadd double %l3, %add2
156 store volatile double %add2, double *%ptr
201 %add2 = fadd double %l2, %add1
202 %add3 = fadd double %l3, %add2
210 store volatile double %add2, double *%ptr
244 %add2 = fadd double %l2, %add
    [all...]
  /external/llvm/test/CodeGen/X86/
misched-ilp.ll 21 %add2 = fadd float %e, %f
22 %add3 = fsub float %add1, %add2
  /art/compiler/optimizing/
scheduler_test.cc 93 // add2 Add [add1, c2]
94 // mul Mul [add1, add2]
95 // div_check DivZeroCheck [add2] (env: add2, mul)
98 // array_set1 ArraySet [array, add1, add2]
100 // array_set2 ArraySet [array, add1, add2]
109 HInstruction* add2 = new (&allocator_) HAdd(Primitive::kPrimInt, add1, c2); local
110 HInstruction* mul = new (&allocator_) HMul(Primitive::kPrimInt, add1, add2);
111 HInstruction* div_check = new (&allocator_) HDivZeroCheck(add2, 0);
114 HInstruction* array_set1 = new (&allocator_) HArraySet(array, add1, add2, Primitive::kPrimInt, 0)
    [all...]
  /external/llvm/test/CodeGen/Hexagon/
hwloop2.ll 19 %j.05 = phi i32 [ 0, %for.body.lr.ph ], [ %add2, %for.body ]
25 %add2 = add nsw i32 %j.05, 1
35 %j.0.lcssa = phi i32 [ 0, %entry ], [ %add2, %for.end.loopexit ]
  /external/llvm/test/Transforms/DeadStoreElimination/
pr11390.ll 12 %add2 = add i64 %add, %call1
13 %add3 = add i64 %add2, 1
26 %arrayidx8 = getelementptr inbounds i8, i8* %call4, i64 %add2
  /cts/tests/tests/renderscript/src/android/renderscript/cts/
reduction.rs 28 int4 __attribute__((kernel)) add2(uint x)
  /external/llvm/test/Bitcode/
ptest-new.ll 13 %add2 = add i32 %add1, %res2
14 ret i32 %add2
ptest-old.ll 13 %add2 = add i32 %add1, %res2
14 ret i32 %add2
  /external/llvm/test/CodeGen/ARM/
disable-fp-elim.ll 18 %add2 = add i32 %add1, %e
19 %add3 = add i32 %add2, %call
  /external/llvm/test/CodeGen/Thumb2/
constant-islands-new-island-padding.ll 27 %add2 = fadd float %2, 0x3FF3C0BDC0000000
28 store float %add2, float* @f0, align 4
  /external/llvm/test/Transforms/LICM/
extra-copies.ll 14 %add2 = add nsw i32 %mul, %x
15 %mul3 = add nsw i32 %add2, %mul
  /external/llvm/test/tools/gold/X86/
slp-vectorize.ll 19 %add2 = fadd float %tmp1, 1.000000e+00
20 store float %add2, float* %arrayidx1, align 4
  /external/swiftshader/third_party/subzero/tests_lit/llvm2ice_tests/
local-cse.ll 21 %add2 = add i32 %b, %a
22 %add3 = add i32 %add1, %add2
  /external/llvm/test/CodeGen/AMDGPU/
mad-sub.ll 18 %add2 = add i64 %tid.ext, 2
19 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2
42 %add2 = add i64 %tid.ext, 2
43 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2
63 %add2 = add i64 %tid.ext, 2
64 %gep2 = getelementptr double, double addrspace(1)* %ptr, i64 %add2
87 %add2 = add i64 %tid.ext, 2
88 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2
112 %add2 = add i64 %tid.ext, 2
113 %gep2 = getelementptr float, float addrspace(1)* %ptr, i64 %add2
    [all...]
tti-unroll-prefs.ll 38 %b.addr.014 = phi i32 [ %b, %if.then4.lr.ph ], [ %add2, %if.then4 ]
39 %add2 = add nsw i32 %b.addr.014, 1
46 %cmp3 = icmp slt i32 %add2, %a
  /external/llvm/test/Transforms/LoopVectorize/X86/
reg-usage.ll 57 %add2.lcssa = phi i64 [ %add2, %for.body ]
58 ret i64 %add2.lcssa
62 %s.011 = phi i64 [ 0, %entry ], [ %add2, %for.body ]
67 %add2 = add nsw i64 %add, %s.011

Completed in 768 milliseconds

12 3 4 5 6 7 8 91011>>