HomeSort by relevance Sort by last modified time
    Searched full:add4 (Results 1 - 25 of 124) sorted by null

1 2 3 4 5

  /external/llvm/test/Analysis/BasicAA/
bug.23540.ll 11 %add4 = add i32 0, 1
12 %idxprom5 = zext i32 %add4 to i64
  /external/llvm/test/CodeGen/AArch64/
postra-mi-sched.ll 24 %add4 = add nsw i32 %add3, %add2
26 %mul6 = mul i32 %mul5, %add4
27 %mul7 = shl i32 %add4, 1
aarch64-address-type-promotion.ll 23 %add4 = add nsw i32 %1, %0
26 store i32 %add4, i32* %arrayidx6, align 4
  /external/llvm/test/CodeGen/X86/
add-of-carry.ll 11 %add4 = add i32 %x, %sum
12 %cmp = icmp ult i32 %add4, %x
14 %z.0 = add i32 %add4, %inc
haddsub-undef.ll 14 %add4 = fadd float %vecext2, %vecext3
15 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
58 %add4 = fadd float %vecext2, %vecext3
59 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
104 %add4 = fadd float %vecext2, %vecext3
105 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
122 %add4 = fadd float %vecext2, %vecext3
123 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3
140 %add4 = fadd float %vecext2, %vecext3
141 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32
    [all...]
fast-isel-args.ll 32 %add4 = fadd float %g, %h
34 %add6 = fadd float %add3, %add4
44 %add4 = fadd double %g, %h
46 %add6 = fadd double %add3, %add4
misched-ilp.ll 23 %add4 = fadd float %add, %add3
24 ret float %add4
  /external/llvm/test/Transforms/LoopReroll/
negative.ll 21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ]
33 %add4 = add i64 %add, %conv3
39 %add4.lcssa = phi i64 [ %add4, %while.body ]
40 %phitmp = trunc i64 %add4.lcssa to i32
reduction.ll 18 %add4 = add nsw i32 %add, %2
22 %add8 = add nsw i32 %add4, %4
63 %add4 = fadd float %add, %2
67 %add8 = fadd float %add4, %4
108 %add4 = add nsw i32 %add, %2
112 %add8 = add nsw i32 %add4, %4
  /external/llvm/test/CodeGen/SystemZ/
frame-08.ll 43 %add4 = add i32 %l4, %add1
44 %add5 = add i32 %l5, %add4
56 store volatile i32 %add4, i32 *%ptr
95 %add4 = add i32 %l4, %add1
96 %add5 = add i32 %l5, %add4
100 store volatile i32 %add4, i32 *%ptr
146 %add4 = add i32 %l4, %add1
147 %add5 = add i32 %l5, %add4
159 store volatile i32 %add4, i32 *%ptr
197 %add4 = add i32 %l4, %add
    [all...]
frame-04.ll 51 %add4 = fadd fp128 %l4, %add1
52 %add5 = fadd fp128 %l5, %add4
59 store volatile fp128 %add4, fp128 *%ptr
106 %add4 = fadd fp128 %l4, %add1
107 %add5 = fadd fp128 %l5, %add4
113 store volatile fp128 %add4, fp128 *%ptr
149 %add4 = fadd fp128 %l4, %add1
150 %add5 = fadd fp128 %l5, %add4
154 store volatile fp128 %add4, fp128 *%ptr
180 %add4 = fadd fp128 %l4, %add
    [all...]
frame-05.ll 52 %add4 = add i32 %l4, %add3
53 %add5 = add i32 %l5, %add4
66 store volatile i32 %add4, i32 *%ptr
119 %add4 = add i32 %l4, %add3
120 %add5 = add i32 %l5, %add4
132 store volatile i32 %add4, i32 *%ptr
175 %add4 = add i32 %l4, %add3
176 %add5 = add i32 %l5, %add4
181 store volatile i32 %add4, i32 *%ptr
210 %add4 = add i32 %l4, %add
    [all...]
frame-06.ll 49 %add4 = add i64 %l4, %add3
50 %add5 = add i64 %l5, %add4
63 store volatile i64 %add4, i64 *%ptr
116 %add4 = add i64 %l4, %add3
117 %add5 = add i64 %l5, %add4
129 store volatile i64 %add4, i64 *%ptr
172 %add4 = add i64 %l4, %add3
173 %add5 = add i64 %l5, %add4
178 store volatile i64 %add4, i64 *%ptr
207 %add4 = add i64 %l4, %add
    [all...]
frame-02.ll 60 %add4 = fadd float %l4, %add3
61 %add5 = fadd float %l5, %add4
76 store volatile float %add4, float *%ptr
141 %add4 = fadd float %l4, %add3
142 %add5 = fadd float %l5, %add4
156 store volatile float %add4, float *%ptr
201 %add4 = fadd float %l4, %add3
202 %add5 = fadd float %l5, %add4
210 store volatile float %add4, float *%ptr
244 %add4 = fadd float %l4, %add
    [all...]
frame-03.ll 62 %add4 = fadd double %l4, %add3
63 %add5 = fadd double %l5, %add4
78 store volatile double %add4, double *%ptr
143 %add4 = fadd double %l4, %add3
144 %add5 = fadd double %l5, %add4
158 store volatile double %add4, double *%ptr
203 %add4 = fadd double %l4, %add3
204 %add5 = fadd double %l5, %add4
212 store volatile double %add4, double *%ptr
246 %add4 = fadd double %l4, %add
    [all...]
  /external/llvm/test/Transforms/BBVectorize/
loop1.ll 22 %add4 = fadd double %1, %1
23 %add5 = fadd double %add4, %0
46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0
47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1
48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2
51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2
75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %
    [all...]
  /external/llvm/test/Transforms/LoopStrengthReduce/
preserve-gep-loop-variant.ll 30 %add4 = add nsw i64 %add, %conv3
31 %arrayidx = getelementptr inbounds i8, i8* %p, i64 %add4
  /external/llvm/test/tools/gold/X86/
slp-vectorize.ll 23 %add4 = fadd float %tmp2, 1.000000e+00
24 store float %add4, float* %arrayidx3, align 4
  /external/llvm/test/Transforms/SLPVectorizer/X86/
crash_smallpt.ll 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F
44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02
46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01
48 %mul2.i.i.us = fmul double undef, %add4.i267.us
50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8
87 %add4.i719 = fadd double undef, %mul2.i729
89 %add4.i698 = fadd double undef, %add4.i719
91 %mul2.i.i680 = fmul double undef, %add4.i698
cross_block_slp.ll 44 %add4 = fadd double %conv, %2
45 store double %add4, double* %A, align 8
return.ll 51 %add4 = fadd double %x1, %x3
52 %add5 = fadd double %add3, %add4
  /external/llvm/test/Transforms/LoopUnroll/
runtime-loop3.ll 24 %sum.19 = phi i32 [ %add4, %for.body3 ], [ %sum.012, %for.cond1.preheader ]
28 %add4 = add nsw i32 %1, %sum.19
35 %sum.1.lcssa = phi i32 [ %sum.012, %for.cond1.preheader ], [ %add4, %for.body3 ]
  /external/llvm/test/Transforms/LoopVectorize/
store-shuffle-bug.ll 37 %add4 = add nsw i32 %2, %1
38 store i32 %add4, i32* %arrayidx, align 4
41 %add8 = add nsw i32 %add4, %3
multi-use-reduction-bug.ll 31 %add4.neg = add i32 %add.neg, %.neg1
32 %sub = add i32 %add4.neg, %.neg2
  /external/libvpx/libvpx/vpx_dsp/mips/
idct32x32_msa.c 201 ADD4(reg1, reg2, reg6, reg5, reg0, reg3, reg7, reg4,
216 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7,
231 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7,
260 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, m0, m4, m2, m6);
277 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, m1, m5, m3, m7);
294 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, n0, n4, n2, n6);
311 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, n1, n5, n3, n7);
507 ADD4(reg0, reg3, reg1, reg2, reg5, reg6, reg4, reg7, vec0, vec1, vec2, vec3);
518 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7, loc0, loc1, loc2, loc3);
532 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7, loc0, loc1, loc2, loc3)
    [all...]

Completed in 1351 milliseconds

1 2 3 4 5