HomeSort by relevance Sort by last modified time
    Searched full:add4 (Results 1 - 25 of 79) sorted by null

1 2 3 4

  /external/llvm/test/CodeGen/X86/
haddsub-undef.ll 14 %add4 = fadd float %vecext2, %vecext3
15 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
58 %add4 = fadd float %vecext2, %vecext3
59 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
104 %add4 = fadd float %vecext2, %vecext3
105 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1
122 %add4 = fadd float %vecext2, %vecext3
123 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3
140 %add4 = fadd float %vecext2, %vecext3
141 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32
    [all...]
add-of-carry.ll 10 %add4 = add i32 %x, %sum
11 %cmp = icmp ult i32 %add4, %x
13 %z.0 = add i32 %add4, %inc
fast-isel-args.ll 32 %add4 = fadd float %g, %h
34 %add6 = fadd float %add3, %add4
44 %add4 = fadd double %g, %h
46 %add6 = fadd double %add3, %add4
misched-ilp.ll 23 %add4 = fadd float %add, %add3
24 ret float %add4
coalescer-identity.ll 31 %add4.us = sub i32 0, %1
32 %tobool5.us = icmp eq i32 %conv3.us, %add4.us
65 %add4 = sub i32 0, %.pre
66 %not.tobool5 = icmp ne i32 %conv3, %add4
  /external/llvm/test/CodeGen/SystemZ/
frame-08.ll 43 %add4 = add i32 %l4, %add1
44 %add5 = add i32 %l5, %add4
56 store volatile i32 %add4, i32 *%ptr
95 %add4 = add i32 %l4, %add1
96 %add5 = add i32 %l5, %add4
100 store volatile i32 %add4, i32 *%ptr
146 %add4 = add i32 %l4, %add1
147 %add5 = add i32 %l5, %add4
159 store volatile i32 %add4, i32 *%ptr
197 %add4 = add i32 %l4, %add
    [all...]
frame-04.ll 51 %add4 = fadd fp128 %l4, %add1
52 %add5 = fadd fp128 %l5, %add4
59 store volatile fp128 %add4, fp128 *%ptr
106 %add4 = fadd fp128 %l4, %add1
107 %add5 = fadd fp128 %l5, %add4
113 store volatile fp128 %add4, fp128 *%ptr
149 %add4 = fadd fp128 %l4, %add1
150 %add5 = fadd fp128 %l5, %add4
154 store volatile fp128 %add4, fp128 *%ptr
180 %add4 = fadd fp128 %l4, %add
    [all...]
frame-05.ll 52 %add4 = add i32 %l4, %add3
53 %add5 = add i32 %l5, %add4
66 store volatile i32 %add4, i32 *%ptr
119 %add4 = add i32 %l4, %add3
120 %add5 = add i32 %l5, %add4
132 store volatile i32 %add4, i32 *%ptr
175 %add4 = add i32 %l4, %add3
176 %add5 = add i32 %l5, %add4
181 store volatile i32 %add4, i32 *%ptr
210 %add4 = add i32 %l4, %add
    [all...]
frame-06.ll 49 %add4 = add i64 %l4, %add3
50 %add5 = add i64 %l5, %add4
63 store volatile i64 %add4, i64 *%ptr
116 %add4 = add i64 %l4, %add3
117 %add5 = add i64 %l5, %add4
129 store volatile i64 %add4, i64 *%ptr
172 %add4 = add i64 %l4, %add3
173 %add5 = add i64 %l5, %add4
178 store volatile i64 %add4, i64 *%ptr
207 %add4 = add i64 %l4, %add
    [all...]
frame-02.ll 60 %add4 = fadd float %l4, %add3
61 %add5 = fadd float %l5, %add4
76 store volatile float %add4, float *%ptr
141 %add4 = fadd float %l4, %add3
142 %add5 = fadd float %l5, %add4
156 store volatile float %add4, float *%ptr
201 %add4 = fadd float %l4, %add3
202 %add5 = fadd float %l5, %add4
210 store volatile float %add4, float *%ptr
244 %add4 = fadd float %l4, %add
    [all...]
frame-03.ll 62 %add4 = fadd double %l4, %add3
63 %add5 = fadd double %l5, %add4
78 store volatile double %add4, double *%ptr
143 %add4 = fadd double %l4, %add3
144 %add5 = fadd double %l5, %add4
158 store volatile double %add4, double *%ptr
203 %add4 = fadd double %l4, %add3
204 %add5 = fadd double %l5, %add4
212 store volatile double %add4, double *%ptr
246 %add4 = fadd double %l4, %add
    [all...]
  /external/llvm/test/CodeGen/Hexagon/
cext-valid-packet2.ll 18 %add4 = add nsw i32 %1, 200001
20 store i32 %add4, i32* %arrayidx5, align 4
23 %cmp = icmp sgt i32 %add4, %2
  /external/llvm/test/Transforms/BBVectorize/
loop1.ll 22 %add4 = fadd double %1, %1
23 %add5 = fadd double %add4, %0
46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0
47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1
48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2
51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2
75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %
    [all...]
  /external/llvm/test/CodeGen/AArch64/
aarch64-address-type-promotion.ll 23 %add4 = add nsw i32 %1, %0
26 store i32 %add4, i32* %arrayidx6, align 4
  /external/llvm/test/Transforms/LoopStrengthReduce/
preserve-gep-loop-variant.ll 30 %add4 = add nsw i64 %add, %conv3
31 %arrayidx = getelementptr inbounds i8* %p, i64 %add4
  /external/llvm/test/Transforms/SLPVectorizer/X86/
crash_smallpt.ll 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F
44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02
46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01
48 %mul2.i.i.us = fmul double undef, %add4.i267.us
50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8
87 %add4.i719 = fadd double undef, %mul2.i729
89 %add4.i698 = fadd double undef, %add4.i719
91 %mul2.i.i680 = fmul double undef, %add4.i698
cross_block_slp.ll 44 %add4 = fadd double %conv, %2
45 store double %add4, double* %A, align 8
intrinsic.ll 101 %add4 = add i32 %i6, %i7
102 %call4 = tail call i32 @llvm.bswap.i32(i32 %add4) nounwind readnone
148 %add4 = add i32 %i6, %i7
149 %call4 = tail call i32 @llvm.ctlz.i32(i32 %add4,i1 true) nounwind readnone
193 %add4 = add i32 %i6, %i7
194 %call4 = tail call i32 @llvm.ctlz.i32(i32 %add4,i1 false) nounwind readnone
238 %add4 = add i32 %i6, %i7
239 %call4 = tail call i32 @llvm.cttz.i32(i32 %add4,i1 true) nounwind readnone
283 %add4 = add i32 %i6, %i7
284 %call4 = tail call i32 @llvm.cttz.i32(i32 %add4,i1 false) nounwind readnon
    [all...]
  /external/llvm/test/Transforms/LoopUnroll/
runtime-loop3.ll 24 %sum.19 = phi i32 [ %add4, %for.body3 ], [ %sum.012, %for.cond1.preheader ]
28 %add4 = add nsw i32 %1, %sum.19
35 %sum.1.lcssa = phi i32 [ %sum.012, %for.cond1.preheader ], [ %add4, %for.body3 ]
  /external/llvm/test/Transforms/LoopVectorize/
store-shuffle-bug.ll 37 %add4 = add nsw i32 %2, %1
38 store i32 %add4, i32* %arrayidx, align 4
41 %add8 = add nsw i32 %add4, %3
multi-use-reduction-bug.ll 31 %add4.neg = add i32 %add.neg, %.neg1
32 %sub = add i32 %add4.neg, %.neg2
  /external/llvm/test/Transforms/BBVectorize/X86/
loop1.ll 22 %add4 = fadd double %1, %1
23 %add5 = fadd double %add4, %0
49 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3
50 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
  /external/llvm/test/Transforms/LoopReroll/
reduction.ll 18 %add4 = add nsw i32 %add, %2
22 %add8 = add nsw i32 %add4, %4
63 %add4 = fadd float %add, %2
67 %add8 = fadd float %add4, %4
  /external/chromium_org/v8/test/mjsunit/compiler/
simple-deopt.js 104 function add4(a,b,c,d) { function
107 assertEquals(0x40000003, add4(1,1,2,0x3fffffff));
  /external/llvm/test/CodeGen/NVPTX/
noduplicate-syncthreads.ll 34 %add4 = fadd double %conv3, 2.000000e+00
35 %conv5 = fptrunc double %add4 to float

Completed in 762 milliseconds

1 2 3 4