/external/llvm/test/CodeGen/X86/ |
haddsub-undef.ll | 14 %add4 = fadd float %vecext2, %vecext3 15 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 58 %add4 = fadd float %vecext2, %vecext3 59 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 104 %add4 = fadd float %vecext2, %vecext3 105 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 122 %add4 = fadd float %vecext2, %vecext3 123 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3 140 %add4 = fadd float %vecext2, %vecext3 141 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 [all...] |
add-of-carry.ll | 10 %add4 = add i32 %x, %sum 11 %cmp = icmp ult i32 %add4, %x 13 %z.0 = add i32 %add4, %inc
|
fast-isel-args.ll | 32 %add4 = fadd float %g, %h 34 %add6 = fadd float %add3, %add4 44 %add4 = fadd double %g, %h 46 %add6 = fadd double %add3, %add4
|
misched-ilp.ll | 23 %add4 = fadd float %add, %add3 24 ret float %add4
|
coalescer-identity.ll | 31 %add4.us = sub i32 0, %1 32 %tobool5.us = icmp eq i32 %conv3.us, %add4.us 65 %add4 = sub i32 0, %.pre 66 %not.tobool5 = icmp ne i32 %conv3, %add4
|
/external/llvm/test/CodeGen/SystemZ/ |
frame-08.ll | 43 %add4 = add i32 %l4, %add1 44 %add5 = add i32 %l5, %add4 56 store volatile i32 %add4, i32 *%ptr 95 %add4 = add i32 %l4, %add1 96 %add5 = add i32 %l5, %add4 100 store volatile i32 %add4, i32 *%ptr 146 %add4 = add i32 %l4, %add1 147 %add5 = add i32 %l5, %add4 159 store volatile i32 %add4, i32 *%ptr 197 %add4 = add i32 %l4, %add [all...] |
frame-04.ll | 51 %add4 = fadd fp128 %l4, %add1 52 %add5 = fadd fp128 %l5, %add4 59 store volatile fp128 %add4, fp128 *%ptr 106 %add4 = fadd fp128 %l4, %add1 107 %add5 = fadd fp128 %l5, %add4 113 store volatile fp128 %add4, fp128 *%ptr 149 %add4 = fadd fp128 %l4, %add1 150 %add5 = fadd fp128 %l5, %add4 154 store volatile fp128 %add4, fp128 *%ptr 180 %add4 = fadd fp128 %l4, %add [all...] |
frame-05.ll | 52 %add4 = add i32 %l4, %add3 53 %add5 = add i32 %l5, %add4 66 store volatile i32 %add4, i32 *%ptr 119 %add4 = add i32 %l4, %add3 120 %add5 = add i32 %l5, %add4 132 store volatile i32 %add4, i32 *%ptr 175 %add4 = add i32 %l4, %add3 176 %add5 = add i32 %l5, %add4 181 store volatile i32 %add4, i32 *%ptr 210 %add4 = add i32 %l4, %add [all...] |
frame-06.ll | 49 %add4 = add i64 %l4, %add3 50 %add5 = add i64 %l5, %add4 63 store volatile i64 %add4, i64 *%ptr 116 %add4 = add i64 %l4, %add3 117 %add5 = add i64 %l5, %add4 129 store volatile i64 %add4, i64 *%ptr 172 %add4 = add i64 %l4, %add3 173 %add5 = add i64 %l5, %add4 178 store volatile i64 %add4, i64 *%ptr 207 %add4 = add i64 %l4, %add [all...] |
frame-02.ll | 60 %add4 = fadd float %l4, %add3 61 %add5 = fadd float %l5, %add4 76 store volatile float %add4, float *%ptr 141 %add4 = fadd float %l4, %add3 142 %add5 = fadd float %l5, %add4 156 store volatile float %add4, float *%ptr 201 %add4 = fadd float %l4, %add3 202 %add5 = fadd float %l5, %add4 210 store volatile float %add4, float *%ptr 244 %add4 = fadd float %l4, %add [all...] |
frame-03.ll | 62 %add4 = fadd double %l4, %add3 63 %add5 = fadd double %l5, %add4 78 store volatile double %add4, double *%ptr 143 %add4 = fadd double %l4, %add3 144 %add5 = fadd double %l5, %add4 158 store volatile double %add4, double *%ptr 203 %add4 = fadd double %l4, %add3 204 %add5 = fadd double %l5, %add4 212 store volatile double %add4, double *%ptr 246 %add4 = fadd double %l4, %add [all...] |
/external/llvm/test/CodeGen/Hexagon/ |
cext-valid-packet2.ll | 18 %add4 = add nsw i32 %1, 200001 20 store i32 %add4, i32* %arrayidx5, align 4 23 %cmp = icmp sgt i32 %add4, %2
|
/external/llvm/test/Transforms/BBVectorize/ |
loop1.ll | 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0 47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1 48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2 51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2 75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, % [all...] |
/external/llvm/test/CodeGen/AArch64/ |
aarch64-address-type-promotion.ll | 23 %add4 = add nsw i32 %1, %0 26 store i32 %add4, i32* %arrayidx6, align 4
|
/external/llvm/test/Transforms/LoopStrengthReduce/ |
preserve-gep-loop-variant.ll | 30 %add4 = add nsw i64 %add, %conv3 31 %arrayidx = getelementptr inbounds i8* %p, i64 %add4
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
crash_smallpt.ll | 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F 44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02 46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01 48 %mul2.i.i.us = fmul double undef, %add4.i267.us 50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8 87 %add4.i719 = fadd double undef, %mul2.i729 89 %add4.i698 = fadd double undef, %add4.i719 91 %mul2.i.i680 = fmul double undef, %add4.i698
|
cross_block_slp.ll | 44 %add4 = fadd double %conv, %2 45 store double %add4, double* %A, align 8
|
intrinsic.ll | 101 %add4 = add i32 %i6, %i7 102 %call4 = tail call i32 @llvm.bswap.i32(i32 %add4) nounwind readnone 148 %add4 = add i32 %i6, %i7 149 %call4 = tail call i32 @llvm.ctlz.i32(i32 %add4,i1 true) nounwind readnone 193 %add4 = add i32 %i6, %i7 194 %call4 = tail call i32 @llvm.ctlz.i32(i32 %add4,i1 false) nounwind readnone 238 %add4 = add i32 %i6, %i7 239 %call4 = tail call i32 @llvm.cttz.i32(i32 %add4,i1 true) nounwind readnone 283 %add4 = add i32 %i6, %i7 284 %call4 = tail call i32 @llvm.cttz.i32(i32 %add4,i1 false) nounwind readnon [all...] |
/external/llvm/test/Transforms/LoopUnroll/ |
runtime-loop3.ll | 24 %sum.19 = phi i32 [ %add4, %for.body3 ], [ %sum.012, %for.cond1.preheader ] 28 %add4 = add nsw i32 %1, %sum.19 35 %sum.1.lcssa = phi i32 [ %sum.012, %for.cond1.preheader ], [ %add4, %for.body3 ]
|
/external/llvm/test/Transforms/LoopVectorize/ |
store-shuffle-bug.ll | 37 %add4 = add nsw i32 %2, %1 38 store i32 %add4, i32* %arrayidx, align 4 41 %add8 = add nsw i32 %add4, %3
|
multi-use-reduction-bug.ll | 31 %add4.neg = add i32 %add.neg, %.neg1 32 %sub = add i32 %add4.neg, %.neg2
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
loop1.ll | 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 49 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, %3 50 ; CHECK-UNRL: %add5 = fadd <2 x double> %add4, %2
|
/external/llvm/test/Transforms/LoopReroll/ |
reduction.ll | 18 %add4 = add nsw i32 %add, %2 22 %add8 = add nsw i32 %add4, %4 63 %add4 = fadd float %add, %2 67 %add8 = fadd float %add4, %4
|
/external/chromium_org/v8/test/mjsunit/compiler/ |
simple-deopt.js | 104 function add4(a,b,c,d) { function 107 assertEquals(0x40000003, add4(1,1,2,0x3fffffff));
|
/external/llvm/test/CodeGen/NVPTX/ |
noduplicate-syncthreads.ll | 34 %add4 = fadd double %conv3, 2.000000e+00 35 %conv5 = fptrunc double %add4 to float
|