/external/llvm/test/Analysis/BasicAA/ |
bug.23540.ll | 11 %add4 = add i32 0, 1 12 %idxprom5 = zext i32 %add4 to i64
|
/external/llvm/test/CodeGen/AArch64/ |
postra-mi-sched.ll | 24 %add4 = add nsw i32 %add3, %add2 26 %mul6 = mul i32 %mul5, %add4 27 %mul7 = shl i32 %add4, 1
|
aarch64-address-type-promotion.ll | 23 %add4 = add nsw i32 %1, %0 26 store i32 %add4, i32* %arrayidx6, align 4
|
/external/llvm/test/CodeGen/X86/ |
add-of-carry.ll | 11 %add4 = add i32 %x, %sum 12 %cmp = icmp ult i32 %add4, %x 14 %z.0 = add i32 %add4, %inc
|
haddsub-undef.ll | 14 %add4 = fadd float %vecext2, %vecext3 15 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 58 %add4 = fadd float %vecext2, %vecext3 59 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 104 %add4 = fadd float %vecext2, %vecext3 105 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 1 122 %add4 = fadd float %vecext2, %vecext3 123 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 3 140 %add4 = fadd float %vecext2, %vecext3 141 %vecinit5 = insertelement <4 x float> %vecinit, float %add4, i32 [all...] |
fast-isel-args.ll | 32 %add4 = fadd float %g, %h 34 %add6 = fadd float %add3, %add4 44 %add4 = fadd double %g, %h 46 %add6 = fadd double %add3, %add4
|
misched-ilp.ll | 23 %add4 = fadd float %add, %add3 24 ret float %add4
|
/external/llvm/test/Transforms/LoopReroll/ |
negative.ll | 21 %sum4.015 = phi i64 [ 0, %while.body.lr.ph ], [ %add4, %while.body ] 33 %add4 = add i64 %add, %conv3 39 %add4.lcssa = phi i64 [ %add4, %while.body ] 40 %phitmp = trunc i64 %add4.lcssa to i32
|
reduction.ll | 18 %add4 = add nsw i32 %add, %2 22 %add8 = add nsw i32 %add4, %4 63 %add4 = fadd float %add, %2 67 %add8 = fadd float %add4, %4 108 %add4 = add nsw i32 %add, %2 112 %add8 = add nsw i32 %add4, %4
|
/external/llvm/test/CodeGen/SystemZ/ |
frame-08.ll | 43 %add4 = add i32 %l4, %add1 44 %add5 = add i32 %l5, %add4 56 store volatile i32 %add4, i32 *%ptr 95 %add4 = add i32 %l4, %add1 96 %add5 = add i32 %l5, %add4 100 store volatile i32 %add4, i32 *%ptr 146 %add4 = add i32 %l4, %add1 147 %add5 = add i32 %l5, %add4 159 store volatile i32 %add4, i32 *%ptr 197 %add4 = add i32 %l4, %add [all...] |
frame-04.ll | 51 %add4 = fadd fp128 %l4, %add1 52 %add5 = fadd fp128 %l5, %add4 59 store volatile fp128 %add4, fp128 *%ptr 106 %add4 = fadd fp128 %l4, %add1 107 %add5 = fadd fp128 %l5, %add4 113 store volatile fp128 %add4, fp128 *%ptr 149 %add4 = fadd fp128 %l4, %add1 150 %add5 = fadd fp128 %l5, %add4 154 store volatile fp128 %add4, fp128 *%ptr 180 %add4 = fadd fp128 %l4, %add [all...] |
frame-05.ll | 52 %add4 = add i32 %l4, %add3 53 %add5 = add i32 %l5, %add4 66 store volatile i32 %add4, i32 *%ptr 119 %add4 = add i32 %l4, %add3 120 %add5 = add i32 %l5, %add4 132 store volatile i32 %add4, i32 *%ptr 175 %add4 = add i32 %l4, %add3 176 %add5 = add i32 %l5, %add4 181 store volatile i32 %add4, i32 *%ptr 210 %add4 = add i32 %l4, %add [all...] |
frame-06.ll | 49 %add4 = add i64 %l4, %add3 50 %add5 = add i64 %l5, %add4 63 store volatile i64 %add4, i64 *%ptr 116 %add4 = add i64 %l4, %add3 117 %add5 = add i64 %l5, %add4 129 store volatile i64 %add4, i64 *%ptr 172 %add4 = add i64 %l4, %add3 173 %add5 = add i64 %l5, %add4 178 store volatile i64 %add4, i64 *%ptr 207 %add4 = add i64 %l4, %add [all...] |
frame-02.ll | 60 %add4 = fadd float %l4, %add3 61 %add5 = fadd float %l5, %add4 76 store volatile float %add4, float *%ptr 141 %add4 = fadd float %l4, %add3 142 %add5 = fadd float %l5, %add4 156 store volatile float %add4, float *%ptr 201 %add4 = fadd float %l4, %add3 202 %add5 = fadd float %l5, %add4 210 store volatile float %add4, float *%ptr 244 %add4 = fadd float %l4, %add [all...] |
frame-03.ll | 62 %add4 = fadd double %l4, %add3 63 %add5 = fadd double %l5, %add4 78 store volatile double %add4, double *%ptr 143 %add4 = fadd double %l4, %add3 144 %add5 = fadd double %l5, %add4 158 store volatile double %add4, double *%ptr 203 %add4 = fadd double %l4, %add3 204 %add5 = fadd double %l5, %add4 212 store volatile double %add4, double *%ptr 246 %add4 = fadd double %l4, %add [all...] |
/external/llvm/test/Transforms/BBVectorize/ |
loop1.ll | 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 46 ; CHECK: %add4.v.i1.1 = insertelement <2 x double> undef, double %1, i32 0 47 ; CHECK: %add4.v.i1.2 = insertelement <2 x double> %add4.v.i1.1, double %0, i32 1 48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2 51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1.2 75 ; CHECK-UNRL: %add4 = fadd <2 x double> %3, % [all...] |
/external/llvm/test/Transforms/LoopStrengthReduce/ |
preserve-gep-loop-variant.ll | 30 %add4 = add nsw i64 %add, %conv3 31 %arrayidx = getelementptr inbounds i8, i8* %p, i64 %add4
|
/external/llvm/test/tools/gold/X86/ |
slp-vectorize.ll | 23 %add4 = fadd float %tmp2, 1.000000e+00 24 store float %add4, float* %arrayidx3, align 4
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
crash_smallpt.ll | 42 %add4.i267.us = fadd double undef, 0xBFA5CC2D1960285F 44 %mul2.i256.us = fmul double %add4.i267.us, 1.400000e+02 46 %add4.i246.us = fadd double %mul2.i256.us, 5.200000e+01 48 %mul2.i.i.us = fmul double undef, %add4.i267.us 50 store double %add4.i246.us, double* %agg.tmp99208.sroa.1.8.idx388, align 8 87 %add4.i719 = fadd double undef, %mul2.i729 89 %add4.i698 = fadd double undef, %add4.i719 91 %mul2.i.i680 = fmul double undef, %add4.i698
|
cross_block_slp.ll | 44 %add4 = fadd double %conv, %2 45 store double %add4, double* %A, align 8
|
return.ll | 51 %add4 = fadd double %x1, %x3 52 %add5 = fadd double %add3, %add4
|
/external/llvm/test/Transforms/LoopUnroll/ |
runtime-loop3.ll | 24 %sum.19 = phi i32 [ %add4, %for.body3 ], [ %sum.012, %for.cond1.preheader ] 28 %add4 = add nsw i32 %1, %sum.19 35 %sum.1.lcssa = phi i32 [ %sum.012, %for.cond1.preheader ], [ %add4, %for.body3 ]
|
/external/llvm/test/Transforms/LoopVectorize/ |
store-shuffle-bug.ll | 37 %add4 = add nsw i32 %2, %1 38 store i32 %add4, i32* %arrayidx, align 4 41 %add8 = add nsw i32 %add4, %3
|
multi-use-reduction-bug.ll | 31 %add4.neg = add i32 %add.neg, %.neg1 32 %sub = add i32 %add4.neg, %.neg2
|
/external/libvpx/libvpx/vpx_dsp/mips/ |
idct32x32_msa.c | 201 ADD4(reg1, reg2, reg6, reg5, reg0, reg3, reg7, reg4, 216 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7, 231 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7, 260 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, m0, m4, m2, m6); 277 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, m1, m5, m3, m7); 294 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, n0, n4, n2, n6); 311 ADD4(loc0, vec3, loc1, vec2, loc2, vec1, loc3, vec0, n1, n5, n3, n7); 507 ADD4(reg0, reg3, reg1, reg2, reg5, reg6, reg4, reg7, vec0, vec1, vec2, vec3); 518 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7, loc0, loc1, loc2, loc3); 532 ADD4(reg0, reg4, reg1, reg5, reg2, reg6, reg3, reg7, loc0, loc1, loc2, loc3) [all...] |