/external/llvm/test/CodeGen/PowerPC/ |
unsafe-math.ll | 1 ; RUN: llc < %s -march=ppc32 | grep fmul | count 2 3 ; RUN: grep fmul | count 1 6 %tmp1 = fmul double %X, 1.23 7 %tmp2 = fmul double %tmp1, 4.124
|
2008-10-28-UnprocessedNode.ll | 6 %0 = fmul ppc_fp128 0xM00000000000000000000000000000000, %imag59 ; <ppc_fp128> [#uses=1] 7 %1 = fmul ppc_fp128 0xM00000000000000000000000000000000, 0xM00000000000000000000000000000000 ; <ppc_fp128> [#uses=1]
|
fneg.ll | 6 %tmp4 = fmul double %tmp2, %d ; <double> [#uses=1] 7 %tmp7 = fmul double %a, %b ; <double> [#uses=1]
|
ppcf128-4.ll | 5 %tmp6 = fmul ppc_fp128 0xM00000000000000000000000000000000, 0xM41F00000000000000000000000000000
|
/external/llvm/test/CodeGen/X86/ |
2008-07-19-movups-spills.ll | 110 fmul <4 x float> %1, %1 ; <<4 x float>>:33 [#uses=1] 111 fmul <4 x float> %33, %2 ; <<4 x float>>:34 [#uses=1] 112 fmul <4 x float> %34, %3 ; <<4 x float>>:35 [#uses=1] 113 fmul <4 x float> %35, %4 ; <<4 x float>>:36 [#uses=1] 114 fmul <4 x float> %36, %5 ; <<4 x float>>:37 [#uses=1] 115 fmul <4 x float> %37, %6 ; <<4 x float>>:38 [#uses=1] 116 fmul <4 x float> %38, %7 ; <<4 x float>>:39 [#uses=1] 117 fmul <4 x float> %39, %8 ; <<4 x float>>:40 [#uses=1] 118 fmul <4 x float> %40, %9 ; <<4 x float>>:41 [#uses=1] 119 fmul <4 x float> %41, %10 ; <<4 x float>>:42 [#uses=1 [all...] |
2007-01-08-InstrSched.ll | 5 %tmp1 = fmul float %x, 3.000000e+00 6 %tmp3 = fmul float %x, 5.000000e+00 7 %tmp5 = fmul float %x, 7.000000e+00 8 %tmp7 = fmul float %x, 1.100000e+01
|
sse-align-0.ll | 6 %z = fmul <4 x float> %t, %x 11 %z = fmul <2 x double> %t, %x
|
misched-matmul.ll | 18 %mul.i = fmul double %0, %1 23 %mul8.i = fmul double %2, %3 29 %mul13.i = fmul double %4, %5 35 %mul19.i = fmul double %6, %7 39 %mul26.i = fmul double %0, %8 42 %mul31.i = fmul double %2, %9 46 %mul37.i = fmul double %4, %10 50 %mul43.i = fmul double %6, %11 54 %mul50.i = fmul double %0, %12 57 %mul55.i = fmul double %2, %1 [all...] |
shrink-fp-const1.ll | 5 %y = fmul double %x, 5.000000e-01
|
/external/llvm/test/Transforms/Reassociate/ |
fp-commute.ll | 10 ; CHECK: fmul float %x, %y 11 ; CHECK: fmul float %x, %y 12 %0 = fmul float %x, %y 13 %1 = fmul float %y, %x
|
2006-04-27-ReassociateVector.ll | 5 %tmp164 = fmul <4 x float> zeroinitializer, %tmp162 ; <<4 x float>> [#uses=0]
|
/external/llvm/test/Transforms/BBVectorize/ |
cycle.ll | 8 ; %mul95 = fmul double %sub45.v.r1, %sub36.v.r1 <-> %mul88 = fmul double %sub36.v.r1, %sub87 (mul88 depends on add84) 9 ; %mul117 = fmul double %sub39.v.r1, %sub116 <-> %mul97 = fmul double %mul96, %sub39.v.r1 (mul97 depends on mul95) 36 %mul63 = fmul double %conv62, 3.000000e+00 37 %mul67 = fmul double %sub65, %conv 42 %mul75 = fmul double %conv57, 2.000000e+00 43 %mul76 = fmul double %mul75, %sub42 45 %mul82 = fmul double %add80, %conv 50 %mul88 = fmul double %sub36, %sub8 [all...] |
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
ordering.ll | 9 %mul = fmul double undef, %0 10 %mul2 = fmul double undef, %mul 11 %mul4 = fmul double %0, %mul2 12 %mul5 = fmul double undef, 4.000000e+00 13 %mul7 = fmul double undef, %mul5 15 %mul8 = fmul double %conv, %mul7
|
long_chains.ll | 12 ; CHECK: fmul <2 x double> 23 %mul = fmul double %conv6, %conv6 25 %mul9 = fmul double %conv7, %conv7 27 %mul11 = fmul double %add8, %add8 29 %mul13 = fmul double %add10, %add10 31 %mul15 = fmul double %add12, %add12 33 %mul17 = fmul double %add14, %add14 35 %mul19 = fmul double %add16, %add16 37 %mul21 = fmul double %add18, %add18 39 %mul23 = fmul double %add20, %add2 [all...] |
/external/llvm/test/Transforms/InstCombine/ |
fmul.ll | 6 %mul = fmul float %sub, 2.0e+1 10 ; CHECK: fmul float %x, -2.000000e+01 16 %mul = fmul float %sub, 2.0e+1 20 ; CHECK: fmul float %x, -2.000000e+01 27 %mul = fmul float %sub1, %sub2 30 ; CHECK: fmul float %x, %y 37 %mul = fmul float %sub1, %sub2 40 ; CHECK: fmul float %x, %y 46 %mul = fmul float %sub1, %y 49 ; CHECK: %1 = fmul float %x, % [all...] |
2006-10-26-VectorReassoc.ll | 5 %Y = fmul <4 x float> %V, < float 1.000000e+00, float 2.000000e+00, float 3.000000e+00, float 4.000000e+00 > ; <<4 x float>> [#uses=1] 6 %Z = fmul <4 x float> %Y, < float 1.000000e+00, float 2.000000e+05, float -3.000000e+00, float 4.000000e+00 > ; <<4 x float>> [#uses=1]
|
fast-math.ll | 6 %mul = fmul fast float %a, 0x3FF3333340000000 7 %mul1 = fmul fast float %mul, 0x4002666660000000 10 ; CHECK: fmul fast float %a, 0x4006147AE0000000 17 ; CHECK: %mul = fmul fast float %a, 0x3FF3333340000000 18 %mul = fmul fast float %a, 0x3FF3333340000000 19 %mul1 = fmul float %mul, 0x4002666660000000 25 ; CHECK: fmul fast float %a, 0x4006147AE0000000 26 %mul = fmul float %a, 0x3FF3333340000000 27 %mul1 = fmul fast float %mul, 0x4002666660000000 33 %t1 = fmul fast double 2.000000e+00, %f [all...] |
/external/llvm/test/CodeGen/ARM/ |
2009-11-13-VRRewriterCrash.ll | 32 %9 = fmul float 0.000000e+00, %8 ; <float> [#uses=1] 33 %10 = fmul float %5, 0.000000e+00 ; <float> [#uses=1] 35 %12 = fmul float %2, 0.000000e+00 ; <float> [#uses=1] 36 %13 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 41 %16 = fmul float %11, %11 ; <float> [#uses=1] 51 %26 = fmul float 0.000000e+00, %25 ; <float> [#uses=1] 53 %28 = fmul float %14, 0.000000e+00 ; <float> [#uses=1] 54 %29 = fmul float %11, %25 ; <float> [#uses=1] 57 %32 = fmul float %21, %27 ; <float> [#uses=1] 58 %33 = fmul float undef, %30 ; <float> [#uses=1 [all...] |
2009-11-13-ScavengerAssert.ll | 19 %3 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 21 %5 = fmul float %4, %2 ; <float> [#uses=1] 23 %7 = fmul float %4, undef ; <float> [#uses=1] 25 %9 = fmul float undef, %2 ; <float> [#uses=1] 26 %10 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 28 %12 = fmul float undef, %6 ; <float> [#uses=1] 29 %13 = fmul float 0.000000e+00, %8 ; <float> [#uses=1] 31 %15 = fmul float %1, %11 ; <float> [#uses=1] 36 %19 = fmul float %4, undef ; <float> [#uses=1]
|
2009-11-07-SubRegAsmPrinting.ll | 10 %1 = fmul float %0, undef ; <float> [#uses=2] 11 %2 = fmul float 0.000000e+00, %1 ; <float> [#uses=2] 12 %3 = fmul float %0, %1 ; <float> [#uses=1] 22 %11 = fmul float %8, %10 ; <float> [#uses=1] 24 %13 = fmul float undef, undef ; <float> [#uses=1] 25 %14 = fmul float %6, 0.000000e+00 ; <float> [#uses=1] 27 %16 = fmul float %9, %10 ; <float> [#uses=1] 29 %18 = fmul float 0.000000e+00, undef ; <float> [#uses=1] 31 %20 = fmul float undef, %10 ; <float> [#uses=1] 34 %23 = fmul float %5, %22 ; <float> [#uses=1 [all...] |
fnmuls.ll | 9 %0 = fmul float %a, %b 17 %0 = fmul float %a, %b 18 %1 = fmul float -1.0, %0
|
/external/llvm/test/Transforms/BBVectorize/X86/ |
pr15289.ll | 32 %0 = fmul double undef, undef 33 %1 = fmul double undef, undef 35 %3 = fmul double undef, 0x3FE8B8B76E3E9919 38 %6 = fmul double undef, undef 39 %7 = fmul double %4, %6 40 %8 = fmul double undef, 2.000000e+00 41 %9 = fmul double %8, undef 42 %10 = fmul double undef, %9 43 %11 = fmul double %10, undef 45 %13 = fmul double %3, %1 [all...] |
/external/llvm/test/CodeGen/SystemZ/ |
fp-mul-01.ll | 12 %res = fmul float %f1, %f2 22 %res = fmul float %f1, %f2 33 %res = fmul float %f1, %f2 46 %res = fmul float %f1, %f2 58 %res = fmul float %f1, %f2 71 %res = fmul float %f1, %f2 106 %mul0 = fmul float %ret, %val0 107 %mul1 = fmul float %mul0, %val1 108 %mul2 = fmul float %mul1, %val2 109 %mul3 = fmul float %mul2, %val [all...] |
fp-mul-03.ll | 12 %res = fmul double %f1, %f2 22 %res = fmul double %f1, %f2 33 %res = fmul double %f1, %f2 46 %res = fmul double %f1, %f2 58 %res = fmul double %f1, %f2 71 %res = fmul double %f1, %f2 106 %mul0 = fmul double %ret, %val0 107 %mul1 = fmul double %mul0, %val1 108 %mul2 = fmul double %mul1, %val2 109 %mul3 = fmul double %mul2, %val [all...] |
/external/llvm/test/Assembler/ |
2002-04-07-InfConstant.ll | 6 %tmp = fmul float 0x7FF0000000000000, 1.000000e+01 ; <float> [#uses=1]
|