HomeSort by relevance Sort by last modified time
    Searched full:fmul (Results 1 - 25 of 562) sorted by null

1 2 3 4 5 6 7 8 91011>>

  /external/llvm/test/CodeGen/PowerPC/
unsafe-math.ll 1 ; RUN: llc < %s -march=ppc32 | grep fmul | count 2
3 ; RUN: grep fmul | count 1
6 %tmp1 = fmul double %X, 1.23
7 %tmp2 = fmul double %tmp1, 4.124
2008-10-28-UnprocessedNode.ll 6 %0 = fmul ppc_fp128 0xM00000000000000000000000000000000, %imag59 ; <ppc_fp128> [#uses=1]
7 %1 = fmul ppc_fp128 0xM00000000000000000000000000000000, 0xM00000000000000000000000000000000 ; <ppc_fp128> [#uses=1]
fneg.ll 6 %tmp4 = fmul double %tmp2, %d ; <double> [#uses=1]
7 %tmp7 = fmul double %a, %b ; <double> [#uses=1]
ppcf128-4.ll 5 %tmp6 = fmul ppc_fp128 0xM00000000000000000000000000000000, 0xM41F00000000000000000000000000000
  /external/llvm/test/CodeGen/X86/
2008-07-19-movups-spills.ll 110 fmul <4 x float> %1, %1 ; <<4 x float>>:33 [#uses=1]
111 fmul <4 x float> %33, %2 ; <<4 x float>>:34 [#uses=1]
112 fmul <4 x float> %34, %3 ; <<4 x float>>:35 [#uses=1]
113 fmul <4 x float> %35, %4 ; <<4 x float>>:36 [#uses=1]
114 fmul <4 x float> %36, %5 ; <<4 x float>>:37 [#uses=1]
115 fmul <4 x float> %37, %6 ; <<4 x float>>:38 [#uses=1]
116 fmul <4 x float> %38, %7 ; <<4 x float>>:39 [#uses=1]
117 fmul <4 x float> %39, %8 ; <<4 x float>>:40 [#uses=1]
118 fmul <4 x float> %40, %9 ; <<4 x float>>:41 [#uses=1]
119 fmul <4 x float> %41, %10 ; <<4 x float>>:42 [#uses=1
    [all...]
2007-01-08-InstrSched.ll 5 %tmp1 = fmul float %x, 3.000000e+00
6 %tmp3 = fmul float %x, 5.000000e+00
7 %tmp5 = fmul float %x, 7.000000e+00
8 %tmp7 = fmul float %x, 1.100000e+01
sse-align-0.ll 6 %z = fmul <4 x float> %t, %x
11 %z = fmul <2 x double> %t, %x
misched-matmul.ll 18 %mul.i = fmul double %0, %1
23 %mul8.i = fmul double %2, %3
29 %mul13.i = fmul double %4, %5
35 %mul19.i = fmul double %6, %7
39 %mul26.i = fmul double %0, %8
42 %mul31.i = fmul double %2, %9
46 %mul37.i = fmul double %4, %10
50 %mul43.i = fmul double %6, %11
54 %mul50.i = fmul double %0, %12
57 %mul55.i = fmul double %2, %1
    [all...]
shrink-fp-const1.ll 5 %y = fmul double %x, 5.000000e-01
  /external/llvm/test/Transforms/Reassociate/
fp-commute.ll 10 ; CHECK: fmul float %x, %y
11 ; CHECK: fmul float %x, %y
12 %0 = fmul float %x, %y
13 %1 = fmul float %y, %x
2006-04-27-ReassociateVector.ll 5 %tmp164 = fmul <4 x float> zeroinitializer, %tmp162 ; <<4 x float>> [#uses=0]
  /external/llvm/test/Transforms/BBVectorize/
cycle.ll 8 ; %mul95 = fmul double %sub45.v.r1, %sub36.v.r1 <-> %mul88 = fmul double %sub36.v.r1, %sub87 (mul88 depends on add84)
9 ; %mul117 = fmul double %sub39.v.r1, %sub116 <-> %mul97 = fmul double %mul96, %sub39.v.r1 (mul97 depends on mul95)
36 %mul63 = fmul double %conv62, 3.000000e+00
37 %mul67 = fmul double %sub65, %conv
42 %mul75 = fmul double %conv57, 2.000000e+00
43 %mul76 = fmul double %mul75, %sub42
45 %mul82 = fmul double %add80, %conv
50 %mul88 = fmul double %sub36, %sub8
    [all...]
  /external/llvm/test/Transforms/SLPVectorizer/X86/
ordering.ll 9 %mul = fmul double undef, %0
10 %mul2 = fmul double undef, %mul
11 %mul4 = fmul double %0, %mul2
12 %mul5 = fmul double undef, 4.000000e+00
13 %mul7 = fmul double undef, %mul5
15 %mul8 = fmul double %conv, %mul7
long_chains.ll 12 ; CHECK: fmul <2 x double>
23 %mul = fmul double %conv6, %conv6
25 %mul9 = fmul double %conv7, %conv7
27 %mul11 = fmul double %add8, %add8
29 %mul13 = fmul double %add10, %add10
31 %mul15 = fmul double %add12, %add12
33 %mul17 = fmul double %add14, %add14
35 %mul19 = fmul double %add16, %add16
37 %mul21 = fmul double %add18, %add18
39 %mul23 = fmul double %add20, %add2
    [all...]
  /external/llvm/test/Transforms/InstCombine/
fmul.ll 6 %mul = fmul float %sub, 2.0e+1
10 ; CHECK: fmul float %x, -2.000000e+01
16 %mul = fmul float %sub, 2.0e+1
20 ; CHECK: fmul float %x, -2.000000e+01
27 %mul = fmul float %sub1, %sub2
30 ; CHECK: fmul float %x, %y
37 %mul = fmul float %sub1, %sub2
40 ; CHECK: fmul float %x, %y
46 %mul = fmul float %sub1, %y
49 ; CHECK: %1 = fmul float %x, %
    [all...]
2006-10-26-VectorReassoc.ll 5 %Y = fmul <4 x float> %V, < float 1.000000e+00, float 2.000000e+00, float 3.000000e+00, float 4.000000e+00 > ; <<4 x float>> [#uses=1]
6 %Z = fmul <4 x float> %Y, < float 1.000000e+00, float 2.000000e+05, float -3.000000e+00, float 4.000000e+00 > ; <<4 x float>> [#uses=1]
fast-math.ll 6 %mul = fmul fast float %a, 0x3FF3333340000000
7 %mul1 = fmul fast float %mul, 0x4002666660000000
10 ; CHECK: fmul fast float %a, 0x4006147AE0000000
17 ; CHECK: %mul = fmul fast float %a, 0x3FF3333340000000
18 %mul = fmul fast float %a, 0x3FF3333340000000
19 %mul1 = fmul float %mul, 0x4002666660000000
25 ; CHECK: fmul fast float %a, 0x4006147AE0000000
26 %mul = fmul float %a, 0x3FF3333340000000
27 %mul1 = fmul fast float %mul, 0x4002666660000000
33 %t1 = fmul fast double 2.000000e+00, %f
    [all...]
  /external/llvm/test/CodeGen/ARM/
2009-11-13-VRRewriterCrash.ll 32 %9 = fmul float 0.000000e+00, %8 ; <float> [#uses=1]
33 %10 = fmul float %5, 0.000000e+00 ; <float> [#uses=1]
35 %12 = fmul float %2, 0.000000e+00 ; <float> [#uses=1]
36 %13 = fmul float 0.000000e+00, undef ; <float> [#uses=1]
41 %16 = fmul float %11, %11 ; <float> [#uses=1]
51 %26 = fmul float 0.000000e+00, %25 ; <float> [#uses=1]
53 %28 = fmul float %14, 0.000000e+00 ; <float> [#uses=1]
54 %29 = fmul float %11, %25 ; <float> [#uses=1]
57 %32 = fmul float %21, %27 ; <float> [#uses=1]
58 %33 = fmul float undef, %30 ; <float> [#uses=1
    [all...]
2009-11-13-ScavengerAssert.ll 19 %3 = fmul float 0.000000e+00, undef ; <float> [#uses=1]
21 %5 = fmul float %4, %2 ; <float> [#uses=1]
23 %7 = fmul float %4, undef ; <float> [#uses=1]
25 %9 = fmul float undef, %2 ; <float> [#uses=1]
26 %10 = fmul float 0.000000e+00, undef ; <float> [#uses=1]
28 %12 = fmul float undef, %6 ; <float> [#uses=1]
29 %13 = fmul float 0.000000e+00, %8 ; <float> [#uses=1]
31 %15 = fmul float %1, %11 ; <float> [#uses=1]
36 %19 = fmul float %4, undef ; <float> [#uses=1]
2009-11-07-SubRegAsmPrinting.ll 10 %1 = fmul float %0, undef ; <float> [#uses=2]
11 %2 = fmul float 0.000000e+00, %1 ; <float> [#uses=2]
12 %3 = fmul float %0, %1 ; <float> [#uses=1]
22 %11 = fmul float %8, %10 ; <float> [#uses=1]
24 %13 = fmul float undef, undef ; <float> [#uses=1]
25 %14 = fmul float %6, 0.000000e+00 ; <float> [#uses=1]
27 %16 = fmul float %9, %10 ; <float> [#uses=1]
29 %18 = fmul float 0.000000e+00, undef ; <float> [#uses=1]
31 %20 = fmul float undef, %10 ; <float> [#uses=1]
34 %23 = fmul float %5, %22 ; <float> [#uses=1
    [all...]
fnmuls.ll 9 %0 = fmul float %a, %b
17 %0 = fmul float %a, %b
18 %1 = fmul float -1.0, %0
  /external/llvm/test/Transforms/BBVectorize/X86/
pr15289.ll 32 %0 = fmul double undef, undef
33 %1 = fmul double undef, undef
35 %3 = fmul double undef, 0x3FE8B8B76E3E9919
38 %6 = fmul double undef, undef
39 %7 = fmul double %4, %6
40 %8 = fmul double undef, 2.000000e+00
41 %9 = fmul double %8, undef
42 %10 = fmul double undef, %9
43 %11 = fmul double %10, undef
45 %13 = fmul double %3, %1
    [all...]
  /external/llvm/test/CodeGen/SystemZ/
fp-mul-01.ll 12 %res = fmul float %f1, %f2
22 %res = fmul float %f1, %f2
33 %res = fmul float %f1, %f2
46 %res = fmul float %f1, %f2
58 %res = fmul float %f1, %f2
71 %res = fmul float %f1, %f2
106 %mul0 = fmul float %ret, %val0
107 %mul1 = fmul float %mul0, %val1
108 %mul2 = fmul float %mul1, %val2
109 %mul3 = fmul float %mul2, %val
    [all...]
fp-mul-03.ll 12 %res = fmul double %f1, %f2
22 %res = fmul double %f1, %f2
33 %res = fmul double %f1, %f2
46 %res = fmul double %f1, %f2
58 %res = fmul double %f1, %f2
71 %res = fmul double %f1, %f2
106 %mul0 = fmul double %ret, %val0
107 %mul1 = fmul double %mul0, %val1
108 %mul2 = fmul double %mul1, %val2
109 %mul3 = fmul double %mul2, %val
    [all...]
  /external/llvm/test/Assembler/
2002-04-07-InfConstant.ll 6 %tmp = fmul float 0x7FF0000000000000, 1.000000e+01 ; <float> [#uses=1]

Completed in 837 milliseconds

1 2 3 4 5 6 7 8 91011>>