HomeSort by relevance Sort by last modified time
    Searched full:fmul (Results 51 - 75 of 562) sorted by null

1 23 4 5 6 7 8 91011>>

  /external/llvm/test/Transforms/GlobalOpt/
2008-01-29-VolatileGlobal.ll 7 %tmp4 = fmul double %tmp1, %tmp1 ; <double> [#uses=1]
constantexpr-dangle.ll 10 %tmp2 = fmul float %tmp1, 1.000000e+01 ; <float> [#uses=1]
  /external/llvm/test/Transforms/IndVarSimplify/
2008-11-25-APFloatAssert.ll 9 %0 = fmul ppc_fp128 %result.0.i89, %result.0.i89 ; <ppc_fp128> [#uses=1]
iv-zext.ll 16 %t2 = fmul double %t1, 0.1
21 %t5 = fmul double %t4, 2.3
25 %t8 = fmul double %t7, 4.5
  /external/llvm/test/Transforms/BBVectorize/
simple-tst.ll 11 %Y1 = fmul ppc_fp128 %X1, %A1
12 %Y2 = fmul ppc_fp128 %X2, %A2
15 %R = fmul ppc_fp128 %Z1, %Z2
search-limit.ll 16 %Y1 = fmul double %X1, %A1
17 %Y2 = fmul double %X2, %A2
18 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2
23 %mul41 = fmul double %Z1, %Y2
25 %mul62 = fmul double %Z1, %sub48
27 %mul83 = fmul double %Z1, %sub69
29 %mul104 = fmul double %Z1, %sub90
31 %mul125 = fmul double %Z1, %sub111
33 %mul146 = fmul double %Z1, %sub132
39 %R = fmul double %R1, %sub15
    [all...]
simple-sel.ll 15 %Y1 = fmul double %X1, %A1
16 %Y2 = fmul double %X2, %A2
17 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2
23 %R = fmul double %Z1, %Z2
26 ; CHECK: %R = fmul double %Z1.v.r1, %Z1.v.r2
42 %Y1 = fmul double %X1, %A1
43 %Y2 = fmul double %X2, %A2
44 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2
52 %R = fmul double %Z1, %Z2
55 ; CHECK: %R = fmul double %Z1.v.r1, %Z1.v.r
    [all...]
req-depth.ll 8 %Y1 = fmul double %X1, %A1
9 %Y2 = fmul double %X2, %A2
10 %R = fmul double %Y1, %Y2
  /external/llvm/test/Transforms/LoopVectorize/ARM/
gather-cost.ll 40 %mul3 = fmul fast float %0, %1
43 %mul5 = fmul fast float %mul3, %2
46 %mul7 = fmul fast float %mul5, %3
49 %mul9 = fmul fast float %mul7, %4
54 %mul13 = fmul fast float %1, %5
55 %mul15 = fmul fast float %2, %mul13
56 %mul17 = fmul fast float %3, %mul15
57 %mul19 = fmul fast float %4, %mul17
62 %mul23 = fmul fast float %1, %6
63 %mul25 = fmul fast float %2, %mul2
    [all...]
  /external/llvm/test/Transforms/LoopVectorize/X86/
gather-cost.ll 38 %mul3 = fmul fast float %0, %1
41 %mul5 = fmul fast float %mul3, %2
44 %mul7 = fmul fast float %mul5, %3
47 %mul9 = fmul fast float %mul7, %4
52 %mul13 = fmul fast float %1, %5
53 %mul15 = fmul fast float %2, %mul13
54 %mul17 = fmul fast float %3, %mul15
55 %mul19 = fmul fast float %4, %mul17
60 %mul23 = fmul fast float %1, %6
61 %mul25 = fmul fast float %2, %mul2
    [all...]
  /external/llvm/test/CodeGen/X86/
masked-iv-safe.ll 22 %t2 = fmul double %t1, 0.1
27 %t5 = fmul double %t4, 2.3
31 %t8 = fmul double %t7, 4.5
50 %t2 = fmul double %t1, 0.1
55 %t5 = fmul double %t4, 2.3
59 %t8 = fmul double %t7, 4.5
79 %t2 = fmul double %t1, 0.1
85 %t5 = fmul double %t4, 2.3
89 %t8 = fmul double %t7, 4.5
109 %t2 = fmul double %t1, 0.
    [all...]
2007-10-12-SpillerUnfold1.ll 16 %tmp261 = fmul float %tmp259, %tmp176 ; <float> [#uses=1]
18 %tmp269 = fmul float %tmp252, %tmp176 ; <float> [#uses=1]
19 %tmp276 = fmul float %tmp259, 0.000000e+00 ; <float> [#uses=1]
27 %tmp315 = fmul float 0.000000e+00, %tmp291 ; <float> [#uses=1]
28 %tmp318 = fmul float 0.000000e+00, %tmp298 ; <float> [#uses=1]
36 %tmp355 = fmul float 0.000000e+00, %tmp305 ; <float> [#uses=1]
37 %tmp358 = fmul float 0.000000e+00, %tmp284 ; <float> [#uses=1]
fma_patterns.ll 12 %x = fmul <4 x float> %a0, %a1
24 %x = fmul <4 x float> %a0, %a1
36 %x = fmul <4 x float> %a0, %a1
48 %x = fmul <4 x float> %a0, %a1
61 %x = fmul <8 x float> %a0, %a1
73 %x = fmul <8 x float> %a0, %a1
85 %x = fmul <8 x float> %a0, %a1
94 %x = fmul <8 x float> %a0, %a1
107 %x = fmul <4 x double> %a0, %a1
119 %x = fmul <4 x double> %a0, %a
    [all...]
fma_patterns_wide.ll 14 %x = fmul <16 x float> %a0, %a1
28 %x = fmul <16 x float> %a0, %a1
42 %x = fmul <16 x float> %a0, %a1
52 %x = fmul <16 x float> %a0, %a1
67 %x = fmul <8 x double> %a0, %a1
81 %x = fmul <8 x double> %a0, %a1
  /external/llvm/test/CodeGen/PowerPC/
recipest.ll 19 ; CHECK: fmul
21 ; CHECK: fmul
22 ; CHECK: fmul
24 ; CHECK: fmul
25 ; CHECK: fmul
47 ; CHECK: fmul
66 ; CHECK: fmul
68 ; CHECK: fmul
69 ; CHECK: fmul
71 ; CHECK: fmul
    [all...]
  /external/llvm/test/CodeGen/ARM/
2009-02-27-SpillerBug.ll 34 %.pn404 = fmul double %4, %4 ; <double> [#uses=4]
35 %.pn402 = fmul double %5, %5 ; <double> [#uses=5]
37 %.pn198 = fmul double 0.000000e+00, %5 ; <double> [#uses=1]
57 %.pn60 = fmul double %.pn81, 0.000000e+00 ; <double> [#uses=1]
59 %.pn58 = fmul double %.pn75, %.pn165.in ; <double> [#uses=1]
61 %.pn33 = fmul double %.pn67, %.pn165.in ; <double> [#uses=1]
64 %.pn30 = fmul double 0.000000e+00, %.pn56 ; <double> [#uses=1]
65 %.pn24 = fmul double 0.000000e+00, %.pn42 ; <double> [#uses=1]
86 %7 = fmul double 0.000000e+00, %4 ; <double> [#uses=1]
88 %9 = fmul double 0.000000e+00, %5 ; <double> [#uses=1
    [all...]
a15-mla.ll 19 %t = fmul <4 x float> %x, %y
29 %t1 = fmul <4 x float> %x, %y
32 %t2 = fmul <4 x float> %u, %v
ifcvt10.ll 18 %mul73 = fmul double undef, 0.000000e+00
22 %mul89 = fmul double undef, %call88
30 %mul118 = fmul double %add112, undef
fnmul.ll 8 %tmp4 = fmul double %tmp2, %b ; <double> [#uses=1]
  /external/llvm/test/CodeGen/Thumb2/
cross-rc-coalescing-2.ll 21 %1 = fmul float 0.000000e+00, 0.000000e+00 ; <float> [#uses=2]
33 %3 = fmul float %2, %1 ; <float> [#uses=1]
35 %5 = fmul float %4, %0 ; <float> [#uses=1]
37 %7 = fmul float %4, %1 ; <float> [#uses=1]
44 %14 = fmul float undef, %0 ; <float> [#uses=1]
52 %22 = fmul float %s1.02, %18 ; <float> [#uses=1]
53 %23 = fmul float 0.000000e+00, %20 ; <float> [#uses=1]
55 %25 = fmul float 0.000000e+00, %18 ; <float> [#uses=1]
56 %26 = fmul float %s1.02, %20 ; <float> [#uses=1]
62 %30 = fmul float 0.000000e+00, %21 ; <float> [#uses=1
    [all...]
  /external/llvm/test/Transforms/BBVectorize/X86/
loop1.ll 19 %mul = fmul double %0, %0
20 %mul3 = fmul double %0, %1
24 %mul6 = fmul double %0, %add5
26 %mul8 = fmul double %1, %1
29 %mul11 = fmul double %mul8, %add10
44 ; CHECK-NEXT: fmul <2 x double>
46 ; CHECK-UNRL: %mul = fmul <2 x double> %2, %2
47 ; CHECK-UNRL: %mul3 = fmul <2 x double> %2, %3
51 ; CHECK-UNRL: %mul6 = fmul <2 x double> %2, %add5
53 ; CHECK-UNRL: %mul8 = fmul <2 x double> %3, %
    [all...]
  /external/llvm/test/Transforms/SLPVectorizer/X86/
compare-reduce.ll 10 ;CHECK: fmul <2 x double>
11 ;CHECK: fmul <2 x double>
26 %mul1 = fmul double %conv, %1
27 %mul2 = fmul double %mul1, 7.000000e+00
32 %mul8 = fmul double %conv, %3
33 %mul9 = fmul double %mul8, 4.000000e+00
  /external/llvm/test/CodeGen/R600/
pv.ll 38 %30 = fmul float %0, %29
41 %33 = fmul float %0, %32
44 %36 = fmul float %0, %35
47 %39 = fmul float %0, %38
50 %42 = fmul float %1, %41
54 %46 = fmul float %1, %45
58 %50 = fmul float %1, %49
62 %54 = fmul float %1, %53
66 %58 = fmul float %2, %57
70 %62 = fmul float %2, %6
    [all...]
  /external/llvm/test/CodeGen/NVPTX/
nvvm-reflect.ll 20 ; USE_MUL_1: fmul float %a, %b
22 %ret1 = fmul float %a, %b
27 ; USE_MUL_1-NOT: fmul float %a, %b
  /external/llvm/test/CodeGen/AArch64/
fcvt-fixed.ll 9 %fix1 = fmul float %flt, 128.0
14 %fix2 = fmul float %flt, 4294967296.0
19 %fix3 = fmul float %flt, 128.0
24 %fix4 = fmul float %flt, 18446744073709551616.0
29 %fix5 = fmul double %dbl, 128.0
34 %fix6 = fmul double %dbl, 4294967296.0
39 %fix7 = fmul double %dbl, 128.0
44 %fix8 = fmul double %dbl, 18446744073709551616.0
55 %fix1 = fmul float %flt, 128.0
60 %fix2 = fmul float %flt, 4294967296.
    [all...]

Completed in 365 milliseconds

1 23 4 5 6 7 8 91011>>