HomeSort by relevance Sort by last modified time
    Searched full:fmul (Results 101 - 125 of 1010) sorted by null

1 2 3 45 6 7 8 91011>>

  /external/llvm/test/CodeGen/AArch64/
aarch64-a57-fp-load-balancing.ll 41 %mul = fmul fast double %0, %1
43 %mul5 = fmul fast double %1, %2
45 %mul7 = fmul fast double %1, %3
47 %mul8 = fmul fast double %2, %3
56 %mul15 = fmul fast double %6, %7
57 %mul16 = fmul fast double %0, %5
59 %mul18 = fmul fast double %5, %6
70 ; CHECK-EVEN: fmul [[y:d[0-9]*[13579]]]
72 ; CHECK-ODD: fmul [[y:d[0-9]*[02468]]]
99 %mul = fmul fast double %0, %
    [all...]
PBQP-chain.ll 27 %mul = fmul fast double %1, %0
29 %mul7 = fmul fast double %2, %0
34 %mul.1 = fmul fast double %4, %3
38 %mul7.1 = fmul fast double %5, %3
44 %mul.2 = fmul fast double %7, %6
48 %mul7.2 = fmul fast double %8, %6
54 %mul.3 = fmul fast double %10, %9
58 %mul7.3 = fmul fast double %11, %9
64 %mul.4 = fmul fast double %13, %12
68 %mul7.4 = fmul fast double %14, %1
    [all...]
fcvt-fixed.ll 13 %fix1 = fmul float %flt, 128.0
18 %fix2 = fmul float %flt, 4294967296.0
23 %fix3 = fmul float %flt, 128.0
28 %fix4 = fmul float %flt, 18446744073709551616.0
33 %fix5 = fmul double %dbl, 128.0
38 %fix6 = fmul double %dbl, 4294967296.0
43 %fix7 = fmul double %dbl, 128.0
48 %fix8 = fmul double %dbl, 18446744073709551616.0
59 %fix1 = fmul float %flt, 128.0
64 %fix2 = fmul float %flt, 4294967296.
    [all...]
  /external/llvm/test/CodeGen/PowerPC/
recipest.ll 19 ; CHECK: fmul
21 ; CHECK-NEXT: fmul
22 ; CHECK-NEXT: fmul
24 ; CHECK-NEXT: fmul
25 ; CHECK-NEXT: fmul
31 ; CHECK-NONR: fmul
53 ; CHECK-NEXT: fmul
71 ; CHECK: fmul
73 ; CHECK-NEXT: fmul
74 ; CHECK-NEXT: fmul
    [all...]
fma.ll 12 %D = fmul double %A, %B ; <double> [#uses=1]
25 %D = fmul double %A, %B ; <double> [#uses=1]
38 %D = fmul double %A, %B ; <double> [#uses=1]
51 %E = fmul double %A, %B ; <double> [#uses=2]
66 %D = fmul double %A, %B ; <double> [#uses=1]
80 %D = fmul double %A, %B ; <double> [#uses=1]
94 %D = fmul double %A, %B ; <double> [#uses=1]
106 %D = fmul double %A, %B ; <double> [#uses=1]
120 %D = fmul float %A, %B ; <float> [#uses=1]
134 %D = fmul float %A, %B ; <float> [#uses=1
    [all...]
fma-ext.ll 5 %D = fmul float %A, %B ; <float> [#uses=1]
19 %D = fmul float %A, %B ; <float> [#uses=1]
33 %D = fmul float %A, %B ; <float> [#uses=1]
47 %D = fmul float %A, %B ; <float> [#uses=1]
62 %D = fmul float %A, %B ; <float> [#uses=1]
79 %D = fmul float %A, %B ; <float> [#uses=1]
qpx-split-vsetcc.ll 22 %2 = fmul <4 x double> undef, %1
23 %3 = fmul <4 x double> undef, %2
24 %4 = fmul <4 x double> %3, undef
  /external/llvm/test/CodeGen/AMDGPU/
fmul.ll 12 %0 = fmul float %a, %b
29 %0 = fmul <2 x float> %a, %b
48 %result = fmul <4 x float> %a, %b
58 %y = fmul float %x, 2.0
59 %z = fmul float %y, 3.0
70 %y = fmul float %x, 3.0
71 %z = fmul float %y, 2.0
84 %a = fmul float %x, 5.0
86 %c = fmul float %b, %y
87 %d = fmul float %c, %
    [all...]
swizzle-export.ll 21 %10 = fmul float 0.000000e+00, %9
24 %13 = fmul float %5, %12
27 %16 = fmul float 0.000000e+00, %15
30 %19 = fmul float 0.000000e+00, %18
33 %22 = fmul float %7, %21
36 %25 = fmul float 0.000000e+00, %24
39 %28 = fmul float 0.000000e+00, %27
42 %31 = fmul float 0.000000e+00, %30
45 %34 = fmul float 0.000000e+00, %33
48 %37 = fmul float 0.000000e+00, %3
    [all...]
si-spill-cf.ll 95 %72 = fmul float %69, 0.000000e+00
96 %73 = fmul float %70, undef
97 %74 = fmul float %71, undef
100 %77 = fmul float %75, undef
101 %78 = fmul float %76, 0.000000e+00
111 %88 = fmul float %85, undef
112 %89 = fmul float %86, undef
113 %90 = fmul float %87, undef
117 %94 = fmul float %91, 0.000000e+00
118 %95 = fmul float %92, unde
    [all...]
pv.ll 38 %30 = fmul float %0, %29
41 %33 = fmul float %0, %32
44 %36 = fmul float %0, %35
47 %39 = fmul float %0, %38
50 %42 = fmul float %1, %41
54 %46 = fmul float %1, %45
58 %50 = fmul float %1, %49
62 %54 = fmul float %1, %53
66 %58 = fmul float %2, %57
70 %62 = fmul float %2, %6
    [all...]
shared-op-cycle.ll 11 %sq0 = fmul float %w0, %w0
13 %sq1 = fmul float %w1, %w1
15 %sq2 = fmul float %w2, %w2
load-input-fold.ll 19 %14 = fmul float %0, %13
22 %17 = fmul float %0, %16
25 %20 = fmul float %0, %19
28 %23 = fmul float %0, %22
31 %26 = fmul float %1, %25
35 %30 = fmul float %1, %29
39 %34 = fmul float %1, %33
43 %38 = fmul float %1, %37
47 %42 = fmul float %2, %41
51 %46 = fmul float %2, %4
    [all...]
  /external/llvm/test/Transforms/BBVectorize/
search-limit.ll 16 %Y1 = fmul double %X1, %A1
17 %Y2 = fmul double %X2, %A2
18 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2
23 %mul41 = fmul double %Z1, %Y2
25 %mul62 = fmul double %Z1, %sub48
27 %mul83 = fmul double %Z1, %sub69
29 %mul104 = fmul double %Z1, %sub90
31 %mul125 = fmul double %Z1, %sub111
33 %mul146 = fmul double %Z1, %sub132
39 %R = fmul double %R1, %sub15
    [all...]
simple-sel.ll 15 %Y1 = fmul double %X1, %A1
16 %Y2 = fmul double %X2, %A2
17 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2
23 %R = fmul double %Z1, %Z2
26 ; CHECK: %R = fmul double %Z1.v.r1, %Z1.v.r2
42 %Y1 = fmul double %X1, %A1
43 %Y2 = fmul double %X2, %A2
44 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2
52 %R = fmul double %Z1, %Z2
55 ; CHECK: %R = fmul double %Z1.v.r1, %Z1.v.r
    [all...]
req-depth.ll 8 %Y1 = fmul double %X1, %A1
9 %Y2 = fmul double %X2, %A2
10 %R = fmul double %Y1, %Y2
  /external/llvm/test/CodeGen/X86/
masked-iv-unsafe.ll 18 %t2 = fmul double %t1, 0.1
23 %t5 = fmul double %t4, 2.3
27 %t8 = fmul double %t7, 4.5
46 %t2 = fmul double %t1, 0.1
51 %t5 = fmul double %t4, 2.3
55 %t8 = fmul double %t7, 4.5
75 %t2 = fmul double %t1, 0.1
81 %t5 = fmul double %t4, 2.3
85 %t8 = fmul double %t7, 4.5
105 %t2 = fmul double %t1, 0.
    [all...]
  /external/llvm/test/CodeGen/ARM/
vcvt_combine.ll 8 %mul.i = fmul <2 x float> %in, <float 4.0, float 4.0>
18 %mul.i = fmul <2 x float> %in, <float 8.0, float 8.0>
30 %mul.i = fmul <2 x float> %in, <float 0x401B333340000000, float 0x401B333340000000>
41 %mul.i = fmul <2 x float> %in, <float 0x4200000000000000, float 0x4200000000000000>
51 %mul.i = fmul <2 x float> %in, <float 0x41F0000000000000, float 0x41F0000000000000>
61 %mul.i = fmul <4 x float> %in, <float 8.0, float 8.0, float 8.0, float 8.0>
a15-mla.ll 20 %t = fmul <4 x float> %x, %y
30 %t1 = fmul <4 x float> %x, %y
33 %t2 = fmul <4 x float> %u, %v
ifcvt10.ll 18 %mul73 = fmul double undef, 0.000000e+00
22 %mul89 = fmul double undef, %call88
30 %mul118 = fmul double %add112, undef
  /external/llvm/test/CodeGen/NVPTX/
nvvm-reflect.ll 20 ; USE_MUL_1: fmul float %a, %b
22 %ret1 = fmul float %a, %b
27 ; USE_MUL_1-NOT: fmul float %a, %b
65 ; USE_MUL_1: fmul float %a, %b
67 %ret1 = fmul float %a, %b
72 ; USE_MUL_1-NOT: fmul float %a, %b
  /external/llvm/test/Transforms/SLPVectorizer/X86/
compare-reduce.ll 10 ;CHECK: fmul <2 x double>
11 ;CHECK: fmul <2 x double>
26 %mul1 = fmul double %conv, %1
27 %mul2 = fmul double %mul1, 7.000000e+00
32 %mul8 = fmul double %conv, %3
33 %mul9 = fmul double %mul8, 4.000000e+00
metadata.ll 9 ;CHECK: fmul <2 x double>{{.*}}!fpmath ![[FP1:[0-9]+]]
17 %mul = fmul double %i0, %i1, !fpmath !0
22 %mul5 = fmul double %i3, %i4, !fpmath !0
32 ;CHECK: fmul <2 x double>{{.*}}!fpmath ![[FP2:[0-9]+]]
40 %mul = fmul double %i0, %i1, !fpmath !1
45 %mul5 = fmul double %i3, %i4, !fpmath !1
  /external/llvm/test/Transforms/LoopVectorize/X86/
gather-cost.ll 38 %mul3 = fmul fast float %0, %1
41 %mul5 = fmul fast float %mul3, %2
44 %mul7 = fmul fast float %mul5, %3
47 %mul9 = fmul fast float %mul7, %4
52 %mul13 = fmul fast float %1, %5
53 %mul15 = fmul fast float %2, %mul13
54 %mul17 = fmul fast float %3, %mul15
55 %mul19 = fmul fast float %4, %mul17
60 %mul23 = fmul fast float %1, %6
61 %mul25 = fmul fast float %2, %mul2
    [all...]
  /external/llvm/test/Assembler/
fast-math-flags.ll 27 ; CHECK: %c = fmul float %x, %y
28 %c = fmul float %x, %y
29 ; CHECK: %c_vec = fmul <3 x float> %vec, %vec
30 %c_vec = fmul <3 x float> %vec, %vec
61 ; CHECK: %c = fmul nnan float %x, %y
62 %c = fmul nnan float %x, %y
63 ; CHECK: %c_vec = fmul nnan <3 x float> %vec, %vec
64 %c_vec = fmul nnan <3 x float> %vec, %vec
95 ; CHECK: %c = fmul nnan float %x, %y
96 %c = fmul nnan float %x, %
    [all...]

Completed in 367 milliseconds

1 2 3 45 6 7 8 91011>>