/external/llvm/test/CodeGen/AArch64/ |
aarch64-a57-fp-load-balancing.ll | 41 %mul = fmul fast double %0, %1 43 %mul5 = fmul fast double %1, %2 45 %mul7 = fmul fast double %1, %3 47 %mul8 = fmul fast double %2, %3 56 %mul15 = fmul fast double %6, %7 57 %mul16 = fmul fast double %0, %5 59 %mul18 = fmul fast double %5, %6 70 ; CHECK-EVEN: fmul [[y:d[0-9]*[13579]]] 72 ; CHECK-ODD: fmul [[y:d[0-9]*[02468]]] 99 %mul = fmul fast double %0, % [all...] |
PBQP-chain.ll | 27 %mul = fmul fast double %1, %0 29 %mul7 = fmul fast double %2, %0 34 %mul.1 = fmul fast double %4, %3 38 %mul7.1 = fmul fast double %5, %3 44 %mul.2 = fmul fast double %7, %6 48 %mul7.2 = fmul fast double %8, %6 54 %mul.3 = fmul fast double %10, %9 58 %mul7.3 = fmul fast double %11, %9 64 %mul.4 = fmul fast double %13, %12 68 %mul7.4 = fmul fast double %14, %1 [all...] |
fcvt-fixed.ll | 13 %fix1 = fmul float %flt, 128.0 18 %fix2 = fmul float %flt, 4294967296.0 23 %fix3 = fmul float %flt, 128.0 28 %fix4 = fmul float %flt, 18446744073709551616.0 33 %fix5 = fmul double %dbl, 128.0 38 %fix6 = fmul double %dbl, 4294967296.0 43 %fix7 = fmul double %dbl, 128.0 48 %fix8 = fmul double %dbl, 18446744073709551616.0 59 %fix1 = fmul float %flt, 128.0 64 %fix2 = fmul float %flt, 4294967296. [all...] |
/external/llvm/test/CodeGen/PowerPC/ |
recipest.ll | 19 ; CHECK: fmul 21 ; CHECK-NEXT: fmul 22 ; CHECK-NEXT: fmul 24 ; CHECK-NEXT: fmul 25 ; CHECK-NEXT: fmul 31 ; CHECK-NONR: fmul 53 ; CHECK-NEXT: fmul 71 ; CHECK: fmul 73 ; CHECK-NEXT: fmul 74 ; CHECK-NEXT: fmul [all...] |
fma.ll | 12 %D = fmul double %A, %B ; <double> [#uses=1] 25 %D = fmul double %A, %B ; <double> [#uses=1] 38 %D = fmul double %A, %B ; <double> [#uses=1] 51 %E = fmul double %A, %B ; <double> [#uses=2] 66 %D = fmul double %A, %B ; <double> [#uses=1] 80 %D = fmul double %A, %B ; <double> [#uses=1] 94 %D = fmul double %A, %B ; <double> [#uses=1] 106 %D = fmul double %A, %B ; <double> [#uses=1] 120 %D = fmul float %A, %B ; <float> [#uses=1] 134 %D = fmul float %A, %B ; <float> [#uses=1 [all...] |
fma-ext.ll | 5 %D = fmul float %A, %B ; <float> [#uses=1] 19 %D = fmul float %A, %B ; <float> [#uses=1] 33 %D = fmul float %A, %B ; <float> [#uses=1] 47 %D = fmul float %A, %B ; <float> [#uses=1] 62 %D = fmul float %A, %B ; <float> [#uses=1] 79 %D = fmul float %A, %B ; <float> [#uses=1]
|
qpx-split-vsetcc.ll | 22 %2 = fmul <4 x double> undef, %1 23 %3 = fmul <4 x double> undef, %2 24 %4 = fmul <4 x double> %3, undef
|
/external/llvm/test/CodeGen/AMDGPU/ |
fmul.ll | 12 %0 = fmul float %a, %b 29 %0 = fmul <2 x float> %a, %b 48 %result = fmul <4 x float> %a, %b 58 %y = fmul float %x, 2.0 59 %z = fmul float %y, 3.0 70 %y = fmul float %x, 3.0 71 %z = fmul float %y, 2.0 84 %a = fmul float %x, 5.0 86 %c = fmul float %b, %y 87 %d = fmul float %c, % [all...] |
swizzle-export.ll | 21 %10 = fmul float 0.000000e+00, %9 24 %13 = fmul float %5, %12 27 %16 = fmul float 0.000000e+00, %15 30 %19 = fmul float 0.000000e+00, %18 33 %22 = fmul float %7, %21 36 %25 = fmul float 0.000000e+00, %24 39 %28 = fmul float 0.000000e+00, %27 42 %31 = fmul float 0.000000e+00, %30 45 %34 = fmul float 0.000000e+00, %33 48 %37 = fmul float 0.000000e+00, %3 [all...] |
si-spill-cf.ll | 95 %72 = fmul float %69, 0.000000e+00 96 %73 = fmul float %70, undef 97 %74 = fmul float %71, undef 100 %77 = fmul float %75, undef 101 %78 = fmul float %76, 0.000000e+00 111 %88 = fmul float %85, undef 112 %89 = fmul float %86, undef 113 %90 = fmul float %87, undef 117 %94 = fmul float %91, 0.000000e+00 118 %95 = fmul float %92, unde [all...] |
pv.ll | 38 %30 = fmul float %0, %29 41 %33 = fmul float %0, %32 44 %36 = fmul float %0, %35 47 %39 = fmul float %0, %38 50 %42 = fmul float %1, %41 54 %46 = fmul float %1, %45 58 %50 = fmul float %1, %49 62 %54 = fmul float %1, %53 66 %58 = fmul float %2, %57 70 %62 = fmul float %2, %6 [all...] |
shared-op-cycle.ll | 11 %sq0 = fmul float %w0, %w0 13 %sq1 = fmul float %w1, %w1 15 %sq2 = fmul float %w2, %w2
|
load-input-fold.ll | 19 %14 = fmul float %0, %13 22 %17 = fmul float %0, %16 25 %20 = fmul float %0, %19 28 %23 = fmul float %0, %22 31 %26 = fmul float %1, %25 35 %30 = fmul float %1, %29 39 %34 = fmul float %1, %33 43 %38 = fmul float %1, %37 47 %42 = fmul float %2, %41 51 %46 = fmul float %2, %4 [all...] |
/external/llvm/test/Transforms/BBVectorize/ |
search-limit.ll | 16 %Y1 = fmul double %X1, %A1 17 %Y2 = fmul double %X2, %A2 18 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2 23 %mul41 = fmul double %Z1, %Y2 25 %mul62 = fmul double %Z1, %sub48 27 %mul83 = fmul double %Z1, %sub69 29 %mul104 = fmul double %Z1, %sub90 31 %mul125 = fmul double %Z1, %sub111 33 %mul146 = fmul double %Z1, %sub132 39 %R = fmul double %R1, %sub15 [all...] |
simple-sel.ll | 15 %Y1 = fmul double %X1, %A1 16 %Y2 = fmul double %X2, %A2 17 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2 23 %R = fmul double %Z1, %Z2 26 ; CHECK: %R = fmul double %Z1.v.r1, %Z1.v.r2 42 %Y1 = fmul double %X1, %A1 43 %Y2 = fmul double %X2, %A2 44 ; CHECK: %Y1 = fmul <2 x double> %X1, %X1.v.i0.2 52 %R = fmul double %Z1, %Z2 55 ; CHECK: %R = fmul double %Z1.v.r1, %Z1.v.r [all...] |
req-depth.ll | 8 %Y1 = fmul double %X1, %A1 9 %Y2 = fmul double %X2, %A2 10 %R = fmul double %Y1, %Y2
|
/external/llvm/test/CodeGen/X86/ |
masked-iv-unsafe.ll | 18 %t2 = fmul double %t1, 0.1 23 %t5 = fmul double %t4, 2.3 27 %t8 = fmul double %t7, 4.5 46 %t2 = fmul double %t1, 0.1 51 %t5 = fmul double %t4, 2.3 55 %t8 = fmul double %t7, 4.5 75 %t2 = fmul double %t1, 0.1 81 %t5 = fmul double %t4, 2.3 85 %t8 = fmul double %t7, 4.5 105 %t2 = fmul double %t1, 0. [all...] |
/external/llvm/test/CodeGen/ARM/ |
vcvt_combine.ll | 8 %mul.i = fmul <2 x float> %in, <float 4.0, float 4.0> 18 %mul.i = fmul <2 x float> %in, <float 8.0, float 8.0> 30 %mul.i = fmul <2 x float> %in, <float 0x401B333340000000, float 0x401B333340000000> 41 %mul.i = fmul <2 x float> %in, <float 0x4200000000000000, float 0x4200000000000000> 51 %mul.i = fmul <2 x float> %in, <float 0x41F0000000000000, float 0x41F0000000000000> 61 %mul.i = fmul <4 x float> %in, <float 8.0, float 8.0, float 8.0, float 8.0>
|
a15-mla.ll | 20 %t = fmul <4 x float> %x, %y 30 %t1 = fmul <4 x float> %x, %y 33 %t2 = fmul <4 x float> %u, %v
|
ifcvt10.ll | 18 %mul73 = fmul double undef, 0.000000e+00 22 %mul89 = fmul double undef, %call88 30 %mul118 = fmul double %add112, undef
|
/external/llvm/test/CodeGen/NVPTX/ |
nvvm-reflect.ll | 20 ; USE_MUL_1: fmul float %a, %b 22 %ret1 = fmul float %a, %b 27 ; USE_MUL_1-NOT: fmul float %a, %b 65 ; USE_MUL_1: fmul float %a, %b 67 %ret1 = fmul float %a, %b 72 ; USE_MUL_1-NOT: fmul float %a, %b
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
compare-reduce.ll | 10 ;CHECK: fmul <2 x double> 11 ;CHECK: fmul <2 x double> 26 %mul1 = fmul double %conv, %1 27 %mul2 = fmul double %mul1, 7.000000e+00 32 %mul8 = fmul double %conv, %3 33 %mul9 = fmul double %mul8, 4.000000e+00
|
metadata.ll | 9 ;CHECK: fmul <2 x double>{{.*}}!fpmath ![[FP1:[0-9]+]] 17 %mul = fmul double %i0, %i1, !fpmath !0 22 %mul5 = fmul double %i3, %i4, !fpmath !0 32 ;CHECK: fmul <2 x double>{{.*}}!fpmath ![[FP2:[0-9]+]] 40 %mul = fmul double %i0, %i1, !fpmath !1 45 %mul5 = fmul double %i3, %i4, !fpmath !1
|
/external/llvm/test/Transforms/LoopVectorize/X86/ |
gather-cost.ll | 38 %mul3 = fmul fast float %0, %1 41 %mul5 = fmul fast float %mul3, %2 44 %mul7 = fmul fast float %mul5, %3 47 %mul9 = fmul fast float %mul7, %4 52 %mul13 = fmul fast float %1, %5 53 %mul15 = fmul fast float %2, %mul13 54 %mul17 = fmul fast float %3, %mul15 55 %mul19 = fmul fast float %4, %mul17 60 %mul23 = fmul fast float %1, %6 61 %mul25 = fmul fast float %2, %mul2 [all...] |
/external/llvm/test/Assembler/ |
fast-math-flags.ll | 27 ; CHECK: %c = fmul float %x, %y 28 %c = fmul float %x, %y 29 ; CHECK: %c_vec = fmul <3 x float> %vec, %vec 30 %c_vec = fmul <3 x float> %vec, %vec 61 ; CHECK: %c = fmul nnan float %x, %y 62 %c = fmul nnan float %x, %y 63 ; CHECK: %c_vec = fmul nnan <3 x float> %vec, %vec 64 %c_vec = fmul nnan <3 x float> %vec, %vec 95 ; CHECK: %c = fmul nnan float %x, %y 96 %c = fmul nnan float %x, % [all...] |