/external/llvm/test/CodeGen/ARM/ |
fastcc-vfp.ll | 8 %add = fadd float %a, %b 18 %add = fadd double %a, %c 26 %add = fadd float %a, %c 34 %add = fadd double %a, %b
|
spill-q.ll | 53 %4 = fadd <4 x float> %3, %part0.0.0261 ; <<4 x float>> [#uses=1] 57 %8 = fadd <4 x float> %7, <float 5.000000e-01, float 5.000000e-01, float 5.000000e-01, float 5.000000e-01> ; <<4 x float>> [#uses=1] 66 %17 = fadd <4 x float> %16, undef ; <<4 x float>> [#uses=1] 70 %tmp1 = fadd <4 x float> %20, %ld3 71 %tmp2 = fadd <4 x float> %tmp1, %ld4 72 %tmp3 = fadd <4 x float> %tmp2, %ld5 73 %tmp4 = fadd <4 x float> %tmp3, %ld6 74 %tmp5 = fadd <4 x float> %tmp4, %ld7 75 %tmp6 = fadd <4 x float> %tmp5, %ld8 76 %tmp7 = fadd <4 x float> %tmp6, %ld [all...] |
/external/llvm/test/CodeGen/Generic/ |
2008-02-04-ExtractSubvector.ll | 8 %tmp21 = fadd <8 x double> zeroinitializer, zeroinitializer ; <<8 x double>> [#uses=1]
|
v-split.ll | 7 %R = fadd %f8 %p, %q
|
/external/llvm/test/CodeGen/NVPTX/ |
implicit-def.ll | 6 %ret = fadd float %a, undef
|
/external/llvm/test/CodeGen/PowerPC/ |
2006-01-11-darwin-fp-argument.ll | 8 %tmp.2 = fadd double %X, %Y ; <double> [#uses=1]
|
vec_zero.ll | 5 %S = fadd <4 x float> zeroinitializer, %T ; <<4 x float>> [#uses=1]
|
/external/llvm/test/CodeGen/R600/ |
fetch-limits.r700+.ll | 55 %a = fadd <4 x float> %res0, %res1 56 %b = fadd <4 x float> %res2, %res3 57 %c = fadd <4 x float> %res4, %res5 58 %d = fadd <4 x float> %res6, %res7 59 %e = fadd <4 x float> %res8, %res9 60 %f = fadd <4 x float> %res10, %res11 61 %g = fadd <4 x float> %res12, %res13 62 %h = fadd <4 x float> %res14, %res15 63 %i = fadd <4 x float> %res16, %a 65 %bc = fadd <4 x float> %b, % [all...] |
schedule-vs-if-nested-loop-failure.ll | 56 %32 = fadd float %31, %19 60 %36 = fadd float %35, %22 64 %40 = fadd float %39, %25 68 %44 = fadd float %43, %28 72 %48 = fadd float %47, %32 76 %52 = fadd float %51, %36 80 %56 = fadd float %55, %40 84 %60 = fadd float %59, %44 88 %64 = fadd float %63, %48 92 %68 = fadd float %67, %5 [all...] |
schedule-vs-if-nested-loop.ll | 39 %26 = fadd float %25, %13 43 %30 = fadd float %29, %16 47 %34 = fadd float %33, %19 51 %38 = fadd float %37, %22 55 %42 = fadd float %41, %26 59 %46 = fadd float %45, %30 63 %50 = fadd float %49, %34 67 %54 = fadd float %53, %38 71 %58 = fadd float %57, %42 75 %62 = fadd float %61, %4 [all...] |
/external/llvm/test/CodeGen/XCore/ |
shedulingPreference.ll | 14 %arg = fadd double undef, undef
|
/external/llvm/test/CodeGen/AArch64/ |
sincos-expansion.ll | 8 %val = fadd float %sin, %cos 15 %val = fadd double %sin, %cos 24 %val = fadd fp128 %sin, %cos
|
arm64-misched-basic-A53.ll | 92 %tmp1 = fadd <4 x float> %A, %B; 93 %tmp2 = fadd <4 x float> %A, %tmp1; 94 %tmp3 = fadd <4 x float> %A, %tmp2; 95 %tmp4 = fadd <4 x float> %A, %tmp3; 96 %tmp5 = fadd <4 x float> %A, %tmp4; 97 %tmp6 = fadd <4 x float> %A, %tmp5; 98 %tmp7 = fadd <4 x float> %A, %tmp6; 99 %tmp8 = fadd <4 x float> %A, %tmp7; 101 %tmp10 = fadd <4 x float> %tmp8, %tmp9; 137 %add1 = fadd float undef, unde [all...] |
/external/llvm/test/CodeGen/X86/ |
misched-matmul.ll | 27 %add.i = fadd double %mul.i, %mul8.i 33 %add14.i = fadd double %add.i, %mul13.i 39 %add20.i = fadd double %add14.i, %mul19.i 46 %add32.i = fadd double %mul26.i, %mul31.i 50 %add38.i = fadd double %add32.i, %mul37.i 54 %add44.i = fadd double %add38.i, %mul43.i 61 %add56.i = fadd double %mul50.i, %mul55.i 65 %add62.i = fadd double %add56.i, %mul61.i 69 %add68.i = fadd double %add62.i, %mul67.i 76 %add80.i = fadd double %mul74.i, %mul79. [all...] |
haddsub-undef.ll | 10 %add = fadd float %vecext, %vecext1 14 %add4 = fadd float %vecext2, %vecext3 18 %add12 = fadd float %vecext10, %vecext11 32 %add = fadd float %vecext, %vecext1 36 %add8 = fadd float %vecext6, %vecext7 40 %add12 = fadd float %vecext10, %vecext11 54 %add = fadd float %vecext, %vecext1 58 %add4 = fadd float %vecext2, %vecext3 62 %add8 = fadd float %vecext6, %vecext7 76 %add = fadd float %vecext, %vecext [all...] |
2008-01-16-FPStackifierAssert.ll | 7 %tmp73 = fadd x86_fp80 0xK00000000000000000000, %tmp72 ; <x86_fp80> [#uses=1] 11 %tmp82 = fadd double %tmp81, 0x401921FB54442D18 ; <double> [#uses=1] 18 %tmp89 = fadd x86_fp80 %tmp8586, %tmp88 ; <x86_fp80> [#uses=1] 22 %tmp98 = fadd double %tmp97, 0x402921FB54442D18 ; <double> [#uses=1] 29 %tmp105 = fadd x86_fp80 %tmp101102, %tmp104 ; <x86_fp80> [#uses=1]
|
/external/llvm/test/Transforms/InstCombine/ |
fold-phi.ll | 10 %add5 = fadd float %sum.057, %a ; PR14592 29 %add5 = fadd float %sum.057, 1.0 ;; Should be moved to the latch! 34 ; CHECK: fadd float
|
select-crash.ll | 10 %add = fadd double %div, 1.000000e+00 14 %add26 = fadd double %sub, 1.000000e+00 18 %add94 = fadd double undef, %mul91 27 ; CHECK: fadd <4 x float> 28 %a = fadd <4 x float> %x, %y
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
multi_block.ll | 23 ;CHECK: fadd <2 x float> 41 %10 = fadd float %4, 4.000000e+00 42 %11 = fadd float %5, 5.000000e+00 44 %13 = fadd double %12, 9.000000e+00 48 %16 = fadd double %15, 5.000000e+00
|
extract.ll | 8 ;CHECK: fadd <2 x double> 17 %A0 = fadd double %V0, 0.0 18 %A1 = fadd double %V1, 1.1 35 %A0 = fadd double %V0, 1.2 36 %A1 = fadd double %V1, 3.4 53 %A0 = fadd double %V0, 5.5 54 %A1 = fadd double %V1, 6.6
|
/external/llvm/test/CodeGen/Thumb2/ |
thumb2-spill-q.ll | 53 %4 = fadd <4 x float> %3, %part0.0.0261 ; <<4 x float>> [#uses=1] 57 %8 = fadd <4 x float> %7, <float 5.000000e-01, float 5.000000e-01, float 5.000000e-01, float 5.000000e-01> ; <<4 x float>> [#uses=1] 66 %17 = fadd <4 x float> %16, undef ; <<4 x float>> [#uses=1] 70 %tmp1 = fadd <4 x float> %20, %ld3 71 %tmp2 = fadd <4 x float> %tmp1, %ld4 72 %tmp3 = fadd <4 x float> %tmp2, %ld5 73 %tmp4 = fadd <4 x float> %tmp3, %ld6 74 %tmp5 = fadd <4 x float> %tmp4, %ld7 75 %tmp6 = fadd <4 x float> %tmp5, %ld8 76 %tmp7 = fadd <4 x float> %tmp6, %ld [all...] |
cross-rc-coalescing-2.ll | 20 %0 = fadd float 0.000000e+00, 1.000000e+00 ; <float> [#uses=2] 38 %8 = fadd float undef, %7 ; <float> [#uses=2] 41 %11 = fadd float %9, %8 ; <float> [#uses=1] 45 %15 = fadd float %14, undef ; <float> [#uses=2] 48 %18 = fadd float %16, %15 ; <float> [#uses=2] 51 %21 = fadd float %19, %13 ; <float> [#uses=1] 57 %27 = fadd float %25, %26 ; <float> [#uses=1] 58 %28 = fadd float %11, %27 ; <float> [#uses=1] 60 %29 = fadd float %12, %24 ; <float> [#uses=1] 71 %35 = fadd float 0.000000e+00, undef ; <float> [#uses=1 [all...] |
/external/llvm/test/Transforms/BBVectorize/ |
loop1.ll | 21 %add = fadd double %mul, %mul3 22 %add4 = fadd double %1, %1 23 %add5 = fadd double %add4, %0 25 %add7 = fadd double %add, %mul6 27 %add9 = fadd double %0, %0 28 %add10 = fadd double %add9, %0 30 %add12 = fadd double %add7, %mul11 44 ; CHECK: %add = fadd double %mul, %mul3 48 ; CHECK: %add4 = fadd <2 x double> %add4.v.i1.2, %add4.v.i1.2 51 ; CHECK: %add5 = fadd <2 x double> %add4, %add5.v.i1. [all...] |
/external/llvm/test/Transforms/BBVectorize/X86/ |
simple-int.ll | 15 %Z1 = fadd double %Y1, %B1 16 %Z2 = fadd double %Y2, %B2 29 %Z1 = fadd double %Y1, %B1 30 %Z2 = fadd double %Y2, %B2 43 %Z1 = fadd double %Y1, %B1 44 %Z2 = fadd double %Y2, %B2 57 %Z1 = fadd double %Y1, %B1 58 %Z2 = fadd double %Y2, %B2 72 %Z1 = fadd double %Y1, %B1 73 %Z2 = fadd double %Y2, %B [all...] |
/external/llvm/test/Transforms/LoopVectorize/X86/ |
unroll_selection.ll | 21 %5 = fadd double %4, 3.000000e+00 23 %7 = fadd double %5, %6 24 %8 = fadd double %7, 2.000000e+00 26 %10 = fadd double %6, %9 28 %12 = fadd double %4, %11 33 %17 = fadd double %16, -3.000000e+00 35 %19 = fadd double %6, %18 36 %20 = fadd double %13, %19 37 %21 = fadd double %20, %17 38 %22 = fadd double %21, 3.000000e+0 [all...] |