/external/compiler-rt/lib/builtins/x86_64/ |
chkstk2.S | 16 mov %rcx,%rax // x64 _alloca is a normal function with parameter in rcx 19 push %rcx 21 lea 16(%rsp),%rcx // rsp before calling this routine -> rcx 24 sub $0x1000,%rcx 25 test %rcx,(%rcx) 30 sub %rax,%rcx 31 test %rcx,(%rcx [all...] |
chkstk.S | 20 push %rcx 23 lea 24(%rsp),%rcx 26 sub $0x1000,%rcx 27 test %rcx,(%rcx) 32 sub %rax,%rcx 33 test %rcx,(%rcx) 35 pop %rcx
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/X86/ |
intel-syntax-x86-avx512dq_vl.s | 3 // CHECK: vcvtps2qq xmm2 {k2} {z}, qword ptr [rcx + 128] 5 vcvtps2qq xmm2 {k2} {z}, qword ptr [rcx + 0x80] 7 // CHECK: vcvtps2qq xmm2 {k2}, qword ptr [rcx + 128] 9 vcvtps2qq xmm2 {k2}, qword ptr [rcx + 0x80] 11 // CHECK: vcvtps2qq xmm2, qword ptr [rcx + 128] 13 vcvtps2qq xmm2, qword ptr [rcx + 0x80] 15 // CHECK: vcvttps2qq xmm1 {k2} {z}, qword ptr [rcx + 128] 17 vcvttps2qq xmm1 {k2} {z}, qword ptr [rcx + 0x80] 19 // CHECK: vcvttps2qq xmm1 {k2}, qword ptr [rcx + 128] 21 vcvttps2qq xmm1 {k2}, qword ptr [rcx + 0x80 [all...] |
pr37425.s | 4 var_xdata = %rcx 6 // CHECK: xorq %rcx, %rcx 14 .elseif var_xdata == %rcx
|
avx512vl_vaes-encoding.s | 19 // CHECK: vaesenc (%rcx), %xmm2, %xmm21 21 vaesenc (%rcx), %xmm2, %xmm21 31 // CHECK: vaesenc 268435456(%rcx,%r14,8), %xmm2, %xmm21 33 vaesenc 268435456(%rcx,%r14,8), %xmm2, %xmm21 35 // CHECK: vaesenc -536870912(%rcx,%r14,8), %xmm2, %xmm21 37 vaesenc -536870912(%rcx,%r14,8), %xmm2, %xmm21 39 // CHECK: vaesenc -536870910(%rcx,%r14,8), %xmm2, %xmm21 41 vaesenc -536870910(%rcx,%r14,8), %xmm2, %xmm21 43 // CHECK: vaesenclast (%rcx), %xmm2, %xmm21 45 vaesenclast (%rcx), %xmm2, %xmm2 [all...] |
avx512vlvpclmul.s | 7 // CHECK: vpclmulqdq $1, (%rcx), %xmm22, %xmm1 9 vpclmulqdq $1, (%rcx), %xmm22, %xmm1 19 // CHECK: vpclmulqdq $1, 268435456(%rcx,%r14,8), %xmm22, %xmm1 21 vpclmulqdq $1, 268435456(%rcx,%r14,8), %xmm22, %xmm1 23 // CHECK: vpclmulqdq $1, -536870912(%rcx,%r14,8), %xmm22, %xmm1 25 vpclmulqdq $1, -536870912(%rcx,%r14,8), %xmm22, %xmm1 27 // CHECK: vpclmulqdq $1, -536870910(%rcx,%r14,8), %xmm22, %xmm1 29 vpclmulqdq $1, -536870910(%rcx,%r14,8), %xmm22, %xmm1 35 // CHECK: vpclmulqdq $1, (%rcx), %ymm22, %ymm1 37 vpclmulqdq $1, (%rcx), %ymm22, %ymm [all...] |
avx512vl_gfni-encoding.s | 19 // CHECK: vgf2p8affineinvqb $7, (%rcx), %xmm20, %xmm1 21 vgf2p8affineinvqb $7, (%rcx), %xmm20, %xmm1 31 // CHECK: vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm20, %xmm1 33 vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm20, %xmm1 35 // CHECK: vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm20, %xmm1 37 vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm20, %xmm1 39 // CHECK: vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm20, %xmm1 41 vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm20, %xmm1 43 // CHECK: vgf2p8affineqb $7, (%rcx), %xmm20, %xmm1 45 vgf2p8affineqb $7, (%rcx), %xmm20, %xmm [all...] |
gfni-encoding.s | 11 // CHECK: gf2p8affineinvqb $7, (%rcx), %xmm1 13 gf2p8affineinvqb $7, (%rcx), %xmm1 23 // CHECK: gf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm1 25 gf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm1 27 // CHECK: gf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm1 29 gf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm1 31 // CHECK: gf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm1 33 gf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm1 35 // CHECK: gf2p8affineqb $7, (%rcx), %xmm1 37 gf2p8affineqb $7, (%rcx), %xmm [all...] |
intel-syntax-x86-avx512vbmi_vl.s | 3 // CHECK: vpmultishiftqb xmm1, xmm2, qword ptr [rcx]{1to2} 5 vpmultishiftqb xmm1, xmm2, qword ptr [rcx]{1to2} 7 // CHECK: vpmultishiftqb xmm1 {k1}, xmm2, qword ptr [rcx]{1to2} 9 vpmultishiftqb xmm1 {k1}, xmm2, qword ptr [rcx]{1to2} 11 // CHECK: vpmultishiftqb xmm1 {k1} {z}, xmm2, qword ptr [rcx]{1to2} 13 vpmultishiftqb xmm1 {k1} {z}, xmm2, qword ptr [rcx]{1to2} 15 // CHECK: vpmultishiftqb ymm1, ymm2, qword ptr [rcx]{1to4} 17 vpmultishiftqb ymm1, ymm2, qword ptr [rcx]{1to4} 19 // CHECK: vpmultishiftqb ymm1 {k1}, ymm2, qword ptr [rcx]{1to4} 21 vpmultishiftqb ymm1 {k1}, ymm2, qword ptr [rcx]{1to4 [all...] |
avx512vl_bitalg-encoding.s | 19 // CHECK: vpopcntb (%rcx), %xmm1 21 vpopcntb (%rcx), %xmm1 31 // CHECK: vpopcntb 268435456(%rcx,%r14,8), %xmm1 33 vpopcntb 268435456(%rcx,%r14,8), %xmm1 35 // CHECK: vpopcntb -536870912(%rcx,%r14,8), %xmm1 37 vpopcntb -536870912(%rcx,%r14,8), %xmm1 39 // CHECK: vpopcntb -536870910(%rcx,%r14,8), %xmm1 41 vpopcntb -536870910(%rcx,%r14,8), %xmm1 43 // CHECK: vpopcntw (%rcx), %xmm1 45 vpopcntw (%rcx), %xmm [all...] |
avx512gfni-encoding.s | 19 // CHECK: vgf2p8affineinvqb $7, (%rcx), %zmm20, %zmm1 21 vgf2p8affineinvqb $7, (%rcx), %zmm20, %zmm1 31 // CHECK: vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %zmm20, %zmm1 33 vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %zmm20, %zmm1 35 // CHECK: vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %zmm20, %zmm1 37 vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %zmm20, %zmm1 39 // CHECK: vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %zmm20, %zmm1 41 vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %zmm20, %zmm1 43 // CHECK: vgf2p8affineqb $7, (%rcx), %zmm20, %zmm1 45 vgf2p8affineqb $7, (%rcx), %zmm20, %zmm [all...] |
avx512vaes-encoding.s | 19 // CHECK: vaesenc (%rcx), %zmm2, %zmm21 21 vaesenc (%rcx), %zmm2, %zmm21 31 // CHECK: vaesenc 268435456(%rcx,%r14,8), %zmm2, %zmm21 33 vaesenc 268435456(%rcx,%r14,8), %zmm2, %zmm21 35 // CHECK: vaesenc -536870912(%rcx,%r14,8), %zmm2, %zmm21 37 vaesenc -536870912(%rcx,%r14,8), %zmm2, %zmm21 39 // CHECK: vaesenc -536870910(%rcx,%r14,8), %zmm2, %zmm21 41 vaesenc -536870910(%rcx,%r14,8), %zmm2, %zmm21 43 // CHECK: vaesenclast (%rcx), %zmm2, %zmm21 45 vaesenclast (%rcx), %zmm2, %zmm2 [all...] |
avx512vbmi2-encoding.s | 35 // CHECK: vpexpandb (%rcx), %zmm1 37 vpexpandb (%rcx), %zmm1 47 // CHECK: vpexpandb 268435456(%rcx,%r14,8), %zmm1 49 vpexpandb 268435456(%rcx,%r14,8), %zmm1 51 // CHECK: vpexpandb -536870912(%rcx,%r14,8), %zmm1 53 vpexpandb -536870912(%rcx,%r14,8), %zmm1 55 // CHECK: vpexpandb -536870910(%rcx,%r14,8), %zmm1 57 vpexpandb -536870910(%rcx,%r14,8), %zmm1 59 // CHECK: vpexpandw (%rcx), %zmm1 61 vpexpandw (%rcx), %zmm [all...] |
avx512vnni-encoding.s | 67 // CHECK: vpdpbusd (%rcx), %zmm2, %zmm1 69 vpdpbusd (%rcx), %zmm2, %zmm1 79 // CHECK: vpdpbusd 268435456(%rcx,%r14,8), %zmm2, %zmm1 81 vpdpbusd 268435456(%rcx,%r14,8), %zmm2, %zmm1 83 // CHECK: vpdpbusd -536870912(%rcx,%r14,8), %zmm2, %zmm1 85 vpdpbusd -536870912(%rcx,%r14,8), %zmm2, %zmm1 87 // CHECK: vpdpbusd -536870910(%rcx,%r14,8), %zmm2, %zmm1 89 vpdpbusd -536870910(%rcx,%r14,8), %zmm2, %zmm1 91 // CHECK: vpdpbusds (%rcx), %zmm2, %zmm1 93 vpdpbusds (%rcx), %zmm2, %zmm [all...] |
avx512vpclmul.s | 7 // CHECK: vpclmulqdq $1, (%rcx), %zmm22, %zmm1 9 vpclmulqdq $1, (%rcx), %zmm22, %zmm1 19 // CHECK: vpclmulqdq $1, 268435456(%rcx,%r14,8), %zmm22, %zmm1 21 vpclmulqdq $1, 268435456(%rcx,%r14,8), %zmm22, %zmm1 23 // CHECK: vpclmulqdq $1, -536870912(%rcx,%r14,8), %zmm22, %zmm1 25 vpclmulqdq $1, -536870912(%rcx,%r14,8), %zmm22, %zmm1 27 // CHECK: vpclmulqdq $1, -536870910(%rcx,%r14,8), %zmm22, %zmm1 29 vpclmulqdq $1, -536870910(%rcx,%r14,8), %zmm22, %zmm1
|
avx_vaes-encoding.s | 19 // CHECK: vaesenc (%rcx), %ymm2, %ymm1 21 vaesenc (%rcx), %ymm2, %ymm1 31 // CHECK: vaesenc 268435456(%rcx,%r14,8), %ymm2, %ymm1 33 vaesenc 268435456(%rcx,%r14,8), %ymm2, %ymm1 35 // CHECK: vaesenc -536870912(%rcx,%r14,8), %ymm2, %ymm1 37 vaesenc -536870912(%rcx,%r14,8), %ymm2, %ymm1 39 // CHECK: vaesenc -536870910(%rcx,%r14,8), %ymm2, %ymm1 41 vaesenc -536870910(%rcx,%r14,8), %ymm2, %ymm1 43 // CHECK: vaesenclast (%rcx), %ymm2, %ymm1 45 vaesenclast (%rcx), %ymm2, %ymm [all...] |
vpclmulqdq.s | 7 // CHECK: vpclmulqdq $1, (%rcx), %ymm2, %ymm1 9 vpclmulqdq $1, (%rcx), %ymm2, %ymm1 19 // CHECK: vpclmulqdq $1, 268435456(%rcx,%r14,8), %ymm2, %ymm1 21 vpclmulqdq $1, 268435456(%rcx,%r14,8), %ymm2, %ymm1 23 // CHECK: vpclmulqdq $1, -536870912(%rcx,%r14,8), %ymm2, %ymm1 25 vpclmulqdq $1, -536870912(%rcx,%r14,8), %ymm2, %ymm1 27 // CHECK: vpclmulqdq $1, -536870910(%rcx,%r14,8), %ymm2, %ymm1 29 vpclmulqdq $1, -536870910(%rcx,%r14,8), %ymm2, %ymm1
|
x86_64-fma4-encoding.s | 4 // CHECK: vfmaddss (%rcx), %xmm1, %xmm0, %xmm0 6 vfmaddss (%rcx), %xmm1, %xmm0, %xmm0 8 // CHECK: vfmaddss %xmm1, (%rcx), %xmm0, %xmm0 10 vfmaddss %xmm1, (%rcx),%xmm0, %xmm0 16 // CHECK: vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0 18 vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0 20 // CHECK: vfmaddsd %xmm1, (%rcx), %xmm0, %xmm0 22 vfmaddsd %xmm1, (%rcx),%xmm0, %xmm0 32 // CHECK: vfmaddps (%rcx), %xmm1, %xmm0, %xmm0 34 vfmaddps (%rcx), %xmm1, %xmm0, %xmm [all...] |
avx512vbmi2vl-encoding.s | 35 // CHECK: vpexpandb (%rcx), %xmm1 37 vpexpandb (%rcx), %xmm1 47 // CHECK: vpexpandb 268435456(%rcx,%r14,8), %xmm1 49 vpexpandb 268435456(%rcx,%r14,8), %xmm1 51 // CHECK: vpexpandb -536870912(%rcx,%r14,8), %xmm1 53 vpexpandb -536870912(%rcx,%r14,8), %xmm1 55 // CHECK: vpexpandb -536870910(%rcx,%r14,8), %xmm1 57 vpexpandb -536870910(%rcx,%r14,8), %xmm1 59 // CHECK: vpexpandw (%rcx), %xmm1 61 vpexpandw (%rcx), %xmm [all...] |
avx512vl_vnni-encoding.s | 67 // CHECK: vpdpbusd (%rcx), %xmm2, %xmm1 69 vpdpbusd (%rcx), %xmm2, %xmm1 79 // CHECK: vpdpbusd 268435456(%rcx,%r14,8), %xmm2, %xmm1 81 vpdpbusd 268435456(%rcx,%r14,8), %xmm2, %xmm1 83 // CHECK: vpdpbusd -536870912(%rcx,%r14,8), %xmm2, %xmm1 85 vpdpbusd -536870912(%rcx,%r14,8), %xmm2, %xmm1 87 // CHECK: vpdpbusd -536870910(%rcx,%r14,8), %xmm2, %xmm1 89 vpdpbusd -536870910(%rcx,%r14,8), %xmm2, %xmm1 91 // CHECK: vpdpbusds (%rcx), %xmm2, %xmm1 93 vpdpbusds (%rcx), %xmm2, %xmm [all...] |
/device/linaro/bootloader/edk2/MdePkg/Library/BaseLib/X64/ |
SetJump.S | 24 push %rcx
28 pop %rcx
30 mov %rbx,(%rcx)
31 mov %rsp,0x8(%rcx)
32 mov %rbp,0x10(%rcx)
33 mov %rdi,0x18(%rcx)
34 mov %rsi,0x20(%rcx)
35 mov %r12,0x28(%rcx)
36 mov %r13,0x30(%rcx)
37 mov %r14,0x38(%rcx)
[all...] |
/external/llvm/test/MC/X86/ |
x86_64-fma4-encoding.s | 4 // CHECK: vfmaddss (%rcx), %xmm1, %xmm0, %xmm0 6 vfmaddss (%rcx), %xmm1, %xmm0, %xmm0 8 // CHECK: vfmaddss %xmm1, (%rcx), %xmm0, %xmm0 10 vfmaddss %xmm1, (%rcx),%xmm0, %xmm0 16 // CHECK: vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0 18 vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0 20 // CHECK: vfmaddsd %xmm1, (%rcx), %xmm0, %xmm0 22 vfmaddsd %xmm1, (%rcx),%xmm0, %xmm0 32 // CHECK: vfmaddps (%rcx), %xmm1, %xmm0, %xmm0 34 vfmaddps (%rcx), %xmm1, %xmm0, %xmm [all...] |
/external/llvm/test/MC/MachO/ |
x86_64-reloc-arithmetic.s | 8 leaq _bar(%rip), %rcx
|
/external/swiftshader/third_party/LLVM/test/MC/MachO/ |
x86_64-reloc-arithmetic.s | 8 leaq _bar(%rip), %rcx
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/MachO/ |
x86_64-reloc-arithmetic.s | 8 leaq _bar(%rip), %rcx
|