HomeSort by relevance Sort by last modified time
    Searched refs:rcx (Results 1 - 25 of 830) sorted by null

1 2 3 4 5 6 7 8 91011>>

  /external/compiler-rt/lib/builtins/x86_64/
chkstk2.S 16 mov %rcx,%rax // x64 _alloca is a normal function with parameter in rcx
19 push %rcx
21 lea 16(%rsp),%rcx // rsp before calling this routine -> rcx
24 sub $0x1000,%rcx
25 test %rcx,(%rcx)
30 sub %rax,%rcx
31 test %rcx,(%rcx
    [all...]
chkstk.S 20 push %rcx
23 lea 24(%rsp),%rcx
26 sub $0x1000,%rcx
27 test %rcx,(%rcx)
32 sub %rax,%rcx
33 test %rcx,(%rcx)
35 pop %rcx
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/X86/
intel-syntax-x86-avx512dq_vl.s 3 // CHECK: vcvtps2qq xmm2 {k2} {z}, qword ptr [rcx + 128]
5 vcvtps2qq xmm2 {k2} {z}, qword ptr [rcx + 0x80]
7 // CHECK: vcvtps2qq xmm2 {k2}, qword ptr [rcx + 128]
9 vcvtps2qq xmm2 {k2}, qword ptr [rcx + 0x80]
11 // CHECK: vcvtps2qq xmm2, qword ptr [rcx + 128]
13 vcvtps2qq xmm2, qword ptr [rcx + 0x80]
15 // CHECK: vcvttps2qq xmm1 {k2} {z}, qword ptr [rcx + 128]
17 vcvttps2qq xmm1 {k2} {z}, qword ptr [rcx + 0x80]
19 // CHECK: vcvttps2qq xmm1 {k2}, qword ptr [rcx + 128]
21 vcvttps2qq xmm1 {k2}, qword ptr [rcx + 0x80
    [all...]
pr37425.s 4 var_xdata = %rcx
6 // CHECK: xorq %rcx, %rcx
14 .elseif var_xdata == %rcx
avx512vl_vaes-encoding.s 19 // CHECK: vaesenc (%rcx), %xmm2, %xmm21
21 vaesenc (%rcx), %xmm2, %xmm21
31 // CHECK: vaesenc 268435456(%rcx,%r14,8), %xmm2, %xmm21
33 vaesenc 268435456(%rcx,%r14,8), %xmm2, %xmm21
35 // CHECK: vaesenc -536870912(%rcx,%r14,8), %xmm2, %xmm21
37 vaesenc -536870912(%rcx,%r14,8), %xmm2, %xmm21
39 // CHECK: vaesenc -536870910(%rcx,%r14,8), %xmm2, %xmm21
41 vaesenc -536870910(%rcx,%r14,8), %xmm2, %xmm21
43 // CHECK: vaesenclast (%rcx), %xmm2, %xmm21
45 vaesenclast (%rcx), %xmm2, %xmm2
    [all...]
avx512vlvpclmul.s 7 // CHECK: vpclmulqdq $1, (%rcx), %xmm22, %xmm1
9 vpclmulqdq $1, (%rcx), %xmm22, %xmm1
19 // CHECK: vpclmulqdq $1, 268435456(%rcx,%r14,8), %xmm22, %xmm1
21 vpclmulqdq $1, 268435456(%rcx,%r14,8), %xmm22, %xmm1
23 // CHECK: vpclmulqdq $1, -536870912(%rcx,%r14,8), %xmm22, %xmm1
25 vpclmulqdq $1, -536870912(%rcx,%r14,8), %xmm22, %xmm1
27 // CHECK: vpclmulqdq $1, -536870910(%rcx,%r14,8), %xmm22, %xmm1
29 vpclmulqdq $1, -536870910(%rcx,%r14,8), %xmm22, %xmm1
35 // CHECK: vpclmulqdq $1, (%rcx), %ymm22, %ymm1
37 vpclmulqdq $1, (%rcx), %ymm22, %ymm
    [all...]
avx512vl_gfni-encoding.s 19 // CHECK: vgf2p8affineinvqb $7, (%rcx), %xmm20, %xmm1
21 vgf2p8affineinvqb $7, (%rcx), %xmm20, %xmm1
31 // CHECK: vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm20, %xmm1
33 vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm20, %xmm1
35 // CHECK: vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm20, %xmm1
37 vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm20, %xmm1
39 // CHECK: vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm20, %xmm1
41 vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm20, %xmm1
43 // CHECK: vgf2p8affineqb $7, (%rcx), %xmm20, %xmm1
45 vgf2p8affineqb $7, (%rcx), %xmm20, %xmm
    [all...]
gfni-encoding.s 11 // CHECK: gf2p8affineinvqb $7, (%rcx), %xmm1
13 gf2p8affineinvqb $7, (%rcx), %xmm1
23 // CHECK: gf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm1
25 gf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %xmm1
27 // CHECK: gf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm1
29 gf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %xmm1
31 // CHECK: gf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm1
33 gf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %xmm1
35 // CHECK: gf2p8affineqb $7, (%rcx), %xmm1
37 gf2p8affineqb $7, (%rcx), %xmm
    [all...]
intel-syntax-x86-avx512vbmi_vl.s 3 // CHECK: vpmultishiftqb xmm1, xmm2, qword ptr [rcx]{1to2}
5 vpmultishiftqb xmm1, xmm2, qword ptr [rcx]{1to2}
7 // CHECK: vpmultishiftqb xmm1 {k1}, xmm2, qword ptr [rcx]{1to2}
9 vpmultishiftqb xmm1 {k1}, xmm2, qword ptr [rcx]{1to2}
11 // CHECK: vpmultishiftqb xmm1 {k1} {z}, xmm2, qword ptr [rcx]{1to2}
13 vpmultishiftqb xmm1 {k1} {z}, xmm2, qword ptr [rcx]{1to2}
15 // CHECK: vpmultishiftqb ymm1, ymm2, qword ptr [rcx]{1to4}
17 vpmultishiftqb ymm1, ymm2, qword ptr [rcx]{1to4}
19 // CHECK: vpmultishiftqb ymm1 {k1}, ymm2, qword ptr [rcx]{1to4}
21 vpmultishiftqb ymm1 {k1}, ymm2, qword ptr [rcx]{1to4
    [all...]
avx512vl_bitalg-encoding.s 19 // CHECK: vpopcntb (%rcx), %xmm1
21 vpopcntb (%rcx), %xmm1
31 // CHECK: vpopcntb 268435456(%rcx,%r14,8), %xmm1
33 vpopcntb 268435456(%rcx,%r14,8), %xmm1
35 // CHECK: vpopcntb -536870912(%rcx,%r14,8), %xmm1
37 vpopcntb -536870912(%rcx,%r14,8), %xmm1
39 // CHECK: vpopcntb -536870910(%rcx,%r14,8), %xmm1
41 vpopcntb -536870910(%rcx,%r14,8), %xmm1
43 // CHECK: vpopcntw (%rcx), %xmm1
45 vpopcntw (%rcx), %xmm
    [all...]
avx512gfni-encoding.s 19 // CHECK: vgf2p8affineinvqb $7, (%rcx), %zmm20, %zmm1
21 vgf2p8affineinvqb $7, (%rcx), %zmm20, %zmm1
31 // CHECK: vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %zmm20, %zmm1
33 vgf2p8affineinvqb $7, 268435456(%rcx,%r14,8), %zmm20, %zmm1
35 // CHECK: vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %zmm20, %zmm1
37 vgf2p8affineinvqb $7, -536870912(%rcx,%r14,8), %zmm20, %zmm1
39 // CHECK: vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %zmm20, %zmm1
41 vgf2p8affineinvqb $7, -536870910(%rcx,%r14,8), %zmm20, %zmm1
43 // CHECK: vgf2p8affineqb $7, (%rcx), %zmm20, %zmm1
45 vgf2p8affineqb $7, (%rcx), %zmm20, %zmm
    [all...]
avx512vaes-encoding.s 19 // CHECK: vaesenc (%rcx), %zmm2, %zmm21
21 vaesenc (%rcx), %zmm2, %zmm21
31 // CHECK: vaesenc 268435456(%rcx,%r14,8), %zmm2, %zmm21
33 vaesenc 268435456(%rcx,%r14,8), %zmm2, %zmm21
35 // CHECK: vaesenc -536870912(%rcx,%r14,8), %zmm2, %zmm21
37 vaesenc -536870912(%rcx,%r14,8), %zmm2, %zmm21
39 // CHECK: vaesenc -536870910(%rcx,%r14,8), %zmm2, %zmm21
41 vaesenc -536870910(%rcx,%r14,8), %zmm2, %zmm21
43 // CHECK: vaesenclast (%rcx), %zmm2, %zmm21
45 vaesenclast (%rcx), %zmm2, %zmm2
    [all...]
avx512vbmi2-encoding.s 35 // CHECK: vpexpandb (%rcx), %zmm1
37 vpexpandb (%rcx), %zmm1
47 // CHECK: vpexpandb 268435456(%rcx,%r14,8), %zmm1
49 vpexpandb 268435456(%rcx,%r14,8), %zmm1
51 // CHECK: vpexpandb -536870912(%rcx,%r14,8), %zmm1
53 vpexpandb -536870912(%rcx,%r14,8), %zmm1
55 // CHECK: vpexpandb -536870910(%rcx,%r14,8), %zmm1
57 vpexpandb -536870910(%rcx,%r14,8), %zmm1
59 // CHECK: vpexpandw (%rcx), %zmm1
61 vpexpandw (%rcx), %zmm
    [all...]
avx512vnni-encoding.s 67 // CHECK: vpdpbusd (%rcx), %zmm2, %zmm1
69 vpdpbusd (%rcx), %zmm2, %zmm1
79 // CHECK: vpdpbusd 268435456(%rcx,%r14,8), %zmm2, %zmm1
81 vpdpbusd 268435456(%rcx,%r14,8), %zmm2, %zmm1
83 // CHECK: vpdpbusd -536870912(%rcx,%r14,8), %zmm2, %zmm1
85 vpdpbusd -536870912(%rcx,%r14,8), %zmm2, %zmm1
87 // CHECK: vpdpbusd -536870910(%rcx,%r14,8), %zmm2, %zmm1
89 vpdpbusd -536870910(%rcx,%r14,8), %zmm2, %zmm1
91 // CHECK: vpdpbusds (%rcx), %zmm2, %zmm1
93 vpdpbusds (%rcx), %zmm2, %zmm
    [all...]
avx512vpclmul.s 7 // CHECK: vpclmulqdq $1, (%rcx), %zmm22, %zmm1
9 vpclmulqdq $1, (%rcx), %zmm22, %zmm1
19 // CHECK: vpclmulqdq $1, 268435456(%rcx,%r14,8), %zmm22, %zmm1
21 vpclmulqdq $1, 268435456(%rcx,%r14,8), %zmm22, %zmm1
23 // CHECK: vpclmulqdq $1, -536870912(%rcx,%r14,8), %zmm22, %zmm1
25 vpclmulqdq $1, -536870912(%rcx,%r14,8), %zmm22, %zmm1
27 // CHECK: vpclmulqdq $1, -536870910(%rcx,%r14,8), %zmm22, %zmm1
29 vpclmulqdq $1, -536870910(%rcx,%r14,8), %zmm22, %zmm1
avx_vaes-encoding.s 19 // CHECK: vaesenc (%rcx), %ymm2, %ymm1
21 vaesenc (%rcx), %ymm2, %ymm1
31 // CHECK: vaesenc 268435456(%rcx,%r14,8), %ymm2, %ymm1
33 vaesenc 268435456(%rcx,%r14,8), %ymm2, %ymm1
35 // CHECK: vaesenc -536870912(%rcx,%r14,8), %ymm2, %ymm1
37 vaesenc -536870912(%rcx,%r14,8), %ymm2, %ymm1
39 // CHECK: vaesenc -536870910(%rcx,%r14,8), %ymm2, %ymm1
41 vaesenc -536870910(%rcx,%r14,8), %ymm2, %ymm1
43 // CHECK: vaesenclast (%rcx), %ymm2, %ymm1
45 vaesenclast (%rcx), %ymm2, %ymm
    [all...]
vpclmulqdq.s 7 // CHECK: vpclmulqdq $1, (%rcx), %ymm2, %ymm1
9 vpclmulqdq $1, (%rcx), %ymm2, %ymm1
19 // CHECK: vpclmulqdq $1, 268435456(%rcx,%r14,8), %ymm2, %ymm1
21 vpclmulqdq $1, 268435456(%rcx,%r14,8), %ymm2, %ymm1
23 // CHECK: vpclmulqdq $1, -536870912(%rcx,%r14,8), %ymm2, %ymm1
25 vpclmulqdq $1, -536870912(%rcx,%r14,8), %ymm2, %ymm1
27 // CHECK: vpclmulqdq $1, -536870910(%rcx,%r14,8), %ymm2, %ymm1
29 vpclmulqdq $1, -536870910(%rcx,%r14,8), %ymm2, %ymm1
x86_64-fma4-encoding.s 4 // CHECK: vfmaddss (%rcx), %xmm1, %xmm0, %xmm0
6 vfmaddss (%rcx), %xmm1, %xmm0, %xmm0
8 // CHECK: vfmaddss %xmm1, (%rcx), %xmm0, %xmm0
10 vfmaddss %xmm1, (%rcx),%xmm0, %xmm0
16 // CHECK: vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0
18 vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0
20 // CHECK: vfmaddsd %xmm1, (%rcx), %xmm0, %xmm0
22 vfmaddsd %xmm1, (%rcx),%xmm0, %xmm0
32 // CHECK: vfmaddps (%rcx), %xmm1, %xmm0, %xmm0
34 vfmaddps (%rcx), %xmm1, %xmm0, %xmm
    [all...]
avx512vbmi2vl-encoding.s 35 // CHECK: vpexpandb (%rcx), %xmm1
37 vpexpandb (%rcx), %xmm1
47 // CHECK: vpexpandb 268435456(%rcx,%r14,8), %xmm1
49 vpexpandb 268435456(%rcx,%r14,8), %xmm1
51 // CHECK: vpexpandb -536870912(%rcx,%r14,8), %xmm1
53 vpexpandb -536870912(%rcx,%r14,8), %xmm1
55 // CHECK: vpexpandb -536870910(%rcx,%r14,8), %xmm1
57 vpexpandb -536870910(%rcx,%r14,8), %xmm1
59 // CHECK: vpexpandw (%rcx), %xmm1
61 vpexpandw (%rcx), %xmm
    [all...]
avx512vl_vnni-encoding.s 67 // CHECK: vpdpbusd (%rcx), %xmm2, %xmm1
69 vpdpbusd (%rcx), %xmm2, %xmm1
79 // CHECK: vpdpbusd 268435456(%rcx,%r14,8), %xmm2, %xmm1
81 vpdpbusd 268435456(%rcx,%r14,8), %xmm2, %xmm1
83 // CHECK: vpdpbusd -536870912(%rcx,%r14,8), %xmm2, %xmm1
85 vpdpbusd -536870912(%rcx,%r14,8), %xmm2, %xmm1
87 // CHECK: vpdpbusd -536870910(%rcx,%r14,8), %xmm2, %xmm1
89 vpdpbusd -536870910(%rcx,%r14,8), %xmm2, %xmm1
91 // CHECK: vpdpbusds (%rcx), %xmm2, %xmm1
93 vpdpbusds (%rcx), %xmm2, %xmm
    [all...]
  /device/linaro/bootloader/edk2/MdePkg/Library/BaseLib/X64/
SetJump.S 24 push %rcx
28 pop %rcx
30 mov %rbx,(%rcx)
31 mov %rsp,0x8(%rcx)
32 mov %rbp,0x10(%rcx)
33 mov %rdi,0x18(%rcx)
34 mov %rsi,0x20(%rcx)
35 mov %r12,0x28(%rcx)
36 mov %r13,0x30(%rcx)
37 mov %r14,0x38(%rcx)
    [all...]
  /external/llvm/test/MC/X86/
x86_64-fma4-encoding.s 4 // CHECK: vfmaddss (%rcx), %xmm1, %xmm0, %xmm0
6 vfmaddss (%rcx), %xmm1, %xmm0, %xmm0
8 // CHECK: vfmaddss %xmm1, (%rcx), %xmm0, %xmm0
10 vfmaddss %xmm1, (%rcx),%xmm0, %xmm0
16 // CHECK: vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0
18 vfmaddsd (%rcx), %xmm1, %xmm0, %xmm0
20 // CHECK: vfmaddsd %xmm1, (%rcx), %xmm0, %xmm0
22 vfmaddsd %xmm1, (%rcx),%xmm0, %xmm0
32 // CHECK: vfmaddps (%rcx), %xmm1, %xmm0, %xmm0
34 vfmaddps (%rcx), %xmm1, %xmm0, %xmm
    [all...]
  /external/llvm/test/MC/MachO/
x86_64-reloc-arithmetic.s 8 leaq _bar(%rip), %rcx
  /external/swiftshader/third_party/LLVM/test/MC/MachO/
x86_64-reloc-arithmetic.s 8 leaq _bar(%rip), %rcx
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/MachO/
x86_64-reloc-arithmetic.s 8 leaq _bar(%rip), %rcx

Completed in 2406 milliseconds

1 2 3 4 5 6 7 8 91011>>