HomeSort by relevance Sort by last modified time
    Searched refs:xmm2 (Results 1 - 25 of 475) sorted by null

1 2 3 4 5 6 7 8 91011>>

  /toolchain/binutils/binutils-2.27/gas/testsuite/gas/i386/
inval-avx.s 4 vcvtpd2dq (%ecx),%xmm2
5 vcvtpd2ps (%ecx),%xmm2
6 vcvttpd2dq (%ecx),%xmm2
9 vcvtpd2dq xmm2,[ecx]
10 vcvtpd2ps xmm2,[ecx]
11 vcvttpd2dq xmm2,[ecx]
x86-64-inval-avx.s 4 vcvtpd2dq (%rcx),%xmm2
5 vcvtpd2ps (%rcx),%xmm2
6 vcvttpd2dq (%rcx),%xmm2
9 vcvtpd2dq xmm2,[rcx]
10 vcvtpd2ps xmm2,[rcx]
11 vcvttpd2dq xmm2,[rcx]
fma-scalar.s 8 vfmadd132sd %xmm4,%xmm6,%xmm2
9 vfmadd132sd (%ecx),%xmm6,%xmm2
10 vfmadd213sd %xmm4,%xmm6,%xmm2
11 vfmadd213sd (%ecx),%xmm6,%xmm2
12 vfmadd231sd %xmm4,%xmm6,%xmm2
13 vfmadd231sd (%ecx),%xmm6,%xmm2
14 vfmsub132sd %xmm4,%xmm6,%xmm2
15 vfmsub132sd (%ecx),%xmm6,%xmm2
16 vfmsub213sd %xmm4,%xmm6,%xmm2
17 vfmsub213sd (%ecx),%xmm6,%xmm2
    [all...]
x86-64-fma-scalar.s 8 vfmadd132sd %xmm4,%xmm6,%xmm2
9 vfmadd132sd (%rcx),%xmm6,%xmm2
10 vfmadd213sd %xmm4,%xmm6,%xmm2
11 vfmadd213sd (%rcx),%xmm6,%xmm2
12 vfmadd231sd %xmm4,%xmm6,%xmm2
13 vfmadd231sd (%rcx),%xmm6,%xmm2
14 vfmsub132sd %xmm4,%xmm6,%xmm2
15 vfmsub132sd (%rcx),%xmm6,%xmm2
16 vfmsub213sd %xmm4,%xmm6,%xmm2
17 vfmsub213sd (%rcx),%xmm6,%xmm2
    [all...]
ssemmx2.s 5 pavgw %xmm3,%xmm2
9 pinsrw $0x2,%edx,%xmm2
12 pmaxub %xmm2,%xmm2
23 pshufd $0x1,%xmm2,%xmm3
25 pshufhw $0x1,%xmm2,%xmm3
27 pshuflw $0x1,%xmm2,%xmm3
29 movntdq %xmm2,(%eax)
30 punpcklbw 0x90909090(%eax),%xmm2
31 punpcklwd 0x90909090(%eax),%xmm2
    [all...]
avx-scalar.s 31 vcmpsd $7,%xmm4,%xmm6,%xmm2
32 vcmpsd $7,(%ecx),%xmm6,%xmm2
33 vroundsd $7,%xmm4,%xmm6,%xmm2
34 vroundsd $7,(%ecx),%xmm6,%xmm2
37 vaddsd %xmm4,%xmm6,%xmm2
38 vaddsd (%ecx),%xmm6,%xmm2
39 vcvtsd2ss %xmm4,%xmm6,%xmm2
40 vcvtsd2ss (%ecx),%xmm6,%xmm2
41 vdivsd %xmm4,%xmm6,%xmm2
42 vdivsd (%ecx),%xmm6,%xmm2
    [all...]
inval-avx.l 14 [ ]*4[ ]+vcvtpd2dq \(%ecx\),%xmm2
15 [ ]*5[ ]+vcvtpd2ps \(%ecx\),%xmm2
16 [ ]*6[ ]+vcvttpd2dq \(%ecx\),%xmm2
19 [ ]*9[ ]+vcvtpd2dq xmm2,\[ecx\]
20 [ ]*10[ ]+vcvtpd2ps xmm2,\[ecx\]
21 [ ]*11[ ]+vcvttpd2dq xmm2,\[ecx\]
x86-64-inval-avx.l 14 [ ]*4[ ]+vcvtpd2dq \(%rcx\),%xmm2
15 [ ]*5[ ]+vcvtpd2ps \(%rcx\),%xmm2
16 [ ]*6[ ]+vcvttpd2dq \(%rcx\),%xmm2
19 [ ]*9[ ]+vcvtpd2dq xmm2,\[rcx\]
20 [ ]*10[ ]+vcvtpd2ps xmm2,\[rcx\]
21 [ ]*11[ ]+vcvttpd2dq xmm2,\[rcx\]
x86-64-fma4.s 17 vfmaddpd %xmm4,%xmm6,%xmm2,%xmm7
18 vfmaddpd (%rcx),%xmm6,%xmm2,%xmm7
19 vfmaddpd %xmm4,(%rcx),%xmm2,%xmm7
20 vfmaddps %xmm4,%xmm6,%xmm2,%xmm7
21 vfmaddps (%rcx),%xmm6,%xmm2,%xmm7
22 vfmaddps %xmm4,(%rcx),%xmm2,%xmm7
23 vfmaddsubpd %xmm4,%xmm6,%xmm2,%xmm7
24 vfmaddsubpd (%rcx),%xmm6,%xmm2,%xmm7
25 vfmaddsubpd %xmm4,(%rcx),%xmm2,%xmm7
26 vfmaddsubps %xmm4,%xmm6,%xmm2,%xmm
    [all...]
x86-64-avx-scalar.s 47 vcmpsd $7,%xmm4,%xmm6,%xmm2
48 vcmpsd $7,(%rcx),%xmm6,%xmm2
49 vroundsd $7,%xmm4,%xmm6,%xmm2
50 vroundsd $7,(%rcx),%xmm6,%xmm2
53 vaddsd %xmm4,%xmm6,%xmm2
54 vaddsd (%rcx),%xmm6,%xmm2
55 vcvtsd2ss %xmm4,%xmm6,%xmm2
56 vcvtsd2ss (%rcx),%xmm6,%xmm2
57 vdivsd %xmm4,%xmm6,%xmm2
58 vdivsd (%rcx),%xmm6,%xmm2
    [all...]
fma4.s 25 vfmaddpd %xmm4,%xmm6,%xmm2,%xmm7
26 vfmaddpd (%ecx),%xmm6,%xmm2,%xmm7
27 vfmaddpd %xmm4,(%ecx),%xmm2,%xmm7
28 vfmaddps %xmm4,%xmm6,%xmm2,%xmm7
29 vfmaddps (%ecx),%xmm6,%xmm2,%xmm7
30 vfmaddps %xmm4,(%ecx),%xmm2,%xmm7
31 vfmaddsubpd %xmm4,%xmm6,%xmm2,%xmm7
32 vfmaddsubpd (%ecx),%xmm6,%xmm2,%xmm7
33 vfmaddsubpd %xmm4,(%ecx),%xmm2,%xmm7
34 vfmaddsubps %xmm4,%xmm6,%xmm2,%xmm
    [all...]
arch-avx-1.s 4 vaesenc (%ecx),%xmm0,%xmm2
6 vpclmulqdq $8,%xmm4,%xmm6,%xmm2
sse-check-none.s 8 addps %xmm2,%xmm1
11 addpd %xmm2,%xmm1
14 addsubpd %xmm2,%xmm1
17 phaddw %xmm2,%xmm1
sse-check.s 7 addps %xmm2,%xmm1
10 addpd %xmm2,%xmm1
13 addsubpd %xmm2,%xmm1
16 phaddw %xmm2,%xmm1
fma-scalar.d 11 [ ]*[a-f0-9]+: c4 e2 cd 99 d4 vfmadd132sd %xmm4,%xmm6,%xmm2
12 [ ]*[a-f0-9]+: c4 e2 cd 99 11 vfmadd132sd \(%ecx\),%xmm6,%xmm2
13 [ ]*[a-f0-9]+: c4 e2 cd a9 d4 vfmadd213sd %xmm4,%xmm6,%xmm2
14 [ ]*[a-f0-9]+: c4 e2 cd a9 11 vfmadd213sd \(%ecx\),%xmm6,%xmm2
15 [ ]*[a-f0-9]+: c4 e2 cd b9 d4 vfmadd231sd %xmm4,%xmm6,%xmm2
16 [ ]*[a-f0-9]+: c4 e2 cd b9 11 vfmadd231sd \(%ecx\),%xmm6,%xmm2
17 [ ]*[a-f0-9]+: c4 e2 cd 9b d4 vfmsub132sd %xmm4,%xmm6,%xmm2
18 [ ]*[a-f0-9]+: c4 e2 cd 9b 11 vfmsub132sd \(%ecx\),%xmm6,%xmm2
19 [ ]*[a-f0-9]+: c4 e2 cd ab d4 vfmsub213sd %xmm4,%xmm6,%xmm2
20 [ ]*[a-f0-9]+: c4 e2 cd ab 11 vfmsub213sd \(%ecx\),%xmm6,%xmm2
    [all...]
x86-64-fma-scalar.d 11 [ ]*[a-f0-9]+: c4 e2 cd 99 d4 vfmadd132sd %xmm4,%xmm6,%xmm2
12 [ ]*[a-f0-9]+: c4 e2 cd 99 11 vfmadd132sd \(%rcx\),%xmm6,%xmm2
13 [ ]*[a-f0-9]+: c4 e2 cd a9 d4 vfmadd213sd %xmm4,%xmm6,%xmm2
14 [ ]*[a-f0-9]+: c4 e2 cd a9 11 vfmadd213sd \(%rcx\),%xmm6,%xmm2
15 [ ]*[a-f0-9]+: c4 e2 cd b9 d4 vfmadd231sd %xmm4,%xmm6,%xmm2
16 [ ]*[a-f0-9]+: c4 e2 cd b9 11 vfmadd231sd \(%rcx\),%xmm6,%xmm2
17 [ ]*[a-f0-9]+: c4 e2 cd 9b d4 vfmsub132sd %xmm4,%xmm6,%xmm2
18 [ ]*[a-f0-9]+: c4 e2 cd 9b 11 vfmsub132sd \(%rcx\),%xmm6,%xmm2
19 [ ]*[a-f0-9]+: c4 e2 cd ab d4 vfmsub213sd %xmm4,%xmm6,%xmm2
20 [ ]*[a-f0-9]+: c4 e2 cd ab 11 vfmsub213sd \(%rcx\),%xmm6,%xmm2
    [all...]
ssemmx2.d 12 [ ]+8: 66 0f e3 d3[ ]+pavgw[ ]+%xmm3,%xmm2
16 [ ]+1b: 66 0f c4 d2 02[ ]+pinsrw \$0x2,%edx,%xmm2
19 [ ]+28: 66 0f de d2[ ]+pmaxub %xmm2,%xmm2
30 [ ]+55: 66 0f 70 da 01[ ]+pshufd \$0x1,%xmm2,%xmm3
32 [ ]+60: f3 0f 70 da 01[ ]+pshufhw \$0x1,%xmm2,%xmm3
34 [ ]+6b: f2 0f 70 da 01[ ]+pshuflw \$0x1,%xmm2,%xmm3
36 [ ]+76: 66 0f e7 10[ ]+movntdq %xmm2,\(%eax\)
37 [ ]+7a: 66 0f 60 90 90 90 90 90 punpcklbw -0x6f6f6f70\(%eax\),%xmm2
38 [ ]+82: 66 0f 61 90 90 90 90 90 punpcklwd -0x6f6f6f70\(%eax\),%xmm2
    [all...]
avx-scalar.d 23 [ ]*[a-f0-9]+: c5 cf c2 d4 07 vcmpordsd %xmm4,%xmm6,%xmm2
24 [ ]*[a-f0-9]+: c5 cf c2 11 07 vcmpordsd \(%ecx\),%xmm6,%xmm2
25 [ ]*[a-f0-9]+: c4 e3 4d 0b d4 07 vroundsd \$0x7,%xmm4,%xmm6,%xmm2
26 [ ]*[a-f0-9]+: c4 e3 4d 0b 11 07 vroundsd \$0x7,\(%ecx\),%xmm6,%xmm2
27 [ ]*[a-f0-9]+: c5 cf 58 d4 vaddsd %xmm4,%xmm6,%xmm2
28 [ ]*[a-f0-9]+: c5 cf 58 11 vaddsd \(%ecx\),%xmm6,%xmm2
29 [ ]*[a-f0-9]+: c5 cf 5a d4 vcvtsd2ss %xmm4,%xmm6,%xmm2
30 [ ]*[a-f0-9]+: c5 cf 5a 11 vcvtsd2ss \(%ecx\),%xmm6,%xmm2
31 [ ]*[a-f0-9]+: c5 cf 5e d4 vdivsd %xmm4,%xmm6,%xmm2
32 [ ]*[a-f0-9]+: c5 cf 5e 11 vdivsd \(%ecx\),%xmm6,%xmm2
    [all...]
x86-64-reg.s 26 psrlw xmm2, 2
28 psraw xmm2, 2
30 psllw xmm2, 2
32 psrld xmm2, 2
34 psrad xmm2, 2
36 pslld xmm2, 2
38 psrlq xmm2, 2
39 psrldq xmm2, 2
41 psllq xmm2, 2
42 pslldq xmm2,
    [all...]
sha.s 6 sha1rnds4 $9, %xmm2, %xmm1
7 sha1rnds4 $7, (%eax), %xmm2
10 sha1nexte %xmm2, %xmm1
14 sha1msg1 %xmm2, %xmm1
18 sha1msg2 %xmm2, %xmm1
22 sha256rnds2 %xmm2, %xmm1
26 sha256rnds2 %xmm0, %xmm2, %xmm1
30 sha256msg1 %xmm2, %xmm1
34 sha256msg2 %xmm2, %xmm1
41 sha1rnds4 xmm1, xmm2,
    [all...]
x86-64-sha.s 6 sha1rnds4 $9, %xmm2, %xmm1
7 sha1rnds4 $7, (%rax), %xmm2
10 sha1nexte %xmm2, %xmm7
14 sha1msg1 %xmm2, %xmm7
18 sha1msg2 %xmm2, %xmm7
22 sha256rnds2 %xmm2, %xmm1
26 sha256rnds2 %xmm0, %xmm2, %xmm1
30 sha256msg1 %xmm2, %xmm1
34 sha256msg2 %xmm2, %xmm1
41 sha1rnds4 xmm1, xmm2,
    [all...]
  /external/llvm/test/MC/X86/
x86-32-avx.s 3 // CHECK: vaddss %xmm4, %xmm6, %xmm2
5 vaddss %xmm4, %xmm6, %xmm2
7 // CHECK: vmulss %xmm4, %xmm6, %xmm2
9 vmulss %xmm4, %xmm6, %xmm2
11 // CHECK: vsubss %xmm4, %xmm6, %xmm2
13 vsubss %xmm4, %xmm6, %xmm2
15 // CHECK: vdivss %xmm4, %xmm6, %xmm2
17 vdivss %xmm4, %xmm6, %xmm2
19 // CHECK: vaddsd %xmm4, %xmm6, %xmm2
21 vaddsd %xmm4, %xmm6, %xmm2
    [all...]
  /external/swiftshader/third_party/LLVM/test/MC/X86/
x86-32-avx.s 3 // CHECK: vaddss %xmm4, %xmm6, %xmm2
5 vaddss %xmm4, %xmm6, %xmm2
7 // CHECK: vmulss %xmm4, %xmm6, %xmm2
9 vmulss %xmm4, %xmm6, %xmm2
11 // CHECK: vsubss %xmm4, %xmm6, %xmm2
13 vsubss %xmm4, %xmm6, %xmm2
15 // CHECK: vdivss %xmm4, %xmm6, %xmm2
17 vdivss %xmm4, %xmm6, %xmm2
19 // CHECK: vaddsd %xmm4, %xmm6, %xmm2
21 vaddsd %xmm4, %xmm6, %xmm2
    [all...]
  /art/runtime/arch/x86_64/
memcmp16_x86_64.S 57 movdqu (%rdi), %xmm2
58 pxor %xmm1, %xmm2
59 ptest %xmm2, %xmm0
76 movdqu (%rdi), %xmm2
77 pxor (%rsi), %xmm2
78 ptest %xmm2, %xmm0
81 movdqu 16(%rdi), %xmm2
82 pxor 16(%rsi), %xmm2
83 ptest %xmm2, %xmm0
86 movdqu 32(%rdi), %xmm2
    [all...]
  /bionic/libc/arch-x86_64/string/
sse4-memcmp-slm.S 109 movdqu (%rdi), %xmm2
110 pxor %xmm1, %xmm2
111 ptest %xmm2, %xmm0
128 movdqu (%rdi), %xmm2
129 pxor (%rsi), %xmm2
130 ptest %xmm2, %xmm0
133 movdqu 16(%rdi), %xmm2
134 pxor 16(%rsi), %xmm2
135 ptest %xmm2, %xmm0
138 movdqu 32(%rdi), %xmm2
    [all...]

Completed in 174 milliseconds

1 2 3 4 5 6 7 8 91011>>