/toolchain/binutils/binutils-2.27/gas/testsuite/gas/i386/ |
inval-avx.s | 4 vcvtpd2dq (%ecx),%xmm2 5 vcvtpd2ps (%ecx),%xmm2 6 vcvttpd2dq (%ecx),%xmm2 9 vcvtpd2dq xmm2,[ecx] 10 vcvtpd2ps xmm2,[ecx] 11 vcvttpd2dq xmm2,[ecx]
|
x86-64-inval-avx.s | 4 vcvtpd2dq (%rcx),%xmm2 5 vcvtpd2ps (%rcx),%xmm2 6 vcvttpd2dq (%rcx),%xmm2 9 vcvtpd2dq xmm2,[rcx] 10 vcvtpd2ps xmm2,[rcx] 11 vcvttpd2dq xmm2,[rcx]
|
fma-scalar.s | 8 vfmadd132sd %xmm4,%xmm6,%xmm2 9 vfmadd132sd (%ecx),%xmm6,%xmm2 10 vfmadd213sd %xmm4,%xmm6,%xmm2 11 vfmadd213sd (%ecx),%xmm6,%xmm2 12 vfmadd231sd %xmm4,%xmm6,%xmm2 13 vfmadd231sd (%ecx),%xmm6,%xmm2 14 vfmsub132sd %xmm4,%xmm6,%xmm2 15 vfmsub132sd (%ecx),%xmm6,%xmm2 16 vfmsub213sd %xmm4,%xmm6,%xmm2 17 vfmsub213sd (%ecx),%xmm6,%xmm2 [all...] |
x86-64-fma-scalar.s | 8 vfmadd132sd %xmm4,%xmm6,%xmm2 9 vfmadd132sd (%rcx),%xmm6,%xmm2 10 vfmadd213sd %xmm4,%xmm6,%xmm2 11 vfmadd213sd (%rcx),%xmm6,%xmm2 12 vfmadd231sd %xmm4,%xmm6,%xmm2 13 vfmadd231sd (%rcx),%xmm6,%xmm2 14 vfmsub132sd %xmm4,%xmm6,%xmm2 15 vfmsub132sd (%rcx),%xmm6,%xmm2 16 vfmsub213sd %xmm4,%xmm6,%xmm2 17 vfmsub213sd (%rcx),%xmm6,%xmm2 [all...] |
ssemmx2.s | 5 pavgw %xmm3,%xmm2 9 pinsrw $0x2,%edx,%xmm2 12 pmaxub %xmm2,%xmm2 23 pshufd $0x1,%xmm2,%xmm3 25 pshufhw $0x1,%xmm2,%xmm3 27 pshuflw $0x1,%xmm2,%xmm3 29 movntdq %xmm2,(%eax) 30 punpcklbw 0x90909090(%eax),%xmm2 31 punpcklwd 0x90909090(%eax),%xmm2 [all...] |
avx-scalar.s | 31 vcmpsd $7,%xmm4,%xmm6,%xmm2 32 vcmpsd $7,(%ecx),%xmm6,%xmm2 33 vroundsd $7,%xmm4,%xmm6,%xmm2 34 vroundsd $7,(%ecx),%xmm6,%xmm2 37 vaddsd %xmm4,%xmm6,%xmm2 38 vaddsd (%ecx),%xmm6,%xmm2 39 vcvtsd2ss %xmm4,%xmm6,%xmm2 40 vcvtsd2ss (%ecx),%xmm6,%xmm2 41 vdivsd %xmm4,%xmm6,%xmm2 42 vdivsd (%ecx),%xmm6,%xmm2 [all...] |
inval-avx.l | 14 [ ]*4[ ]+vcvtpd2dq \(%ecx\),%xmm2 15 [ ]*5[ ]+vcvtpd2ps \(%ecx\),%xmm2 16 [ ]*6[ ]+vcvttpd2dq \(%ecx\),%xmm2 19 [ ]*9[ ]+vcvtpd2dq xmm2,\[ecx\] 20 [ ]*10[ ]+vcvtpd2ps xmm2,\[ecx\] 21 [ ]*11[ ]+vcvttpd2dq xmm2,\[ecx\]
|
x86-64-inval-avx.l | 14 [ ]*4[ ]+vcvtpd2dq \(%rcx\),%xmm2 15 [ ]*5[ ]+vcvtpd2ps \(%rcx\),%xmm2 16 [ ]*6[ ]+vcvttpd2dq \(%rcx\),%xmm2 19 [ ]*9[ ]+vcvtpd2dq xmm2,\[rcx\] 20 [ ]*10[ ]+vcvtpd2ps xmm2,\[rcx\] 21 [ ]*11[ ]+vcvttpd2dq xmm2,\[rcx\]
|
x86-64-fma4.s | 17 vfmaddpd %xmm4,%xmm6,%xmm2,%xmm7 18 vfmaddpd (%rcx),%xmm6,%xmm2,%xmm7 19 vfmaddpd %xmm4,(%rcx),%xmm2,%xmm7 20 vfmaddps %xmm4,%xmm6,%xmm2,%xmm7 21 vfmaddps (%rcx),%xmm6,%xmm2,%xmm7 22 vfmaddps %xmm4,(%rcx),%xmm2,%xmm7 23 vfmaddsubpd %xmm4,%xmm6,%xmm2,%xmm7 24 vfmaddsubpd (%rcx),%xmm6,%xmm2,%xmm7 25 vfmaddsubpd %xmm4,(%rcx),%xmm2,%xmm7 26 vfmaddsubps %xmm4,%xmm6,%xmm2,%xmm [all...] |
x86-64-avx-scalar.s | 47 vcmpsd $7,%xmm4,%xmm6,%xmm2 48 vcmpsd $7,(%rcx),%xmm6,%xmm2 49 vroundsd $7,%xmm4,%xmm6,%xmm2 50 vroundsd $7,(%rcx),%xmm6,%xmm2 53 vaddsd %xmm4,%xmm6,%xmm2 54 vaddsd (%rcx),%xmm6,%xmm2 55 vcvtsd2ss %xmm4,%xmm6,%xmm2 56 vcvtsd2ss (%rcx),%xmm6,%xmm2 57 vdivsd %xmm4,%xmm6,%xmm2 58 vdivsd (%rcx),%xmm6,%xmm2 [all...] |
fma4.s | 25 vfmaddpd %xmm4,%xmm6,%xmm2,%xmm7 26 vfmaddpd (%ecx),%xmm6,%xmm2,%xmm7 27 vfmaddpd %xmm4,(%ecx),%xmm2,%xmm7 28 vfmaddps %xmm4,%xmm6,%xmm2,%xmm7 29 vfmaddps (%ecx),%xmm6,%xmm2,%xmm7 30 vfmaddps %xmm4,(%ecx),%xmm2,%xmm7 31 vfmaddsubpd %xmm4,%xmm6,%xmm2,%xmm7 32 vfmaddsubpd (%ecx),%xmm6,%xmm2,%xmm7 33 vfmaddsubpd %xmm4,(%ecx),%xmm2,%xmm7 34 vfmaddsubps %xmm4,%xmm6,%xmm2,%xmm [all...] |
arch-avx-1.s | 4 vaesenc (%ecx),%xmm0,%xmm2 6 vpclmulqdq $8,%xmm4,%xmm6,%xmm2
|
sse-check-none.s | 8 addps %xmm2,%xmm1 11 addpd %xmm2,%xmm1 14 addsubpd %xmm2,%xmm1 17 phaddw %xmm2,%xmm1
|
sse-check.s | 7 addps %xmm2,%xmm1 10 addpd %xmm2,%xmm1 13 addsubpd %xmm2,%xmm1 16 phaddw %xmm2,%xmm1
|
fma-scalar.d | 11 [ ]*[a-f0-9]+: c4 e2 cd 99 d4 vfmadd132sd %xmm4,%xmm6,%xmm2 12 [ ]*[a-f0-9]+: c4 e2 cd 99 11 vfmadd132sd \(%ecx\),%xmm6,%xmm2 13 [ ]*[a-f0-9]+: c4 e2 cd a9 d4 vfmadd213sd %xmm4,%xmm6,%xmm2 14 [ ]*[a-f0-9]+: c4 e2 cd a9 11 vfmadd213sd \(%ecx\),%xmm6,%xmm2 15 [ ]*[a-f0-9]+: c4 e2 cd b9 d4 vfmadd231sd %xmm4,%xmm6,%xmm2 16 [ ]*[a-f0-9]+: c4 e2 cd b9 11 vfmadd231sd \(%ecx\),%xmm6,%xmm2 17 [ ]*[a-f0-9]+: c4 e2 cd 9b d4 vfmsub132sd %xmm4,%xmm6,%xmm2 18 [ ]*[a-f0-9]+: c4 e2 cd 9b 11 vfmsub132sd \(%ecx\),%xmm6,%xmm2 19 [ ]*[a-f0-9]+: c4 e2 cd ab d4 vfmsub213sd %xmm4,%xmm6,%xmm2 20 [ ]*[a-f0-9]+: c4 e2 cd ab 11 vfmsub213sd \(%ecx\),%xmm6,%xmm2 [all...] |
x86-64-fma-scalar.d | 11 [ ]*[a-f0-9]+: c4 e2 cd 99 d4 vfmadd132sd %xmm4,%xmm6,%xmm2 12 [ ]*[a-f0-9]+: c4 e2 cd 99 11 vfmadd132sd \(%rcx\),%xmm6,%xmm2 13 [ ]*[a-f0-9]+: c4 e2 cd a9 d4 vfmadd213sd %xmm4,%xmm6,%xmm2 14 [ ]*[a-f0-9]+: c4 e2 cd a9 11 vfmadd213sd \(%rcx\),%xmm6,%xmm2 15 [ ]*[a-f0-9]+: c4 e2 cd b9 d4 vfmadd231sd %xmm4,%xmm6,%xmm2 16 [ ]*[a-f0-9]+: c4 e2 cd b9 11 vfmadd231sd \(%rcx\),%xmm6,%xmm2 17 [ ]*[a-f0-9]+: c4 e2 cd 9b d4 vfmsub132sd %xmm4,%xmm6,%xmm2 18 [ ]*[a-f0-9]+: c4 e2 cd 9b 11 vfmsub132sd \(%rcx\),%xmm6,%xmm2 19 [ ]*[a-f0-9]+: c4 e2 cd ab d4 vfmsub213sd %xmm4,%xmm6,%xmm2 20 [ ]*[a-f0-9]+: c4 e2 cd ab 11 vfmsub213sd \(%rcx\),%xmm6,%xmm2 [all...] |
ssemmx2.d | 12 [ ]+8: 66 0f e3 d3[ ]+pavgw[ ]+%xmm3,%xmm2 16 [ ]+1b: 66 0f c4 d2 02[ ]+pinsrw \$0x2,%edx,%xmm2 19 [ ]+28: 66 0f de d2[ ]+pmaxub %xmm2,%xmm2 30 [ ]+55: 66 0f 70 da 01[ ]+pshufd \$0x1,%xmm2,%xmm3 32 [ ]+60: f3 0f 70 da 01[ ]+pshufhw \$0x1,%xmm2,%xmm3 34 [ ]+6b: f2 0f 70 da 01[ ]+pshuflw \$0x1,%xmm2,%xmm3 36 [ ]+76: 66 0f e7 10[ ]+movntdq %xmm2,\(%eax\) 37 [ ]+7a: 66 0f 60 90 90 90 90 90 punpcklbw -0x6f6f6f70\(%eax\),%xmm2 38 [ ]+82: 66 0f 61 90 90 90 90 90 punpcklwd -0x6f6f6f70\(%eax\),%xmm2 [all...] |
avx-scalar.d | 23 [ ]*[a-f0-9]+: c5 cf c2 d4 07 vcmpordsd %xmm4,%xmm6,%xmm2 24 [ ]*[a-f0-9]+: c5 cf c2 11 07 vcmpordsd \(%ecx\),%xmm6,%xmm2 25 [ ]*[a-f0-9]+: c4 e3 4d 0b d4 07 vroundsd \$0x7,%xmm4,%xmm6,%xmm2 26 [ ]*[a-f0-9]+: c4 e3 4d 0b 11 07 vroundsd \$0x7,\(%ecx\),%xmm6,%xmm2 27 [ ]*[a-f0-9]+: c5 cf 58 d4 vaddsd %xmm4,%xmm6,%xmm2 28 [ ]*[a-f0-9]+: c5 cf 58 11 vaddsd \(%ecx\),%xmm6,%xmm2 29 [ ]*[a-f0-9]+: c5 cf 5a d4 vcvtsd2ss %xmm4,%xmm6,%xmm2 30 [ ]*[a-f0-9]+: c5 cf 5a 11 vcvtsd2ss \(%ecx\),%xmm6,%xmm2 31 [ ]*[a-f0-9]+: c5 cf 5e d4 vdivsd %xmm4,%xmm6,%xmm2 32 [ ]*[a-f0-9]+: c5 cf 5e 11 vdivsd \(%ecx\),%xmm6,%xmm2 [all...] |
x86-64-reg.s | 26 psrlw xmm2, 2 28 psraw xmm2, 2 30 psllw xmm2, 2 32 psrld xmm2, 2 34 psrad xmm2, 2 36 pslld xmm2, 2 38 psrlq xmm2, 2 39 psrldq xmm2, 2 41 psllq xmm2, 2 42 pslldq xmm2, [all...] |
sha.s | 6 sha1rnds4 $9, %xmm2, %xmm1 7 sha1rnds4 $7, (%eax), %xmm2 10 sha1nexte %xmm2, %xmm1 14 sha1msg1 %xmm2, %xmm1 18 sha1msg2 %xmm2, %xmm1 22 sha256rnds2 %xmm2, %xmm1 26 sha256rnds2 %xmm0, %xmm2, %xmm1 30 sha256msg1 %xmm2, %xmm1 34 sha256msg2 %xmm2, %xmm1 41 sha1rnds4 xmm1, xmm2, [all...] |
x86-64-sha.s | 6 sha1rnds4 $9, %xmm2, %xmm1 7 sha1rnds4 $7, (%rax), %xmm2 10 sha1nexte %xmm2, %xmm7 14 sha1msg1 %xmm2, %xmm7 18 sha1msg2 %xmm2, %xmm7 22 sha256rnds2 %xmm2, %xmm1 26 sha256rnds2 %xmm0, %xmm2, %xmm1 30 sha256msg1 %xmm2, %xmm1 34 sha256msg2 %xmm2, %xmm1 41 sha1rnds4 xmm1, xmm2, [all...] |
/external/llvm/test/MC/X86/ |
x86-32-avx.s | 3 // CHECK: vaddss %xmm4, %xmm6, %xmm2 5 vaddss %xmm4, %xmm6, %xmm2 7 // CHECK: vmulss %xmm4, %xmm6, %xmm2 9 vmulss %xmm4, %xmm6, %xmm2 11 // CHECK: vsubss %xmm4, %xmm6, %xmm2 13 vsubss %xmm4, %xmm6, %xmm2 15 // CHECK: vdivss %xmm4, %xmm6, %xmm2 17 vdivss %xmm4, %xmm6, %xmm2 19 // CHECK: vaddsd %xmm4, %xmm6, %xmm2 21 vaddsd %xmm4, %xmm6, %xmm2 [all...] |
/external/swiftshader/third_party/LLVM/test/MC/X86/ |
x86-32-avx.s | 3 // CHECK: vaddss %xmm4, %xmm6, %xmm2 5 vaddss %xmm4, %xmm6, %xmm2 7 // CHECK: vmulss %xmm4, %xmm6, %xmm2 9 vmulss %xmm4, %xmm6, %xmm2 11 // CHECK: vsubss %xmm4, %xmm6, %xmm2 13 vsubss %xmm4, %xmm6, %xmm2 15 // CHECK: vdivss %xmm4, %xmm6, %xmm2 17 vdivss %xmm4, %xmm6, %xmm2 19 // CHECK: vaddsd %xmm4, %xmm6, %xmm2 21 vaddsd %xmm4, %xmm6, %xmm2 [all...] |
/art/runtime/arch/x86_64/ |
memcmp16_x86_64.S | 57 movdqu (%rdi), %xmm2 58 pxor %xmm1, %xmm2 59 ptest %xmm2, %xmm0 76 movdqu (%rdi), %xmm2 77 pxor (%rsi), %xmm2 78 ptest %xmm2, %xmm0 81 movdqu 16(%rdi), %xmm2 82 pxor 16(%rsi), %xmm2 83 ptest %xmm2, %xmm0 86 movdqu 32(%rdi), %xmm2 [all...] |
/bionic/libc/arch-x86_64/string/ |
sse4-memcmp-slm.S | 109 movdqu (%rdi), %xmm2 110 pxor %xmm1, %xmm2 111 ptest %xmm2, %xmm0 128 movdqu (%rdi), %xmm2 129 pxor (%rsi), %xmm2 130 ptest %xmm2, %xmm0 133 movdqu 16(%rdi), %xmm2 134 pxor 16(%rsi), %xmm2 135 ptest %xmm2, %xmm0 138 movdqu 32(%rdi), %xmm2 [all...] |