/external/llvm/test/CodeGen/X86/ |
vector-shift-ashr-512.ll | 31 ; AVX512DQ-NEXT: vpunpckhwd {{.*#+}} ymm6 = ymm4[4],ymm0[4],ymm4[5],ymm0[5],ymm4[6],ymm0[6],ymm4[7],ymm0[7],ymm4[12],ymm0[12],ymm4[13],ymm0[13],ymm4[14],ymm0[14],ymm4[15],ymm0[15] 35 ; AVX512DQ-NEXT: vpunpcklwd {{.*#+}} ymm0 = ymm4[0],ymm0[0],ymm4[1],ymm0[1],ymm4[2],ymm0[2],ymm4[3],ymm0[3],ymm4[8],ymm0[8],ymm4[9],ymm0[9],ymm4[10],ymm0[1 (…) [all...] |
avx2-vector-shifts.ll | 18 ; CHECK-NEXT: vpaddw %ymm0, %ymm0, %ymm0 28 ; CHECK-NEXT: vpsllw $15, %ymm0, %ymm0 47 ; CHECK-NEXT: vpaddd %ymm0, %ymm0, %ymm0 59 ; CHECK-NEXT: vpslld %xmm0, %ymm1, %ymm0 69 ; CHECK-NEXT: vpslld $31, %ymm0, %ymm [all...] |
vector-shift-ashr-256.ll | 20 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm6 35 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 42 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm0 43 ; AVX2-NEXT: vpsrlvq %ymm1, %ymm0, %ymm0 44 ; AVX2-NEXT: vpsubq %ymm3, %ymm0, %ymm0 52 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm [all...] |
v8i1-masks.ll | 11 ; X32-NEXT: vmovups (%edx), %ymm0 13 ; X32-NEXT: vcmpltps %ymm0, %ymm1, %ymm1 15 ; X32-NEXT: vcmpltps %ymm0, %ymm2, %ymm0 16 ; X32-NEXT: vandps %ymm1, %ymm0, %ymm0 17 ; X32-NEXT: vandps LCPI0_0, %ymm0, %ymm0 18 ; X32-NEXT: vmovaps %ymm0, (%eax) 24 ; X64-NEXT: vmovups (%rdi), %ymm0 [all...] |
WidenArith.ll | 7 ; CHECK-NEXT: vaddps %ymm1, %ymm0, %ymm2 8 ; CHECK-NEXT: vmulps %ymm0, %ymm1, %ymm1 10 ; CHECK-NEXT: vcmpltps %ymm1, %ymm0, %ymm0 12 ; CHECK-NEXT: vandps %ymm1, %ymm0, %ymm0 13 ; CHECK-NEXT: vandps {{.*}}(%rip), %ymm0, %ymm0
|
vector-shuffle-256-v4.ll | 12 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 17 ; AVX2-NEXT: vbroadcastsd %xmm0, %ymm0 22 ; AVX512VL-NEXT: vbroadcastsd %xmm0, %ymm0 32 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 37 ; AVX2-NEXT: vpermpd {{.*#+}} ymm0 = ymm0[0,0,0,1] 42 ; AVX512VL-NEXT: vpermpd {{.*#+}} ymm0 = ymm0[0,0,0,1] 51 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm [all...] |
vector-tzcnt-256.ll | 10 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 15 ; AVX1-NEXT: vandps %ymm1, %ymm0, %ymm0 16 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 36 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 42 ; AVX2-NEXT: vpsubq %ymm0, %ymm1, %ymm2 43 ; AVX2-NEXT: vpand %ymm2, %ymm0, %ymm0 45 ; AVX2-NEXT: vpsubq %ymm2, %ymm0, %ymm [all...] |
pr17764.ll | 7 ; CHECK-NEXT: vpmovzxbw {{.*#+}} ymm0 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero,xmm0[8],zero,xmm0[9],zero,xmm0[10],zero,xmm0[11],zero,xmm0[12],zero,xmm0[13],zero,xmm0[14],zero,xmm0[15],zero 8 ; CHECK-NEXT: vpsllw $15, %ymm0, %ymm0 9 ; CHECK-NEXT: vpsraw $15, %ymm0, %ymm0 10 ; CHECK-NEXT: vpblendvb %ymm0, %ymm1, %ymm2, %ymm0
|
vector-shift-lshr-256.ll | 15 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 24 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 29 ; AVX2-NEXT: vpsrlvq %ymm1, %ymm0, %ymm0 37 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm4 41 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 46 ; XOPAVX2-NEXT: vpsrlvq %ymm1, %ymm0, %ymm0 [all...] |
vector-shuffle-256-v8.ll | 11 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 16 ; AVX2-NEXT: vbroadcastss %xmm0, %ymm0 27 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 33 ; AVX2-NEXT: vpermps %ymm0, %ymm1, %ymm0 44 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 50 ; AVX2-NEXT: vpermps %ymm0, %ymm1, %ymm0 61 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 [all...] |
2012-04-26-sdglue.ll | 12 ; CHECK-NEXT: vblendps {{.*#+}} ymm2 = ymm0[0,1,2,3],ymm1[4,5,6,7] 15 ; CHECK-NEXT: vinsertf128 $1, %xmm3, %ymm0, %ymm0 16 ; CHECK-NEXT: vmulps %ymm0, %ymm2, %ymm2 17 ; CHECK-NEXT: vmulps %ymm0, %ymm0, %ymm0 18 ; CHECK-NEXT: vaddps %ymm0, %ymm2, %ymm0 19 ; CHECK-NEXT: vaddps %ymm0, %ymm0, %ymm [all...] |
avx2-nontemporal.ll | 16 ; X32-NEXT: vaddps .LCPI0_0, %ymm0, %ymm0 17 ; X32-NEXT: vmovntps %ymm0, (%eax) 18 ; X32-NEXT: vpaddq .LCPI0_1, %ymm2, %ymm0 19 ; X32-NEXT: vmovntdq %ymm0, (%eax) 20 ; X32-NEXT: vaddpd .LCPI0_2, %ymm1, %ymm0 21 ; X32-NEXT: vmovntpd %ymm0, (%eax) 22 ; X32-NEXT: vpaddd .LCPI0_3, %ymm5, %ymm0 23 ; X32-NEXT: vmovntdq %ymm0, (%eax) 24 ; X32-NEXT: vpaddw .LCPI0_4, %ymm4, %ymm0 [all...] |
vector-shift-shl-256.ll | 16 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 25 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 30 ; AVX2-NEXT: vpsllvq %ymm1, %ymm0, %ymm0 36 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 39 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 44 ; XOPAVX2-NEXT: vpsllvq %ymm1, %ymm0, %ymm0 [all...] |
avx-vperm2x128.ll | 8 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,0,1] 18 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3,0,1] 30 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3] 40 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 45 ; AVX2-NEXT: vpermpd {{.*#+}} ymm0 = ymm0[0,1,0,1] 55 ; AVX1-NEXT: vmovaps (%rdi), %ymm0 [all...] |
lower-vec-shuffle-bug.ll | 6 ; CHECK-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 16 ; CHECK-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 26 ; CHECK-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 36 ; CHECK-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0
|
vector-lzcnt-512.ll | 44 ; AVX512CD-NEXT: vpmovzxwd {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zer [all...] |
vector-rotate-256.ll | 18 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 36 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 37 ; AVX1-NEXT: vorps %ymm0, %ymm1, %ymm0 44 ; AVX2-NEXT: vpsllvq %ymm1, %ymm0, %ymm1 45 ; AVX2-NEXT: vpsrlvq %ymm2, %ymm0, %ymm0 46 ; AVX2-NEXT: vpor %ymm0, %ymm1, %ymm0 [all...] |
unaligned-32-byte-memops.ll | 12 ; AVXSLOW-NEXT: vinsertf128 $1, 16(%rdi), %ymm0, %ymm0 17 ; AVXFAST-NEXT: vmovups (%rdi), %ymm0 22 ; AVX2-NEXT: vmovups (%rdi), %ymm0 33 ; AVXSLOW-NEXT: vextractf128 $1, %ymm0, 16(%rdi) 40 ; AVXFAST-NEXT: vmovups %ymm0, (%rdi) 46 ; AVX2-NEXT: vmovups %ymm0, (%rdi) 59 ; AVXSLOW-NEXT: vinsertf128 $1, 64(%rdi), %ymm0, %ymm0 64 ; AVXFAST-NEXT: vmovups 48(%rdi), %ymm0 [all...] |
avx2-intrinsics-x86.ll | 8 ; AVX2-NEXT: vpackssdw %ymm1, %ymm0, %ymm0 13 ; AVX512VL-NEXT: vpackssdw %ymm1, %ymm0, %ymm0 24 ; AVX2-NEXT: vpacksswb %ymm1, %ymm0, %ymm0 29 ; AVX512VL-NEXT: vpacksswb %ymm1, %ymm0, %ymm0 40 ; AVX2-NEXT: vpackuswb %ymm1, %ymm0, %ymm0 [all...] |
vector-lzcnt-256.ll | 10 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 33 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 39 ; AVX2-NEXT: vpand %ymm1, %ymm0, %ymm2 42 ; AVX2-NEXT: vpsrlw $4, %ymm0, %ymm4 49 ; AVX2-NEXT: vpcmpeqb %ymm4, %ymm0, %ymm2 54 ; AVX2-NEXT: vpcmpeqw %ymm4, %ymm0, %ymm2 59 ; AVX2-NEXT: vpcmpeqd %ymm4, %ymm0, %ymm0 60 ; AVX2-NEXT: vpsrlq $32, %ymm0, %ymm [all...] |
vector-shift-lshr-512.ll | 32 ; AVX512DQ-NEXT: vpunpckhwd {{.*#+}} ymm6 = ymm4[4],ymm0[4],ymm4[5],ymm0[5],ymm4[6],ymm0[6],ymm4[7],ymm0[7],ymm4[12],ymm0[12],ymm4[13],ymm0[13],ymm4[14],ymm0[14],ymm4[15],ymm0[15] 36 ; AVX512DQ-NEXT: vpunpcklwd {{.*#+}} ymm0 = ymm4[0],ymm0[0],ymm4[1],ymm0[1],ymm4[2],ymm0[2],ymm4[3],ymm0[3],ymm4[8],ymm0[8],ymm4[9],ymm0[9],ymm4[10],ymm0[1 (…) [all...] |
avx-insertelt.ll | 6 ; ALL: vblendps {{.*#+}} ymm0 = ymm1[0],ymm0[1,2,3,4,5,6,7] 14 ; ALL: vblendpd {{.*#+}} ymm0 = ymm1[0],ymm0[1,2,3] 24 ; AVX-NEXT: vblendps {{.*#+}} ymm0 = ymm1[0,1,2,3],ymm0[4,5,6,7] 30 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1,2,3],ymm0[4,5,6,7] 40 ; AVX-NEXT: vblendps {{.*#+}} ymm0 = ymm1[0,1,2,3],ymm0[4,5,6,7 [all...] |
/external/llvm/test/MC/X86/ |
x86_64-fma4-encoding.s | 56 // CHECK: vfmaddps (%rcx), %ymm1, %ymm0, %ymm0 58 vfmaddps (%rcx), %ymm1, %ymm0, %ymm0 60 // CHECK: vfmaddps %ymm1, (%rcx), %ymm0, %ymm0 62 vfmaddps %ymm1, (%rcx),%ymm0, %ymm0 64 // CHECK: vfmaddps %ymm2, %ymm1, %ymm0, %ymm0 [all...] |
shuffle-comments.s | 33 vpalignr $8, %ymm0, %ymm1, %ymm2 34 # CHECK: ymm2 = ymm0[8,9,10,11,12,13,14,15],ymm1[0,1,2,3,4,5,6,7],ymm0[24,25,26,27,28,29,30,31],ymm1[16,17,18,19,20,21,22,23] 38 vpalignr $16, %ymm0, %ymm1, %ymm2 43 vpalignr $0, %ymm0, %ymm1, %ymm2 44 # CHECK: ymm2 = ymm0[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31] 58 vpshufd $27, %ymm0, %ymm1 59 # CHECK: ymm1 = ymm0[3,2,1,0,7,6,5,4] 73 vpunpcklbw %ymm0, %ymm1, %ymm2 74 # CHECK: ymm2 = ymm1[0],ymm0[0],ymm1[1],ymm0[1],ymm1[2],ymm0[2],ymm1[3],ymm0[3],ymm1[4],ymm0[4],ymm1[5],ymm0[5],ymm1[6],ymm0[6] (…) [all...] |
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/i386/ |
att-regs.s | 20 mov ymm0, ax ; add al, (bx,si) 36 mov ymm0, eax 48 vxorps ymm0, ymm0, ymm0
|