/external/llvm/test/CodeGen/X86/ |
vector-shift-ashr-512.ll | 32 ; ALL-NEXT: vpunpckhwd {{.*#+}} ymm6 = ymm0[4,4,5,5,6,6,7,7,12,12,13,13,14,14,15,15] 36 ; ALL-NEXT: vpunpcklwd {{.*#+}} ymm0 = ymm0[0,0,1,1,2,2,3,3,8,8,9,9,10,10,11,11] 37 ; ALL-NEXT: vpsravd %ymm2, %ymm0, %ymm0 38 ; ALL-NEXT: vpsrld $16, %ymm0, %ymm0 39 ; ALL-NEXT: vpackusdw %ymm5, %ymm0, %ymm0 58 ; ALL-NEXT: vpunpckhbw {{.*#+}} ymm4 = ymm0[8],ymm2[8],ymm0[9],ymm2[9],ymm0[10],ymm2[10],ymm0[11],ymm2[11],ymm0[12],ymm2[12],ymm0[13],ymm2[13] (…) [all...] |
avx2-vector-shifts.ll | 12 ; CHECK-NOT: vpsllw $0, %ymm0, %ymm0 22 ; CHECK: vpaddw %ymm0, %ymm0, %ymm0 32 ; CHECK: vpsllw $15, %ymm0, %ymm0 42 ; CHECK-NOT: vpslld $0, %ymm0, %ymm0 52 ; CHECK: vpaddd %ymm0, %ymm0, %ymm [all...] |
vector-shuffle-256-v4.ll | 12 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 17 ; AVX2-NEXT: vbroadcastsd %xmm0, %ymm0 22 ; AVX512VL-NEXT: vbroadcastsd %xmm0, %ymm0 32 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 37 ; AVX2-NEXT: vpermpd {{.*#+}} ymm0 = ymm0[0,0,0,1] 42 ; AVX512VL-NEXT: vpermpd {{.*#+}} ymm0 = ymm0[0,0,0,1] 51 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm [all...] |
vector-tzcnt-256.ll | 8 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 13 ; AVX1-NEXT: vandps %ymm1, %ymm0, %ymm0 14 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 34 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 40 ; AVX2-NEXT: vpsubq %ymm0, %ymm1, %ymm2 41 ; AVX2-NEXT: vpand %ymm2, %ymm0, %ymm0 43 ; AVX2-NEXT: vpsubq %ymm2, %ymm0, %ymm [all...] |
vector-shuffle-256-v8.ll | 11 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 16 ; AVX2-NEXT: vbroadcastss %xmm0, %ymm0 27 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 33 ; AVX2-NEXT: vpermps %ymm0, %ymm1, %ymm0 44 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 50 ; AVX2-NEXT: vpermps %ymm0, %ymm1, %ymm0 61 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 [all...] |
vector-shift-shl-256.ll | 15 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 24 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 29 ; AVX2-NEXT: vpsllvq %ymm1, %ymm0, %ymm0 35 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 38 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 43 ; XOPAVX2-NEXT: vpsllvq %ymm1, %ymm0, %ymm0 [all...] |
lower-vec-shuffle-bug.ll | 6 ; CHECK-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 16 ; CHECK-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 26 ; CHECK-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 36 ; CHECK-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0
|
pr17764.ll | 9 ; CHECK: vpblendvb %ymm0, %ymm1, %ymm2, %ymm0
|
avx-vperm2x128.ll | 8 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,0,1] 18 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3] 28 ; ALL-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 38 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3] 48 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3 [all...] |
vector-shift-ashr-256.ll | 20 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm6 35 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 42 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm0 43 ; AVX2-NEXT: vpsrlvq %ymm1, %ymm0, %ymm0 44 ; AVX2-NEXT: vpsubq %ymm3, %ymm0, %ymm0 52 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm [all...] |
unaligned-32-byte-memops.ll | 12 ; AVXSLOW-NEXT: vinsertf128 $1, 16(%rdi), %ymm0, %ymm0 17 ; AVXFAST-NEXT: vmovups (%rdi), %ymm0 22 ; AVX2-NEXT: vmovups (%rdi), %ymm0 33 ; AVXSLOW-NEXT: vextractf128 $1, %ymm0, 16(%rdi) 40 ; AVXFAST-NEXT: vmovups %ymm0, (%rdi) 46 ; AVX2-NEXT: vmovups %ymm0, (%rdi) 59 ; AVXSLOW-NEXT: vinsertf128 $1, 64(%rdi), %ymm0, %ymm0 64 ; AVXFAST-NEXT: vmovups 48(%rdi), %ymm0 [all...] |
vector-rotate-256.ll | 18 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 36 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 37 ; AVX1-NEXT: vorps %ymm0, %ymm1, %ymm0 44 ; AVX2-NEXT: vpsllvq %ymm1, %ymm0, %ymm1 45 ; AVX2-NEXT: vpsrlvq %ymm2, %ymm0, %ymm0 46 ; AVX2-NEXT: vpor %ymm0, %ymm1, %ymm0 [all...] |
avx-insertelt.ll | 6 ; ALL: vblendps {{.*#+}} ymm0 = ymm1[0],ymm0[1,2,3,4,5,6,7] 14 ; ALL: vblendpd {{.*#+}} ymm0 = ymm1[0],ymm0[1,2,3] 24 ; AVX-NEXT: vblendps {{.*#+}} ymm0 = ymm1[0,1,2,3],ymm0[4,5,6,7] 30 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1,2,3],ymm0[4,5,6,7] 40 ; AVX-NEXT: vblendps {{.*#+}} ymm0 = ymm1[0,1,2,3],ymm0[4,5,6,7 [all...] |
vector-shift-lshr-256.ll | 15 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 24 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 29 ; AVX2-NEXT: vpsrlvq %ymm1, %ymm0, %ymm0 37 ; XOPAVX1-NEXT: vextractf128 $1, %ymm0, %xmm4 41 ; XOPAVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0 46 ; XOPAVX2-NEXT: vpsrlvq %ymm1, %ymm0, %ymm0 [all...] |
avx-logic.ll | 8 ; CHECK-NEXT: vandpd %ymm0, %ymm1, %ymm0 10 ; CHECK-NEXT: vaddpd %ymm1, %ymm0, %ymm0 25 ; CHECK-NEXT: vandpd {{.*}}(%rip), %ymm0, %ymm0 27 ; CHECK-NEXT: vaddpd %ymm1, %ymm0, %ymm0 41 ; CHECK-NEXT: vandps %ymm0, %ymm1, %ymm0 [all...] |
vector-popcnt-256.ll | 8 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 26 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0 32 ; AVX2-NEXT: vpand %ymm1, %ymm0, %ymm2 35 ; AVX2-NEXT: vpsrlw $4, %ymm0, %ymm0 36 ; AVX2-NEXT: vpand %ymm1, %ymm0, %ymm0 37 ; AVX2-NEXT: vpshufb %ymm0, %ymm3, %ymm0 [all...] |
vector-tzcnt-512.ll | 39 ; ALL-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0 115 ; ALL-NEXT: vinserti128 $1, %xmm2, %ymm0, %ymm0 140 ; ALL-NEXT: vpsubw %ymm0, %ymm2, %ymm3 141 ; ALL-NEXT: vpand %ymm3, %ymm0, %ymm0 143 ; ALL-NEXT: vpsubw %ymm3, %ymm0, %ymm0 145 ; ALL-NEXT: vpand %ymm4, %ymm0, %ymm [all...] |
vector-shuffle-256-v16.ll | 11 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0 16 ; AVX2-NEXT: vpbroadcastw %xmm0, %ymm0 29 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 36 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0 47 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 54 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0 65 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 72 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0 83 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0 [all...] |
/external/llvm/test/MC/X86/ |
x86_64-fma4-encoding.s | 56 // CHECK: vfmaddps (%rcx), %ymm1, %ymm0, %ymm0 58 vfmaddps (%rcx), %ymm1, %ymm0, %ymm0 60 // CHECK: vfmaddps %ymm1, (%rcx), %ymm0, %ymm0 62 vfmaddps %ymm1, (%rcx),%ymm0, %ymm0 64 // CHECK: vfmaddps %ymm2, %ymm1, %ymm0, %ymm0 [all...] |
shuffle-comments.s | 33 vpalignr $8, %ymm0, %ymm1, %ymm2 34 # CHECK: ymm2 = ymm0[8,9,10,11,12,13,14,15],ymm1[0,1,2,3,4,5,6,7],ymm0[24,25,26,27,28,29,30,31],ymm1[16,17,18,19,20,21,22,23] 38 vpalignr $16, %ymm0, %ymm1, %ymm2 43 vpalignr $0, %ymm0, %ymm1, %ymm2 44 # CHECK: ymm2 = ymm0[0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31] 58 vpshufd $27, %ymm0, %ymm1 59 # CHECK: ymm1 = ymm0[3,2,1,0,7,6,5,4] 73 vpunpcklbw %ymm0, %ymm1, %ymm2 74 # CHECK: ymm2 = ymm1[0],ymm0[0],ymm1[1],ymm0[1],ymm1[2],ymm0[2],ymm1[3],ymm0[3],ymm1[4],ymm0[4],ymm1[5],ymm0[5],ymm1[6],ymm0[6] (…) [all...] |
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/i386/ |
att-regs.s | 20 mov ymm0, ax ; add al, (bx,si) 36 mov ymm0, eax 48 vxorps ymm0, ymm0, ymm0
|
intel-regs.s | 20 mov ax, ymm0 ; add [bx+si], al 38 mov eax, ymm0 52 vxorps ymm0, ymm0, ymm0
|
/external/libyuv/files/source/ |
row_win.cc | 333 vpermq ymm0, ymm0, 0xd8 334 vpunpcklbw ymm0, ymm0, ymm0 335 vpermq ymm0, ymm0, 0xd8 336 vpunpckhwd ymm1, ymm0, ymm0 337 vpunpcklwd ymm0, ymm0, ymm [all...] |
compare_win.cc | 71 vpxor ymm0, ymm0, ymm0 // sum local 86 vpaddd ymm0, ymm0, ymm1 local 87 vpaddd ymm0, ymm0, ymm2 local 91 vpshufd ymm1, ymm0, 0xee // 3, 2 + 1, 0 both lanes. local 92 vpaddd ymm0, ymm0, ymm local 93 vpshufd ymm1, ymm0, 0x01 \/\/ 1 + 0 both lanes. local 94 vpaddd ymm0, ymm0, ymm1 local 95 vpermq ymm1, ymm0, 0x02 \/\/ high + low lane. local 96 vpaddd ymm0, ymm0, ymm1 local [all...] |
/external/libvpx/libvpx/third_party/libyuv/source/ |
compare_win.cc | 70 vpxor ymm0, ymm0, ymm0 // sum local 85 vpaddd ymm0, ymm0, ymm1 local 86 vpaddd ymm0, ymm0, ymm2 local 90 vpshufd ymm1, ymm0, 0xee // 3, 2 + 1, 0 both lanes. local 91 vpaddd ymm0, ymm0, ymm local 92 vpshufd ymm1, ymm0, 0x01 \/\/ 1 + 0 both lanes. local 93 vpaddd ymm0, ymm0, ymm1 local 94 vpermq ymm1, ymm0, 0x02 \/\/ high + low lane. local 95 vpaddd ymm0, ymm0, ymm1 local [all...] |