Home | History | Annotate | Download | only in X86

Lines Matching full:xmm8

782 ; SSE2-NEXT:    movdqa {{.*#+}} xmm8 = [2147483648,0,2147483648,0]
783 ; SSE2-NEXT: pxor %xmm8, %xmm7
784 ; SSE2-NEXT: pxor %xmm8, %xmm3
793 ; SSE2-NEXT: pxor %xmm8, %xmm5
794 ; SSE2-NEXT: pxor %xmm8, %xmm1
805 ; SSE2-NEXT: pxor %xmm8, %xmm6
806 ; SSE2-NEXT: pxor %xmm8, %xmm2
815 ; SSE2-NEXT: pxor %xmm8, %xmm4
816 ; SSE2-NEXT: pxor %xmm8, %xmm0
2092 ; SSE-NEXT: movapd %xmm0, %xmm8
2120 ; SSE-NEXT: cmpltpd %xmm8, %xmm0
2130 ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm8
2132 ; AVX1-NEXT: vandpd %xmm7, %xmm8, %xmm8
2134 ; AVX1-NEXT: vpackuswb %xmm8, %xmm3, %xmm3
2305 ; SSE2-NEXT: movaps {{[0-9]+}}(%rsp), %xmm8
2355 ; SSE2-NEXT: cmpltps %xmm4, %xmm8
2356 ; SSE2-NEXT: pshuflw {{.*#+}} xmm4 = xmm8[0,2,2,3,4,5,6,7]
2471 ; SSE42-NEXT: movaps {{[0-9]+}}(%rsp), %xmm8
2487 ; SSE42-NEXT: cmpltps %xmm0, %xmm8
2488 ; SSE42-NEXT: pshufb %xmm3, %xmm8
2489 ; SSE42-NEXT: punpcklqdq {{.*#+}} xmm8 = xmm8[0],xmm14[0]
2490 ; SSE42-NEXT: psllw $15, %xmm8
2491 ; SSE42-NEXT: psraw $15, %xmm8
2492 ; SSE42-NEXT: pshufb %xmm2, %xmm8
2493 ; SSE42-NEXT: punpcklqdq {{.*#+}} xmm8 = xmm8[0],xmm13[0]
2559 ; SSE42-NEXT: pextrb $15, %xmm8, %eax
2562 ; SSE42-NEXT: pextrb $14, %xmm8, %eax
2565 ; SSE42-NEXT: pextrb $13, %xmm8, %eax
2568 ; SSE42-NEXT: pextrb $12, %xmm8, %eax
2571 ; SSE42-NEXT: pextrb $11, %xmm8, %eax
2574 ; SSE42-NEXT: pextrb $10, %xmm8, %eax
2577 ; SSE42-NEXT: pextrb $9, %xmm8, %eax
2580 ; SSE42-NEXT: pextrb $8, %xmm8, %eax
2583 ; SSE42-NEXT: pextrb $7, %xmm8, %eax
2586 ; SSE42-NEXT: pextrb $6, %xmm8, %eax
2589 ; SSE42-NEXT: pextrb $5, %xmm8, %eax
2592 ; SSE42-NEXT: pextrb $4, %xmm8, %eax
2595 ; SSE42-NEXT: pextrb $3, %xmm8, %eax
2598 ; SSE42-NEXT: pextrb $2, %xmm8, %eax
2601 ; SSE42-NEXT: pextrb $1, %xmm8, %eax
2604 ; SSE42-NEXT: pextrb $0, %xmm8, %eax
2613 ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm8
2615 ; AVX1-NEXT: vandps %xmm7, %xmm8, %xmm8
2617 ; AVX1-NEXT: vpackuswb %xmm8, %xmm3, %xmm3
2678 ; AVX512-NEXT: vpinsrd $1, %edx, %xmm5, %xmm8
2684 ; AVX512-NEXT: vpinsrd $2, %edx, %xmm8, %xmm5
2690 ; AVX512-NEXT: vpinsrd $3, %edx, %xmm5, %xmm8
2715 ; AVX512-NEXT: vinserti128 $1, %xmm8, %ymm4, %ymm8
2764 ; AVX512-NEXT: vpmovdb %zmm0, %xmm8
2871 ; SSE2-NEXT: movdqa {{.*#+}} xmm8 = [2147483648,0,2147483648,0]
2872 ; SSE2-NEXT: pxor %xmm8, %xmm7
2874 ; SSE2-NEXT: pxor %xmm8, %xmm9
2885 ; SSE2-NEXT: pxor %xmm8, %xmm6
2887 ; SSE2-NEXT: pxor %xmm8, %xmm7
2898 ; SSE2-NEXT: pxor %xmm8, %xmm5
2900 ; SSE2-NEXT: pxor %xmm8, %xmm7
2910 ; SSE2-NEXT: pxor %xmm8, %xmm4
2912 ; SSE2-NEXT: pxor %xmm8, %xmm5
2924 ; SSE2-NEXT: pxor %xmm8, %xmm3
2926 ; SSE2-NEXT: pxor %xmm8, %xmm5
2936 ; SSE2-NEXT: pxor %xmm8, %xmm2
2938 ; SSE2-NEXT: pxor %xmm8, %xmm3
2949 ; SSE2-NEXT: pxor %xmm8, %xmm1
2951 ; SSE2-NEXT: pxor %xmm8, %xmm3
2961 ; SSE2-NEXT: pxor %xmm8, %xmm0
2962 ; SSE2-NEXT: pxor {{[0-9]+}}(%rsp), %xmm8
2964 ; SSE2-NEXT: pcmpgtd %xmm8, %xmm1
2966 ; SSE2-NEXT: pcmpeqd %xmm0, %xmm8
2967 ; SSE2-NEXT: pshufd {{.*#+}} xmm6 = xmm8[1,1,3,3]
2980 ; SSE42-NEXT: movdqa {{.*#+}} xmm8 = [255,0,0,0,0,0,0,0,255,0,0,0,0,0,0,0]
2981 ; SSE42-NEXT: pand %xmm8, %xmm7
2983 ; SSE42-NEXT: pand %xmm8, %xmm6
2986 ; SSE42-NEXT: pand %xmm8, %xmm5
2988 ; SSE42-NEXT: pand %xmm8, %xmm4
2992 ; SSE42-NEXT: pand %xmm8, %xmm3
2994 ; SSE42-NEXT: pand %xmm8, %xmm2
2997 ; SSE42-NEXT: pand %xmm8, %xmm1
2999 ; SSE42-NEXT: pand %xmm8, %xmm0
3007 ; AVX1-NEXT: vextractf128 $1, %ymm7, %xmm8
3009 ; AVX1-NEXT: vpcmpgtq %xmm8, %xmm9, %xmm9
3010 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm8 = [255,0,0,0,0,0,0,0,255,0,0,0,0,0,0,0]
3011 ; AVX1-NEXT: vpand %xmm8, %xmm9, %xmm9
3013 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3018 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3020 ; AVX1-NEXT: vpand %xmm8, %xmm2, %xmm2
3026 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3028 ; AVX1-NEXT: vpand %xmm8, %xmm1, %xmm1
3033 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3035 ; AVX1-NEXT: vpand %xmm8, %xmm0, %xmm0
3362 ; SSE42-NEXT: movdqa {{.*#+}} xmm8 = [0,1,4,5,8,9,12,13,8,9,12,13,12,13,14,15]
3363 ; SSE42-NEXT: pshufb %xmm8, %xmm3
3365 ; SSE42-NEXT: pshufb %xmm8, %xmm2
3372 ; SSE42-NEXT: pshufb %xmm8, %xmm1
3374 ; SSE42-NEXT: pshufb %xmm8, %xmm0
3381 ; SSE42-NEXT: pshufb %xmm8, %xmm7
3383 ; SSE42-NEXT: pshufb %xmm8, %xmm6
3389 ; SSE42-NEXT: pshufb %xmm8, %xmm5
3391 ; SSE42-NEXT: pshufb %xmm8, %xmm4
3498 ; AVX1-NEXT: vextractf128 $1, %ymm7, %xmm8
3500 ; AVX1-NEXT: vpcmpgtd %xmm8, %xmm9, %xmm9
3501 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm8 = [255,0,0,0,255,0,0,0,255,0,0,0,255,0,0,0]
3502 ; AVX1-NEXT: vpand %xmm8, %xmm9, %xmm9
3504 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3509 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3511 ; AVX1-NEXT: vpand %xmm8, %xmm2, %xmm2
3517 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3519 ; AVX1-NEXT: vpand %xmm8, %xmm1, %xmm1
3524 ; AVX1-NEXT: vpand %xmm8, %xmm3, %xmm3
3526 ; AVX1-NEXT: vpand %xmm8, %xmm0, %xmm0
3782 ; SSE2-NEXT: movdqa {{.*#+}} xmm8 = [255,255,255,255,255,255,255,255]
3783 ; SSE2-NEXT: pand %xmm8, %xmm1
3785 ; SSE2-NEXT: pand %xmm8, %xmm0
3788 ; SSE2-NEXT: pand %xmm8, %xmm3
3790 ; SSE2-NEXT: pand %xmm8, %xmm2
3793 ; SSE2-NEXT: pand %xmm8, %xmm5
3795 ; SSE2-NEXT: pand %xmm8, %xmm4
3798 ; SSE2-NEXT: pand %xmm8, %xmm7
3800 ; SSE2-NEXT: pand %xmm8, %xmm6
4004 ; SSE42-NEXT: movdqa {{.*#+}} xmm8 = <0,2,4,6,8,10,12,14,u,u,u,u,u,u,u,u>
4005 ; SSE42-NEXT: pshufb %xmm8, %xmm1
4007 ; SSE42-NEXT: pshufb %xmm8, %xmm0
4010 ; SSE42-NEXT: pshufb %xmm8, %xmm3
4012 ; SSE42-NEXT: pshufb %xmm8, %xmm2
4015 ; SSE42-NEXT: pshufb %xmm8, %xmm5
4017 ; SSE42-NEXT: pshufb %xmm8, %xmm4
4020 ; SSE42-NEXT: pshufb %xmm8, %xmm7
4022 ; SSE42-NEXT: pshufb %xmm8, %xmm6
4221 ; AVX1-NEXT: vextractf128 $1, %ymm4, %xmm8
4223 ; AVX1-NEXT: vpcmpgtw %xmm8, %xmm9, %xmm8
4225 ; AVX1-NEXT: vpshufb %xmm9, %xmm8, %xmm8
4228 ; AVX1-NEXT: vpunpcklqdq {{.*#+}} xmm8 = xmm0[0],xmm8[0]
4394 ; AVX1-NEXT: vpextrb $15, %xmm8, %eax
4397 ; AVX1-NEXT: vpextrb $14, %xmm8, %eax
4400 ; AVX1-NEXT: vpextrb $13, %xmm8, %eax
4403 ; AVX1-NEXT: vpextrb $12, %xmm8, %eax
4406 ; AVX1-NEXT: vpextrb $11, %xmm8, %eax
4409 ; AVX1-NEXT: vpextrb $10, %xmm8, %eax
4412 ; AVX1-NEXT: vpextrb $9, %xmm8, %eax
4415 ; AVX1-NEXT: vpextrb $8, %xmm8, %eax
4418 ; AVX1-NEXT: vpextrb $7, %xmm8, %eax
4421 ; AVX1-NEXT: vpextrb $6, %xmm8, %eax
4424 ; AVX1-NEXT: vpextrb $5, %xmm8, %eax
4427 ; AVX1-NEXT: vpextrb $4, %xmm8, %eax
4430 ; AVX1-NEXT: vpextrb $3, %xmm8, %eax
4433 ; AVX1-NEXT: vpextrb $2, %xmm8, %eax
4436 ; AVX1-NEXT: vpextrb $1, %xmm8, %eax
4439 ; AVX1-NEXT: vpextrb $0, %xmm8, %eax
4449 ; AVX2-NEXT: vextracti128 $1, %ymm0, %xmm8
4451 ; AVX2-NEXT: vpshufb %xmm4, %xmm8, %xmm8
4453 ; AVX2-NEXT: vpunpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm8[0]
5777 ; AVX1-NEXT: vpcmpgtb %xmm4, %xmm0, %xmm8
6129 ; AVX1-NEXT: vpextrb $15, %xmm8, %eax
6132 ; AVX1-NEXT: vpextrb $14, %xmm8, %eax
6135 ; AVX1-NEXT: vpextrb $13, %xmm8, %eax
6138 ; AVX1-NEXT: vpextrb $12, %xmm8, %eax
6141 ; AVX1-NEXT: vpextrb $11, %xmm8, %eax
6144 ; AVX1-NEXT: vpextrb $10, %xmm8, %eax
6147 ; AVX1-NEXT: vpextrb $9, %xmm8, %eax
6150 ; AVX1-NEXT: vpextrb $8, %xmm8, %eax
6153 ; AVX1-NEXT: vpextrb $7, %xmm8, %eax
6156 ; AVX1-NEXT: vpextrb $6, %xmm8, %eax
6159 ; AVX1-NEXT: vpextrb $5, %xmm8, %eax
6162 ; AVX1-NEXT: vpextrb $4, %xmm8, %eax
6165 ; AVX1-NEXT: vpextrb $3, %xmm8, %eax
6168 ; AVX1-NEXT: vpextrb $2, %xmm8, %eax
6171 ; AVX1-NEXT: vpextrb $1, %xmm8, %eax
6174 ; AVX1-NEXT: vpextrb $0, %xmm8, %eax