Home | History | Annotate | Download | only in X86

Lines Matching full:ymm2

280 ; AVX2-NEXT:    vmovaps {{.*#+}} ymm2 = <u,0,u,1,u,2,u,3>
281 ; AVX2-NEXT: vpermps %ymm1, %ymm2, %ymm1
282 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <0,u,1,u,2,u,3,u>
283 ; AVX2-NEXT: vpermps %ymm0, %ymm2, %ymm0
297 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm2, %ymm0
302 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <0,u,u,u,1,u,u,u>
303 ; AVX2-NEXT: vpermps %ymm0, %ymm2, %ymm0
304 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <u,0,1,1,u,2,3,3>
305 ; AVX2-NEXT: vpermps %ymm1, %ymm2, %ymm1
317 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm2, %ymm0
323 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <0,u,1,u,2,u,3,u>
324 ; AVX2-NEXT: vpermps %ymm0, %ymm2, %ymm0
341 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <0,u,u,u,1,u,u,u>
342 ; AVX2-NEXT: vpermps %ymm0, %ymm2, %ymm0
640 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm2 = ymm0[2,3,0,1]
641 ; AVX1-NEXT: vshufps {{.*#+}} ymm0 = ymm0[0,3],ymm2[0,0],ymm0[4,7],ymm2[4,4]
642 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm2 = ymm1[2,3,0,1]
644 ; AVX1-NEXT: vblendpd {{.*#+}} ymm1 = ymm2[0],ymm1[1,2],ymm2[3]
650 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <u,3,4,u,u,u,u,0>
651 ; AVX2-NEXT: vpermps %ymm0, %ymm2, %ymm0
652 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <4,u,u,0,4,5,2,u>
653 ; AVX2-NEXT: vpermps %ymm1, %ymm2, %ymm1
663 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm2 = ymm0[2,3,0,1]
664 ; AVX1-NEXT: vpermilpd {{.*#+}} ymm2 = ymm2[0,0,3,2]
666 ; AVX1-NEXT: vblendpd {{.*#+}} ymm0 = ymm2[0],ymm0[1],ymm2[2],ymm0[3]
674 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <7,u,u,u,u,u,u,2>
675 ; AVX2-NEXT: vpermps %ymm1, %ymm2, %ymm1
676 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <u,5,1,1,2,3,5,u>
677 ; AVX2-NEXT: vpermps %ymm0, %ymm2, %ymm0
786 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <u,u,u,u,1,3,5,7>
787 ; AVX2-NEXT: vpermps %ymm1, %ymm2, %ymm1
788 ; AVX2-NEXT: vmovaps {{.*#+}} ymm2 = <1,3,5,7,u,u,u,u>
789 ; AVX2-NEXT: vpermps %ymm0, %ymm2, %ymm0
1202 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm2 = <u,0,u,1,u,2,u,3>
1203 ; AVX2-NEXT: vpermd %ymm1, %ymm2, %ymm1
1218 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm2, %ymm0
1223 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm2 = <0,u,u,u,1,u,u,u>
1224 ; AVX2-NEXT: vpermd %ymm0, %ymm2, %ymm0
1225 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm2 = <u,0,1,1,u,2,3,3>
1226 ; AVX2-NEXT: vpermd %ymm1, %ymm2, %ymm1
1238 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm2, %ymm0
1261 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm2 = <0,u,u,u,1,u,u,u>
1262 ; AVX2-NEXT: vpermd %ymm0, %ymm2, %ymm0
1739 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm2 = ymm1[2,3,0,1]
1740 ; AVX1-NEXT: vshufps {{.*#+}} ymm1 = ymm2[0,0],ymm1[2,2],ymm2[4,4],ymm1[6,6]
1749 ; AVX2-NEXT: vmovdqa {{.*#+}} ymm2 = <u,4,2,2,0,u,6,u>
1750 ; AVX2-NEXT: vpermd %ymm1, %ymm2, %ymm1