Home | History | Annotate | Download | only in X86

Lines Matching full:ymm1

29 ; AVX1-NEXT:    vinsertf128 $1, %xmm0, %ymm1, %ymm0
36 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
48 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
55 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
67 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
74 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
86 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
93 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
105 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
112 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
124 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
131 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
143 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
150 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
164 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
174 ; AVX2-NEXT: vpblendvb %ymm2, %ymm0, %ymm1, %ymm0
188 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
193 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm1 = ymm0[2,3,0,1]
195 ; AVX2-NEXT: vpblendvb %ymm2, %ymm1, %ymm0, %ymm0
210 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
215 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm1 = ymm0[2,3,0,1]
216 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0],ymm1[1,2,3,4,5,6,7]
231 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
236 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm1 = ymm0[2,3,0,1]
237 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0],ymm1[1,2,3,4,5,6,7]
252 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
257 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm1 = ymm0[2,3,0,1]
258 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3,4,5,6,7]
273 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
278 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm1 = ymm0[2,3,0,1]
279 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3,4,5,6,7]
294 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
299 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm1 = ymm0[2,3,0,1]
300 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3,4,5,6,7]
315 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
320 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm1 = ymm0[2,3,0,1]
321 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3,4,5,6,7]
336 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
356 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
376 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
396 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
416 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
436 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
564 ; AVX1-NEXT: vandnps %ymm1, %ymm2, %ymm1
566 ; AVX1-NEXT: vorps %ymm1, %ymm0, %ymm0
571 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
582 ; AVX1-NEXT: vandps %ymm2, %ymm1, %ymm1
583 ; AVX1-NEXT: vorps %ymm0, %ymm1, %ymm0
588 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm1[0],ymm0[1],ymm1[2],ymm0[3],ymm1[4],ymm0[5],ymm1[6],ymm0[7],ymm1[8],ymm0[9],ymm1[10],ymm0[11],ymm1[12],ymm0[13],ymm1[14],ymm0[15]
597 ; AVX1-NEXT: vblendps {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7]
602 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7]
611 ; AVX1-NEXT: vblendpd {{.*#+}} ymm0 = ymm1[0],ymm0[1],ymm1[2],ymm0[3]
616 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3],ymm1[4,5],ymm0[6,7]
626 ; AVX1-NEXT: vandnps %ymm1, %ymm2, %ymm1
628 ; AVX1-NEXT: vorps %ymm1, %ymm0, %ymm0
634 ; AVX2-NEXT: vpblendvb %ymm2, %ymm0, %ymm1, %ymm0
644 ; AVX1-NEXT: vandnps %ymm1, %ymm2, %ymm1
646 ; AVX1-NEXT: vorps %ymm1, %ymm0, %ymm0
652 ; AVX2-NEXT: vpblendvb %ymm2, %ymm0, %ymm1, %ymm0
662 ; AVX1-NEXT: vandnps %ymm1, %ymm2, %ymm1
664 ; AVX1-NEXT: vorps %ymm1, %ymm0, %ymm0
670 ; AVX2-NEXT: vpblendvb %ymm2, %ymm0, %ymm1, %ymm0
680 ; AVX1-NEXT: vandnps %ymm1, %ymm2, %ymm1
682 ; AVX1-NEXT: vorps %ymm1, %ymm0, %ymm0
688 ; AVX2-NEXT: vpblendvb %ymm2, %ymm0, %ymm1, %ymm0
697 ; AVX1-NEXT: vblendps {{.*#+}} ymm0 = ymm0[0],ymm1[1,2],ymm0[3,4],ymm1[5],ymm0[6],ymm1[7]
702 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0],ymm1[1,2],ymm0[3,4],ymm1[5],ymm0[6],ymm1[7]
730 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
740 ; AVX2-NEXT: vpshuflw {{.*#+}} ymm1 = ymm1[0,0,0,0,4,5,6,7,8,8,8,8,12,13,14,15]
741 ; AVX2-NEXT: vpshufd {{.*#+}} ymm1 = ymm1[0,0,1,1,4,4,5,5]
742 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
753 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
764 ; AVX2-NEXT: vpshuflw {{.*#+}} ymm1 = ymm1[0,0,0,0,4,5,6,7,8,8,8,8,12,13,14,15]
765 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3],ymm1[4,5],ymm0[6,7]
774 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
789 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3],ymm1[4,5],ymm0[6,7]
801 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
812 ; AVX2-NEXT: vpshuflw {{.*#+}} ymm1 = ymm1[3,2,1,0,4,5,6,7,11,10,9,8,12,13,14,15]
815 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3],ymm1[4,5],ymm0[6,7]
950 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
959 ; AVX2-NEXT: vpunpcklwd {{.*#+}} ymm0 = ymm0[0],ymm1[0],ymm0[1],ymm1[1],ymm0[2],ymm1[2],ymm0[3],ymm1[3],ymm0[8],ymm1[8],ymm0[9],ymm1[9],ymm0[10],ymm1[10],ymm0[11],ymm1[11]
968 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
977 ; AVX2-NEXT: vpunpckhwd {{.*#+}} ymm0 = ymm0[4],ymm1[4],ymm0[5],ymm1[5],ymm0[6],ymm1[6],ymm0[7],ymm1[7],ymm0[12],ymm1[12],ymm0[13],ymm1[13],ymm0[14],ymm1[14],ymm0[15],ymm1[15]
986 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
995 ; AVX2-NEXT: vpshufb {{.*#+}} ymm1 = ymm1[u,u,0,1,u,u,2,3,u,u,4,5,u,u,6,7,u,u,24,25,u,u,26,27,u,u,28,29,u,u,30,31]
997 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
1006 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1015 ; AVX2-NEXT: vpshufb {{.*#+}} ymm1 = ymm1[u,u,8,9,u,u,10,11,u,u,12,13,u,u,14,15,u,u,16,17,u,u,18,19,u,u,20,21,u,u,22,23]
1017 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
1029 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1046 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1063 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1080 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1097 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1114 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1131 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1149 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1167 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1185 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1202 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1220 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1239 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1283 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[0,1]
1297 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
1305 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[2,3]
1318 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
1326 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1,2,3],ymm1[4,5,6,7]
1358 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1375 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1396 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1413 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1430 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1444 ; AVX1-NEXT: vxorps %ymm1, %ymm1, %ymm1
1445 ; AVX1-NEXT: vshufps {{.*#+}} ymm0 = ymm0[1,3],ymm1[1,3],ymm0[5,7],ymm1[5,7]
1463 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
1494 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1503 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm1[14,15],ymm0[0,1,2,3,4,5,6,7,8,9,10,11,12,13],ymm1[30,31],ymm0[16,17,18,19,20,21,22,23,24,25,26,27,28,29]
1513 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
1521 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm0[2,3,4,5,6,7,8,9,10,11,12,13,14,15],ymm1[0,1],ymm0[18,19,20,21,22,23,24,25,26,27,28,29,30,31],ymm1[16,17]
1530 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
1539 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm1[2,3,4,5,6,7,8,9,10,11,12,13,14,15],ymm0[0,1],ymm1[18,19,20,21,22,23,24,25,26,27,28,29,30,31],ymm0[16,17]
1549 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
1557 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm0[14,15],ymm1[0,1,2,3,4,5,6,7,8,9,10,11,12,13],ymm0[30,31],ymm1[16,17,18,19,20,21,22,23,24,25,26,27,28,29]
1647 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
1657 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3],ymm1[4,5],ymm0[6,7]
2388 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
2472 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2483 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
2488 ; AVX2-NEXT: vinserti128 $1, %xmm3, %ymm1, %ymm1
2490 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
2500 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
2511 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3],ymm0[4,5],ymm1[6,7]
2526 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2537 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
2542 ; AVX2-NEXT: vinserti128 $1, %xmm3, %ymm1, %ymm1
2544 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
2553 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2565 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3],ymm1[4,5],ymm0[6,7]
2580 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2596 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
2602 ; AVX2-NEXT: vinserti128 $1, %xmm2, %ymm1, %ymm1
2605 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
2614 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2628 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
2633 ; AVX2-NEXT: vinserti128 $1, %xmm4, %ymm1, %ymm1
2636 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7],ymm0[8],ymm1[9],ymm0[10],ymm1[11],ymm0[12],ymm1[13],ymm0[14],ymm1[15]
2645 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2654 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
2659 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm2
2664 ; AVX2-NEXT: vinserti128 $1, %xmm2, %ymm1, %ymm1
2666 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2],ymm1[3],ymm0[4],ymm1[5],ymm0[6],ymm1[7]
2676 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
2692 ; AVX2-NEXT: vpunpcklwd {{.*#+}} ymm1 = ymm1[0],ymm0[0],ymm1[1],ymm0[1],ymm1[2],ymm0[2],ymm1[3],ymm0[3],ymm1[8],ymm0[8],ymm1[9],ymm0[9],ymm1[10],ymm0[10],ymm1[11],ymm0[11]
2693 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm1[0],ymm0[1],ymm1[2],ymm0[3],ymm1[4],ymm0[5],ymm1[6],ymm0[7],ymm1[8],ymm0[9],ymm1[10],ymm0[11],ymm1[12],ymm0[13],ymm1[14],ymm0[15]
2703 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
2719 ; AVX2-NEXT: vpunpckhwd {{.*#+}} ymm1 = ymm1[4],ymm0[4],ymm1[5],ymm0[5],ymm1[6],ymm0[6],ymm1[7],ymm0[7],ymm1[12],ymm0[12],ymm1[13],ymm0[13],ymm1[14],ymm0[14],ymm1[15],ymm0[15]
2720 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm1[0],ymm0[1],ymm1[2],ymm0[3],ymm1[4],ymm0[5],ymm1[6],ymm0[7],ymm1[8],ymm0[9],ymm1[10],ymm0[11],ymm1[12],ymm0[13],ymm1[14],ymm0[15]
2731 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
2744 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3],ymm0[4,5],ymm1[6,7]
2763 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
2773 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0,1],ymm1[2],ymm0[3,4,5,6,7,8,9],ymm1[10],ymm0[11,12,13,14,15]
2784 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2796 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3],ymm0[4,5],ymm1[6,7]
2806 ; AVX1-NEXT: vpermilps {{.*#+}} ymm0 = ymm1[0,2,2,3,4,6,6,7]
2811 ; AVX2-NEXT: vpshufd {{.*#+}} ymm0 = ymm1[0,2,2,3,4,6,6,7]
2821 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
2831 ; AVX2-NEXT: vpshufd {{.*#+}} ymm1 = ymm1[0,2,2,3,4,6,6,7]
2832 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0,1,2],ymm1[3],ymm0[4,5,6,7,8,9,10],ymm1[11],ymm0[12,13,14,15]
2841 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2852 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm1[0,1,2,3,4,5,6],ymm0[7],ymm1[8,9,10,11,12,13,14],ymm0[15]
2862 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
2872 ; AVX2-NEXT: vpshufd {{.*#+}} ymm1 = ymm1[2,3,2,3,6,7,6,7]
2873 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm1[0,1,2],ymm0[3],ymm1[4,5,6,7,8,9,10],ymm0[11],ymm1[12,13,14,15]
2886 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
2894 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3],ymm0[4,5],ymm1[6,7]
2909 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2920 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0],ymm1[1],ymm0[2,3],ymm1[4,5,6],ymm0[7,8],ymm1[9],ymm0[10,11],ymm1[12,13,14],ymm0[15]
2929 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
2943 ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm1
2944 ; AVX2-NEXT: vpbroadcastd %xmm1, %ymm1
2947 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0,1,2,3,4,5,6],ymm1[7],ymm0[8,9,10,11,12,13,14],ymm1[15]
2956 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2970 ; AVX2-NEXT: vpshufb {{.*#+}} ymm1 = ymm1[0,1,4,5,4,5,6,7,0,1,4,5,8,9,4,5,16,17,20,21,20,21,22,23,16,17,20,21,24,25,20,21]
2972 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3],ymm0[4,5],ymm1[6,7]
2981 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
2993 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0,1,2,3,4],ymm1[5,6,7],ymm0[8,9,10,11,12],ymm1[13,14,15]
3007 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
3016 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm1[10,11,12,13,14,15],ymm0[0,1,2,3,4,5,6,7,8,9],ymm1[26,27,28,29,30,31],ymm0[16,17,18,19,20,21,22,23,24,25]
3050 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
3067 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
3081 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
3093 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0,1,2],ymm1[3,4,5,6,7],ymm0[8,9,10],ymm1[11,12,13,14,15]
3107 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2
3116 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm1[6,7,8,9,10,11,12,13,14,15],ymm0[0,1,2,3,4,5],ymm1[22,23,24,25,26,27,28,29,30,31],ymm0[16,17,18,19,20,21]
3150 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
3167 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
3182 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
3193 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm1[0,1,2],ymm0[3,4,5,6,7],ymm1[8,9,10],ymm0[11,12,13,14,15]
3208 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
3216 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm0[6,7,8,9,10,11,12,13,14,15],ymm1[0,1,2,3,4,5],ymm0[22,23,24,25,26,27,28,29,30,31],ymm1[16,17,18,19,20,21]
3226 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
3237 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm1[0,1,2,3,4],ymm0[5,6,7],ymm1[8,9,10,11,12],ymm0[13,14,15]
3252 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
3260 ; AVX2-NEXT: vpalignr {{.*#+}} ymm0 = ymm0[10,11,12,13,14,15],ymm1[0,1,2,3,4,5,6,7,8,9],ymm0[26,27,28,29,30,31],ymm1[16,17,18,19,20,21,22,23,24,25]
3271 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
3282 ; AVX2-NEXT: vpblendw {{.*#+}} ymm0 = ymm0[0,1,2,3],ymm1[4],ymm0[5,6],ymm1[7],ymm0[8,9,10,11],ymm1[12],ymm0[13,14],ymm1[15]
3392 ; AVX1-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3]
3397 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = ymm0[0,1,2,3],ymm1[4,5,6,7]
3408 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[2,3]
3423 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
3441 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm2 = ymm1[2,3,0,1]
3443 ; AVX2-NEXT: vpshufb {{.*#+}} ymm1 = ymm1[8,9,10,11,4,5,8,9,0,1,14,15,12,13,0,1,24,25,26,27,20,21,24,25,16,17,30,31,28,29,16,17]
3445 ; AVX2-NEXT: vpblendvb %ymm3, %ymm2, %ymm1, %ymm1
3452 ; AVX2-NEXT: vpblendvb %ymm2, %ymm1, %ymm0, %ymm0