Lines Matching full:next
8 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,0,1]
9 ; ALL-NEXT: retq
18 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3,0,1]
19 ; ALL-NEXT: retq
30 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3]
31 ; ALL-NEXT: retq
40 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0
41 ; AVX1-NEXT: retq
45 ; AVX2-NEXT: vpermpd {{.*#+}} ymm0 = ymm0[0,1,0,1]
46 ; AVX2-NEXT: retq
55 ; AVX1-NEXT: vmovaps (%rdi), %ymm0
56 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0
57 ; AVX1-NEXT: retq
61 ; AVX2-NEXT: vpermpd {{.*#+}} ymm0 = mem[0,1,0,1]
62 ; AVX2-NEXT: retq
73 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
74 ; ALL-NEXT: retq
83 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3,2,3]
84 ; ALL-NEXT: retq
95 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
96 ; ALL-NEXT: retq
105 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm0
106 ; AVX1-NEXT: vpaddb {{.*}}(%rip), %xmm0, %xmm0
107 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0
108 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
109 ; AVX1-NEXT: retq
113 ; AVX2-NEXT: vpaddb {{.*}}(%rip), %ymm0, %ymm0
114 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
115 ; AVX2-NEXT: retq
126 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm1[2,3],ymm0[0,1]
127 ; ALL-NEXT: retq
136 ; AVX1-NEXT: vpaddq {{.*}}(%rip), %xmm0, %xmm0
137 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm1[2,3],ymm0[0,1]
138 ; AVX1-NEXT: retq
142 ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2
143 ; AVX2-NEXT: vpaddq %ymm2, %ymm0, %ymm0
144 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm1[2,3],ymm0[0,1]
145 ; AVX2-NEXT: retq
156 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm0
157 ; AVX1-NEXT: vpaddd {{.*}}(%rip), %xmm0, %xmm0
158 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm0, %ymm0
159 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[2,3]
160 ; AVX1-NEXT: retq
164 ; AVX2-NEXT: vpbroadcastd {{.*}}(%rip), %ymm2
165 ; AVX2-NEXT: vpaddd %ymm2, %ymm0, %ymm0
166 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[2,3]
167 ; AVX2-NEXT: retq
178 ; AVX1-NEXT: vpaddw {{.*}}(%rip), %xmm0, %xmm0
179 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
180 ; AVX1-NEXT: retq
184 ; AVX2-NEXT: vpaddw {{.*}}(%rip), %ymm0, %ymm0
185 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
186 ; AVX2-NEXT: retq
197 ; AVX1-NEXT: vmovdqa (%rdi), %ymm0
198 ; AVX1-NEXT: vmovaps (%rsi), %ymm1
199 ; AVX1-NEXT: vpaddw {{.*}}(%rip), %xmm0, %xmm0
200 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
201 ; AVX1-NEXT: retq
205 ; AVX2-NEXT: vmovdqa (%rdi), %ymm0
206 ; AVX2-NEXT: vmovdqa (%rsi), %ymm1
207 ; AVX2-NEXT: vpaddw {{.*}}(%rip), %ymm0, %ymm0
208 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
209 ; AVX2-NEXT: retq
223 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[0,1]
224 ; ALL-NEXT: retq
233 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
234 ; ALL-NEXT: retq
243 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[0,1]
244 ; ALL-NEXT: retq
253 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[2,3]
254 ; ALL-NEXT: retq
263 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
264 ; ALL-NEXT: retq
273 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[0,1]
274 ; ALL-NEXT: retq
283 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3,2,3]
284 ; ALL-NEXT: retq
293 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[2,3]
294 ; ALL-NEXT: retq
305 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],ymm1[2,3]
306 ; ALL-NEXT: vpermilps {{.*#+}} ymm0 = ymm0[0,0,2,3,4,4,6,7]
307 ; ALL-NEXT: retq
321 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = zero,zero,ymm0[0,1]
322 ; ALL-NEXT: retq
329 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = zero,zero,ymm0[0,1]
330 ; ALL-NEXT: retq
338 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
339 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3]
340 ; ALL-NEXT: retq
347 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
348 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3]
349 ; ALL-NEXT: retq
357 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = zero,zero,ymm0[0,1]
358 ; ALL-NEXT: retq
365 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = zero,zero,ymm0[0,1]
366 ; ALL-NEXT: retq
374 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
375 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3]
376 ; ALL-NEXT: retq
383 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
384 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm1[0,1],ymm0[2,3]
385 ; ALL-NEXT: retq
393 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
394 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3]
395 ; ALL-NEXT: retq
402 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
403 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3]
404 ; ALL-NEXT: retq
412 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],zero,zero
413 ; ALL-NEXT: retq
420 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],zero,zero
421 ; ALL-NEXT: retq
429 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
430 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3]
431 ; ALL-NEXT: retq
438 ; ALL-NEXT: vxorpd %ymm1, %ymm1, %ymm1
439 ; ALL-NEXT: vblendpd {{.*#+}} ymm0 = ymm0[0,1],ymm1[2,3]
440 ; ALL-NEXT: retq
448 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],zero,zero
449 ; ALL-NEXT: retq
456 ; ALL-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],zero,zero
457 ; ALL-NEXT: retq
467 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],zero,zero
468 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2
469 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3
470 ; AVX1-NEXT: vpaddq %xmm2, %xmm3, %xmm2
471 ; AVX1-NEXT: vpaddq %xmm0, %xmm1, %xmm0
472 ; AVX1-NEXT: vinsertf128 $1, %xmm2, %ymm0, %ymm0
473 ; AVX1-NEXT: retq
477 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm0[2,3],zero,zero
478 ; AVX2-NEXT: vpaddq %ymm0, %ymm1, %ymm0
479 ; AVX2-NEXT: retq
490 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
491 ; AVX1-NEXT: vaddpd {{.*}}(%rip), %ymm0, %ymm0
492 ; AVX1-NEXT: retq
496 ; AVX2-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
497 ; AVX2-NEXT: vbroadcastsd {{.*}}(%rip), %ymm1
498 ; AVX2-NEXT: vaddpd %ymm1, %ymm0, %ymm0
499 ; AVX2-NEXT: retq
510 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
511 ; AVX1-NEXT: vaddpd {{.*}}(%rip), %ymm0, %ymm0
512 ; AVX1-NEXT: retq
516 ; AVX2-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
517 ; AVX2-NEXT: vbroadcastsd {{.*}}(%rip), %ymm1
518 ; AVX2-NEXT: vaddpd %ymm1, %ymm0, %ymm0
519 ; AVX2-NEXT: retq
530 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
531 ; AVX1-NEXT: vaddps {{.*}}(%rip), %ymm0, %ymm0
532 ; AVX1-NEXT: retq
536 ; AVX2-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
537 ; AVX2-NEXT: vbroadcastss {{.*}}(%rip), %ymm1
538 ; AVX2-NEXT: vaddps %ymm1, %ymm0, %ymm0
539 ; AVX2-NEXT: retq
550 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
551 ; AVX1-NEXT: vaddps {{.*}}(%rip), %ymm0, %ymm0
552 ; AVX1-NEXT: retq
556 ; AVX2-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
557 ; AVX2-NEXT: vbroadcastss {{.*}}(%rip), %ymm1
558 ; AVX2-NEXT: vaddps %ymm1, %ymm0, %ymm0
559 ; AVX2-NEXT: retq
570 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
571 ; AVX1-NEXT: vpaddq {{.*}}(%rip), %xmm0, %xmm1
572 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm0
573 ; AVX1-NEXT: vpaddq {{.*}}(%rip), %xmm0, %xmm0
574 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
575 ; AVX1-NEXT: retq
579 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
580 ; AVX2-NEXT: vpaddq {{.*}}(%rip), %ymm0, %ymm0
581 ; AVX2-NEXT: retq
592 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
593 ; AVX1-NEXT: vpaddq {{.*}}(%rip), %xmm0, %xmm1
594 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm0
595 ; AVX1-NEXT: vpaddq {{.*}}(%rip), %xmm0, %xmm0
596 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
597 ; AVX1-NEXT: retq
601 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
602 ; AVX2-NEXT: vpaddq {{.*}}(%rip), %ymm0, %ymm0
603 ; AVX2-NEXT: retq
614 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
615 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1
616 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [1,2,3,4]
617 ; AVX1-NEXT: vpaddd %xmm2, %xmm1, %xmm1
618 ; AVX1-NEXT: vpaddd %xmm2, %xmm0, %xmm0
619 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
620 ; AVX1-NEXT: retq
624 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = mem[2,3],ymm0[0,1]
625 ; AVX2-NEXT: vpaddd {{.*}}(%rip), %ymm0, %ymm0
626 ; AVX2-NEXT: retq
637 ; AVX1-NEXT: vperm2f128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
638 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1
639 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [1,2,3,4]
640 ; AVX1-NEXT: vpaddd %xmm2, %xmm1, %xmm1
641 ; AVX1-NEXT: vpaddd %xmm2, %xmm0, %xmm0
642 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
643 ; AVX1-NEXT: retq
647 ; AVX2-NEXT: vperm2i128 {{.*#+}} ymm0 = ymm0[2,3],mem[2,3]
648 ; AVX2-NEXT: vpaddd {{.*}}(%rip), %ymm0, %ymm0
649 ; AVX2-NEXT: retq