Home | History | Annotate | Download | only in X86

Lines Matching full:next

12 ; AVX-NEXT:    vmovups 32(%rdi), %ymm0
13 ; AVX-NEXT: retq
17 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
18 ; X32-AVX-NEXT: vmovups 32(%eax), %ymm0
19 ; X32-AVX-NEXT: retl
31 ; AVX-NEXT: vmovaps 32(%rdi), %xmm0
32 ; AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
33 ; AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
34 ; AVX-NEXT: retq
38 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
39 ; X32-AVX-NEXT: vmovaps 32(%eax), %xmm0
40 ; X32-AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
41 ; X32-AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
42 ; X32-AVX-NEXT: retl
52 ; AVX-NEXT: vmovups 16(%rdi), %ymm0
53 ; AVX-NEXT: retq
57 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
58 ; X32-AVX-NEXT: vmovups 16(%eax), %ymm0
59 ; X32-AVX-NEXT: retl
78 ; AVX-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
79 ; AVX-NEXT: retq
83 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
84 ; X32-AVX-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
85 ; X32-AVX-NEXT: retl
96 ; AVX-NEXT: vmovups 24(%rdi), %xmm0
97 ; AVX-NEXT: retq
101 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
102 ; X32-AVX-NEXT: vmovups 24(%eax), %xmm0
103 ; X32-AVX-NEXT: retl
116 ; AVX-NEXT: vmovups 32(%rdi), %xmm0
117 ; AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
118 ; AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
119 ; AVX-NEXT: retq
123 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
124 ; X32-AVX-NEXT: vmovups 32(%eax), %xmm0
125 ; X32-AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
126 ; X32-AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
127 ; X32-AVX-NEXT: retl
140 ; AVX-NEXT: vxorpd %ymm0, %ymm0, %ymm0
141 ; AVX-NEXT: vblendpd {{.*#+}} ymm0 = mem[0,1],ymm0[2],mem[3]
142 ; AVX-NEXT: retq
146 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
147 ; X32-AVX-NEXT: vxorpd %ymm0, %ymm0, %ymm0
148 ; X32-AVX-NEXT: vblendpd {{.*#+}} ymm0 = mem[0,1],ymm0[2],mem[3]
149 ; X32-AVX-NEXT: retl
166 ; AVX-NEXT: vmovaps 48(%rdi), %xmm0
167 ; AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
168 ; AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
169 ; AVX-NEXT: retq
173 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
174 ; X32-AVX-NEXT: vmovaps 48(%eax), %xmm0
175 ; X32-AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
176 ; X32-AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
177 ; X32-AVX-NEXT: retl
187 ; AVX-NEXT: vmovups 8(%rdi), %ymm0
188 ; AVX-NEXT: retq
192 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
193 ; X32-AVX-NEXT: vmovups 8(%eax), %ymm0
194 ; X32-AVX-NEXT: retl
213 ; AVX-NEXT: vmovq {{.*#+}} xmm0 = mem[0],zero
214 ; AVX-NEXT: retq
218 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
219 ; X32-AVX-NEXT: vmovq {{.*#+}} xmm0 = mem[0],zero
220 ; X32-AVX-NEXT: retl
232 ; AVX-NEXT: vmovups 16(%rdi), %xmm0
233 ; AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
234 ; AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
235 ; AVX-NEXT: retq
239 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
240 ; X32-AVX-NEXT: vmovups 16(%eax), %xmm0
241 ; X32-AVX-NEXT: vxorps %xmm1, %xmm1, %xmm1
242 ; X32-AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
243 ; X32-AVX-NEXT: retl
256 ; AVX1-NEXT: vmovupd 16(%rdi), %xmm0
257 ; AVX1-NEXT: vxorpd %xmm1, %xmm1, %xmm1
258 ; AVX1-NEXT: vmovhpd {{.*#+}} xmm1 = xmm1[0],mem[0]
259 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
260 ; AVX1-NEXT: retq
264 ; AVX2-NEXT: vmovupd 16(%rdi), %xmm0
265 ; AVX2-NEXT: vxorpd %xmm1, %xmm1, %xmm1
266 ; AVX2-NEXT: vmovhpd {{.*#+}} xmm1 = xmm1[0],mem[0]
267 ; AVX2-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
268 ; AVX2-NEXT: retq
272 ; AVX512F-NEXT: vmovups 16(%rdi), %xmm0
273 ; AVX512F-NEXT: vxorps %xmm1, %xmm1, %xmm1
274 ; AVX512F-NEXT: vmovhpd {{.*#+}} xmm1 = xmm1[0],mem[0]
275 ; AVX512F-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
276 ; AVX512F-NEXT: retq
280 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
281 ; X32-AVX-NEXT: vxorpd %ymm0, %ymm0, %ymm0
282 ; X32-AVX-NEXT: vblendpd {{.*#+}} ymm0 = mem[0,1],ymm0[2],mem[3]
283 ; X32-AVX-NEXT: retl
299 ; AVX-NEXT: vxorps %xmm0, %xmm0, %xmm0
300 ; AVX-NEXT: vinsertf128 $1, 32(%rdi), %ymm0, %ymm0
301 ; AVX-NEXT: retq
305 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
306 ; X32-AVX-NEXT: vxorps %xmm0, %xmm0, %xmm0
307 ; X32-AVX-NEXT: vinsertf128 $1, 32(%eax), %ymm0, %ymm0
308 ; X32-AVX-NEXT: retl
318 ; AVX-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
319 ; AVX-NEXT: retq
323 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
324 ; X32-AVX-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
325 ; X32-AVX-NEXT: retl
342 ; AVX-NEXT: vxorps %ymm0, %ymm0, %ymm0
343 ; AVX-NEXT: vblendps {{.*#+}} ymm0 = mem[0,1,2,3,4],ymm0[5],mem[6,7]
344 ; AVX-NEXT: retq
348 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
349 ; X32-AVX-NEXT: vxorps %ymm0, %ymm0, %ymm0
350 ; X32-AVX-NEXT: vblendps {{.*#+}} ymm0 = mem[0,1,2,3,4],ymm0[5],mem[6,7]
351 ; X32-AVX-NEXT: retl
371 ; AVX-NEXT: vxorps %xmm0, %xmm0, %xmm0
372 ; AVX-NEXT: vinsertf128 $1, 48(%rdi), %ymm0, %ymm0
373 ; AVX-NEXT: retq
377 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
378 ; X32-AVX-NEXT: vxorps %xmm0, %xmm0, %xmm0
379 ; X32-AVX-NEXT: vinsertf128 $1, 48(%eax), %ymm0, %ymm0
380 ; X32-AVX-NEXT: retl
390 ; AVX1-NEXT: vmovq {{.*#+}} xmm0 = mem[0],zero
391 ; AVX1-NEXT: vmovd {{.*#+}} xmm1 = mem[0],zero,zero,zero
392 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
393 ; AVX1-NEXT: retq
397 ; AVX2-NEXT: vmovq {{.*#+}} xmm0 = mem[0],zero
398 ; AVX2-NEXT: vmovd {{.*#+}} xmm1 = mem[0],zero,zero,zero
399 ; AVX2-NEXT: vinserti128 $1, %xmm1, %ymm0, %ymm0
400 ; AVX2-NEXT: retq
404 ; AVX512F-NEXT
405 ; AVX512F-NEXT: vmovd {{.*#+}} xmm1 = mem[0],zero,zero,zero
406 ; AVX512F-NEXT: vinserti128 $1, %xmm1, %ymm0, %ymm0
407 ; AVX512F-NEXT: retq
411 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
412 ; X32-AVX-NEXT: vmovq {{.*#+}} xmm0 = mem[0],zero
413 ; X32-AVX-NEXT: vmovd {{.*#+}} xmm1 = mem[0],zero,zero,zero
414 ; X32-AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
415 ; X32-AVX-NEXT: retl
435 ; AVX1-NEXT: vxorps %ymm0, %ymm0, %ymm0
436 ; AVX1-NEXT: vblendps {{.*#+}} ymm0 = mem[0,1,2,3,4],ymm0[5],mem[6,7]
437 ; AVX1-NEXT: retq
441 ; AVX2-NEXT: vpxor %ymm0, %ymm0, %ymm0
442 ; AVX2-NEXT: vpblendd {{.*#+}} ymm0 = mem[0,1,2,3,4],ymm0[5],mem[6,7]
443 ; AVX2-NEXT: retq
447 ; AVX512F-NEXT: vpxor %ymm0, %ymm0, %ymm0
448 ; AVX512F-NEXT: vpblendd {{.*#+}} ymm0 = mem[0,1,2,3,4],ymm0[5],mem[6,7]
449 ; AVX512F-NEXT: retq
453 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
454 ; X32-AVX-NEXT: vxorps %ymm0, %ymm0, %ymm0
455 ; X32-AVX-NEXT: vblendps {{.*#+}} ymm0 = mem[0,1,2,3,4],ymm0[5],mem[6,7]
456 ; X32-AVX-NEXT: retl
476 ; AVX-NEXT: vmovd {{.*#+}} xmm0 = mem[0],zero,zero,zero
477 ; AVX-NEXT: retq
481 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
482 ; X32-AVX-NEXT: vmovd {{.*#+}} xmm0 = mem[0],zero,zero,zero
483 ; X32-AVX-NEXT: retl
500 ; AVX-NEXT: vmovq {{.*#+}} xmm0 = mem[0],zero
501 ; AVX-NEXT: retq
505 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
506 ; X32-AVX-NEXT: vmovq {{.*#+}} xmm0 = mem[0],zero
507 ; X32-AVX-NEXT: retl
523 ; AVX-NEXT: vmovups (%rdi), %ymm0
524 ; AVX-NEXT: retq
528 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
529 ; X32-AVX-NEXT: vmovups (%eax), %ymm0
530 ; X32-AVX-NEXT: retl
552 ; AVX1-NEXT: vmovaps {{.*#+}} ymm0 = [65535,0,0,65535,0,0,0,0,0,0,0,0,65535,0,65535,65535]
553 ; AVX1-NEXT: vandps (%rdi), %ymm0, %ymm0
554 ; AVX1-NEXT: retq
558 ; AVX2-NEXT: vmovups (%rdi), %ymm0
559 ; AVX2-NEXT: vandps {{.*}}(%rip), %ymm0, %ymm0
560 ; AVX2-NEXT: retq
564 ; AVX512F-NEXT: vmovups (%rdi), %ymm0
565 ; AVX512F-NEXT: vandps {{.*}}(%rip), %ymm0, %ymm0
566 ; AVX512F-NEXT: retq
570 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
571 ; X32-AVX-NEXT: vmovaps {{.*#+}} ymm0 = [65535,0,0,65535,0,0,0,0,0,0,0,0,65535,0,65535,65535]
572 ; X32-AVX-NEXT: vandps (%eax), %ymm0, %ymm0
573 ; X32-AVX-NEXT: retl
598 ; AVX-NEXT: vmovd {{.*#+}} xmm0 = mem[0],zero,zero,zero
599 ; AVX-NEXT: retq
603 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
604 ; X32-AVX-NEXT: vmovd {{.*#+}} xmm0 = mem[0],zero,zero,zero
605 ; X32-AVX-NEXT: retl
621 ; AVX-NEXT: vmovd {{.*#+}} xmm0 = mem[0],zero,zero,zero
622 ; AVX-NEXT: retq
626 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
627 ; X32-AVX-NEXT: vmovd {{.*#+}} xmm0 = mem[0],zero,zero,zero
628 ; X32-AVX-NEXT: retl
652 ; AVX1-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
653 ; AVX1-NEXT: vmovhpd {{.*#+}} xmm0 = xmm0[0],mem[0]
654 ; AVX1-NEXT: vxorpd %xmm1, %xmm1, %xmm1
655 ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
656 ; AVX1-NEXT: retq
660 ; AVX2-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
661 ; AVX2-NEXT: vmovhpd {{.*#+}} xmm0 = xmm0[0],mem[0]
662 ; AVX2-NEXT: vxorpd %xmm1, %xmm1, %xmm1
663 ; AVX2-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
664 ; AVX2-NEXT: retq
668 ; AVX512F-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
669 ; AVX512F-NEXT: vmovhpd {{.*#+}} xmm0 = xmm0[0],mem[0]
670 ; AVX512F-NEXT: vxorps %xmm1, %xmm1, %xmm1
671 ; AVX512F-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
672 ; AVX512F-NEXT: retq
676 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
677 ; X32-AVX-NEXT: vmovsd {{.*#+}} xmm0 = mem[0],zero
678 ; X32-AVX-NEXT: vmovhpd {{.*#+}} xmm0 = xmm0[0],mem[0]
679 ; X32-AVX-NEXT: vxorpd %xmm1, %xmm1, %xmm1
680 ; X32-AVX-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
681 ; X32-AVX-NEXT: retl
695 ; AVX1-NEXT: vpxor %xmm0, %xmm0, %xmm0
696 ; AVX1-NEXT: vpinsrw $0, (%rdi), %xmm0, %xmm1
697 ; AVX1-NEXT: vpinsrw $3, 6(%rdi), %xmm1, %xmm1
698 ; AVX1-NEXT: vpinsrw $4, 24(%rdi), %xmm0, %xmm0
699 ; AVX1-NEXT: vpinsrw $6, 28(%rdi), %xmm0, %xmm0
700 ; AVX1-NEXT: vpinsrw $7, 30(%rdi), %xmm0, %xmm0
701 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
702 ; AVX1-NEXT: retq
706 ; AVX2-NEXT: vpxor %xmm0, %xmm0, %xmm0
707 ; AVX2-NEXT: vpinsrw $0, (%rdi), %xmm0, %xmm1
708 ; AVX2-NEXT: vpinsrw $3, 6(%rdi), %xmm1, %xmm1
709 ; AVX2-NEXT: vpinsrw $4, 24(%rdi), %xmm0, %xmm0
710 ; AVX2-NEXT: vpinsrw $6, 28(%rdi), %xmm0, %xmm0
711 ; AVX2-NEXT: vpinsrw $7, 30(%rdi), %xmm0, %xmm0
712 ; AVX2-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
713 ; AVX2-NEXT: retq
717 ; AVX512F-NEXT: vpxor %xmm0, %xmm0, %xmm0
718 ; AVX512F-NEXT: vpinsrw $0, (%rdi), %xmm0, %xmm1
719 ; AVX512F-NEXT: vpinsrw $3, 6(%rdi), %xmm1, %xmm1
720 ; AVX512F-NEXT: vpinsrw $4, 24(%rdi), %xmm0, %xmm0
721 ; AVX512F-NEXT: vpinsrw $6, 28(%rdi), %xmm0, %xmm0
722 ; AVX512F-NEXT: vpinsrw $7, 30(%rdi), %xmm0, %xmm0
723 ; AVX512F-NEXT: vinserti128 $1, %xmm0, %ymm1, %ymm0
724 ; AVX512F-NEXT: retq
728 ; X32-AVX-NEXT: movl {{[0-9]+}}(%esp), %eax
729 ; X32-AVX-NEXT: vpxor %xmm0, %xmm0, %xmm0
730 ; X32-AVX-NEXT: vpinsrw $0, (%eax), %xmm0, %xmm1
731 ; X32-AVX-NEXT: vpinsrw $3, 6(%eax), %xmm1, %xmm1
732 ; X32-AVX-NEXT: vpinsrw $4, 24(%eax), %xmm0, %xmm0
733 ; X32-AVX-NEXT: vpinsrw $6, 28(%eax), %xmm0, %xmm0
734 ; X32-AVX-NEXT: vpinsrw $7, 30(%eax), %xmm0, %xmm0
735 ; X32-AVX-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
736 ; X32-AVX-NEXT: retl