Home | History | Annotate | Download | only in X86

Lines Matching full:xmm0

13 ; SSE2-NEXT:    movdqa %xmm0, %xmm1
14 ; SSE2-NEXT: # kill: XMM0<def> XMM1<kill>
15 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
16 ; SSE2-NEXT: pslld $16, %xmm0
17 ; SSE2-NEXT: psrad $16, %xmm0
25 ; SSSE3-NEXT: movdqa %xmm0, %xmm1
26 ; SSSE3-NEXT: # kill: XMM0<def> XMM1<kill>
27 ; SSSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
28 ; SSSE3-NEXT: pslld $16, %xmm0
29 ; SSSE3-NEXT: psrad $16, %xmm0
37 ; SSE41-NEXT: movdqa %xmm0, %xmm1
38 ; SSE41-NEXT: pmovzxwd %xmm1, %xmm0
39 ; SSE41-NEXT: pslld $16, %xmm0
40 ; SSE41-NEXT: psrad $16, %xmm0
48 ; AVX1-NEXT: vpmovsxwd %xmm0, %xmm1
49 ; AVX1-NEXT: vpshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
50 ; AVX1-NEXT: vpmovsxwd %xmm0, %xmm0
51 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
56 ; AVX2-NEXT: vpmovsxwd %xmm0, %ymm0
61 ; X32-SSE41-NEXT: movdqa %xmm0, %xmm1
62 ; X32-SSE41-NEXT: pmovzxwd %xmm1, %xmm0
63 ; X32-SSE41-NEXT: pslld $16, %xmm0
64 ; X32-SSE41-NEXT: psrad $16, %xmm0
77 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[0,1,1,3]
86 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
87 ; SSE2-NEXT: movd %xmm0, %rax
90 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
91 ; SSE2-NEXT: movd %xmm0, %rax
93 ; SSE2-NEXT: movd %rax, %xmm0
94 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm0[0]
95 ; SSE2-NEXT: movdqa %xmm2, %xmm0
100 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm0[0,1,1,3]
109 ; SSSE3-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
110 ; SSSE3-NEXT: movd %xmm0, %rax
113 ; SSSE3-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
114 ; SSSE3-NEXT: movd %xmm0, %rax
116 ; SSSE3-NEXT: movd %rax, %xmm0
117 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm0[0]
118 ; SSSE3-NEXT: movdqa %xmm2, %xmm0
123 ; SSE41-NEXT: pmovzxdq %xmm0, %xmm1
131 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
132 ; SSE41-NEXT: pextrq $1, %xmm0, %rax
135 ; SSE41-NEXT: movd %xmm0, %rax
139 ; SSE41-NEXT: movdqa %xmm2, %xmm0
144 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm1
145 ; AVX1-NEXT: vpshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
146 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm0
147 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
152 ; AVX2-NEXT: vpmovsxdq %xmm0, %ymm0
157 ; X32-SSE41-NEXT: pmovzxdq %xmm0, %xmm2
164 ; X32-SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,2,3,3]
171 ; X32-SSE41-NEXT: movdqa %xmm2, %xmm0
181 ; SSE2-NEXT: movq (%rdi), %xmm0
182 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
183 ; SSE2-NEXT: psrad $16, %xmm0
188 ; SSSE3-NEXT: movq (%rdi), %xmm0
189 ; SSSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
190 ; SSSE3-NEXT: psrad $16, %xmm0
195 ; SSE41-NEXT: pmovsxwd (%rdi), %xmm0
200 ; AVX-NEXT: vpmovsxwd (%rdi), %xmm0
206 ; X32-SSE41-NEXT: pmovsxwd (%eax), %xmm0
217 ; SSE2-NEXT: movd (%rdi), %xmm0
218 ; SSE2-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
219 ; SSE2-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
220 ; SSE2-NEXT: psrad $24, %xmm0
225 ; SSSE3-NEXT: movd (%rdi), %xmm0
226 ; SSSE3-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
227 ; SSSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
228 ; SSSE3-NEXT: psrad $24, %xmm0
233 ; SSE41-NEXT: pmovsxbd (%rdi), %xmm0
238 ; AVX-NEXT: vpmovsxbd (%rdi), %xmm0
244 ; X32-SSE41-NEXT: pmovsxbd (%eax), %xmm0
258 ; SSE2-NEXT: movd %rax, %xmm0
259 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
267 ; SSSE3-NEXT: movd %rax, %xmm0
268 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
273 ; SSE41-NEXT: pmovsxbq (%rdi), %xmm0
278 ; AVX-NEXT: vpmovsxbq (%rdi), %xmm0
284 ; X32-SSE41-NEXT: pmovsxbq (%eax), %xmm0
298 ; SSE2-NEXT: movd %rax, %xmm0
299 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
307 ; SSSE3-NEXT: movd %rax, %xmm0
308 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
313 ; SSE41-NEXT: pmovsxwq (%rdi), %xmm0
318 ; AVX-NEXT: vpmovsxwq (%rdi), %xmm0
324 ; X32-SSE41-NEXT: pmovsxwq (%eax), %xmm0
338 ; SSE2-NEXT: movd %rax, %xmm0
339 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
347 ; SSSE3-NEXT: movd %rax, %xmm0
348 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
353 ; SSE41-NEXT: pmovsxdq (%rdi), %xmm0
358 ; AVX-NEXT: vpmovsxdq (%rdi), %xmm0
364 ; X32-SSE41-NEXT: pmovsxdq (%eax), %xmm0
375 ; SSE2-NEXT: movq (%rdi), %xmm0
376 ; SSE2-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
377 ; SSE2-NEXT: psraw $8, %xmm0
382 ; SSSE3-NEXT: movq (%rdi), %xmm0
383 ; SSSE3-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
384 ; SSSE3-NEXT: psraw $8, %xmm0
389 ; SSE41-NEXT: pmovsxbw (%rdi), %xmm0
394 ; AVX-NEXT: vpmovsxbw (%rdi), %xmm0
400 ; X32-SSE41-NEXT: pmovsxbw (%eax), %xmm0
411 ; SSE2-NEXT: pslld $31, %xmm0
412 ; SSE2-NEXT: psrad $31, %xmm0
413 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[0,1,1,3]
422 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
423 ; SSE2-NEXT: movd %xmm0, %rax
426 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
427 ; SSE2-NEXT: movd %xmm0, %rax
429 ; SSE2-NEXT: movd %rax, %xmm0
430 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm0[0]
431 ; SSE2-NEXT: movdqa %xmm2, %xmm0
436 ; SSSE3-NEXT: pslld $31, %xmm0
437 ; SSSE3-NEXT: psrad $31, %xmm0
438 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm0[0,1,1,3]
447 ; SSSE3-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
448 ; SSSE3-NEXT: movd %xmm0, %rax
451 ; SSSE3-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
452 ; SSSE3-NEXT: movd %xmm0, %rax
454 ; SSSE3-NEXT: movd %rax, %xmm0
455 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm0[0]
456 ; SSSE3-NEXT: movdqa %xmm2, %xmm0
461 ; SSE41-NEXT: pslld $31, %xmm0
462 ; SSE41-NEXT: psrad $31, %xmm0
463 ; SSE41-NEXT: pmovzxdq %xmm0, %xmm1
471 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
472 ; SSE41-NEXT: pextrq $1, %xmm0, %rax
475 ; SSE41-NEXT: movd %xmm0, %rax
479 ; SSE41-NEXT: movdqa %xmm2, %xmm0
484 ; AVX1-NEXT: vpslld $31, %xmm0, %xmm0
485 ; AVX1-NEXT: vpsrad $31, %xmm0, %xmm0
486 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm1
487 ; AVX1-NEXT: vpshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
488 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm0
489 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
494 xmm0, %xmm0
495 ; AVX2-NEXT: vpsrad $31, %xmm0, %xmm0
496 ; AVX2-NEXT: vpmovsxdq %xmm0, %ymm0
501 ; X32-SSE41-NEXT: pslld $31, %xmm0
502 ; X32-SSE41-NEXT: psrad $31, %xmm0
503 ; X32-SSE41-NEXT: pmovzxdq %xmm0, %xmm2
510 ; X32-SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,2,3,3]
517 ; X32-SSE41-NEXT: movdqa %xmm2, %xmm0
526 ; SSE2-NEXT: movq (%rdi), %xmm0
527 ; SSE2-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
528 ; SSE2-NEXT: psraw $8, %xmm0
536 ; SSSE3-NEXT: movq (%rdi), %xmm0
537 ; SSSE3-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
538 ; SSSE3-NEXT: psraw $8, %xmm0
546 ; SSE41-NEXT: pmovsxbw (%rdi), %xmm0
552 ; AVX1-NEXT: vpmovsxbw (%rdi), %xmm0
565 ; X32-SSE41-NEXT: pmovsxbw (%eax), %xmm0
577 ; SSE2-NEXT: pslld $24, %xmm0
578 ; SSE2-NEXT: psrad $24, %xmm0
579 ; SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[0,1,1,3]
588 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
589 ; SSE2-NEXT: movd %xmm0, %rax
592 ; SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
593 ; SSE2-NEXT: movd %xmm0, %rax
595 ; SSE2-NEXT: movd %rax, %xmm0
596 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm0[0]
597 ; SSE2-NEXT: movdqa %xmm2, %xmm0
602 ; SSSE3-NEXT: pslld $24, %xmm0
603 ; SSSE3-NEXT: psrad $24, %xmm0
604 ; SSSE3-NEXT: pshufd {{.*#+}} xmm1 = xmm0[0,1,1,3]
613 ; SSSE3-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
614 ; SSSE3-NEXT: movd %xmm0, %rax
617 ; SSSE3-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
618 ; SSSE3-NEXT: movd %xmm0, %rax
620 ; SSSE3-NEXT: movd %rax, %xmm0
621 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm1 = xmm1[0],xmm0[0]
622 ; SSSE3-NEXT: movdqa %xmm2, %xmm0
627 ; SSE41-NEXT: pslld $24, %xmm0
628 ; SSE41-NEXT: psrad $24, %xmm0
629 ; SSE41-NEXT: pmovzxdq %xmm0, %xmm1
637 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm0[2,2,3,3]
638 ; SSE41-NEXT: pextrq $1, %xmm0, %rax
641 ; SSE41-NEXT: movd %xmm0, %rax
645 ; SSE41-NEXT: movdqa %xmm2, %xmm0
650 ; AVX1-NEXT: vpslld $24, %xmm0, %xmm0
651 ; AVX1-NEXT: vpsrad $24, %xmm0, %xmm0
652 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm1
653 ; AVX1-NEXT: vpshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
654 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm0
655 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
660 ; AVX2-NEXT: vpslld $24, %xmm0, %xmm0
661 ; AVX2-NEXT: vpsrad $24, %xmm0, %xmm0
662 ; AVX2-NEXT: vpmovsxdq %xmm0, %ymm0
667 ; X32-SSE41-NEXT: pslld $24, %xmm0
668 ; X32-SSE41-NEXT: psrad $24, %xmm0
669 ; X32-SSE41-NEXT: pmovzxdq %xmm0, %xmm2
676 ; X32-SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,2,3,3]
683 ; X32-SSE41-NEXT: movdqa %xmm2, %xmm0
695 ; SSE2-NEXT: movd %rax, %xmm0
696 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
709 ; SSSE3-NEXT: movd %rax, %xmm0
710 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
720 ; SSE41-NEXT: pmovsxbq (%rdi), %xmm0
726 ; AVX1-NEXT: vpmovsxbd (%rdi), %xmm0
727 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm1
728 ; AVX1-NEXT: vpshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
729 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm0
730 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
741 ; X32-SSE41-NEXT: pmovsxbq (%eax), %xmm0
756 ; SSE2-NEXT: movd %rax, %xmm0
757 ; SSE2-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
770 ; SSSE3-NEXT: movd %rax, %xmm0
771 ; SSSE3-NEXT: punpcklqdq {{.*#+}} xmm0 = xmm0[0],xmm1[0]
781 ; SSE41-NEXT: pmovsxwq (%rdi), %xmm0
787 ; AVX1-NEXT: vpmovsxwd (%rdi), %xmm0
788 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm1
789 ; AVX1-NEXT: vpshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
790 ; AVX1-NEXT: vpmovsxdq %xmm0, %xmm0
791 ; AVX1-NEXT: vinsertf128 $1, %xmm0, %ymm1, %ymm0
802 ; X32-SSE41-NEXT: pmovsxwq (%eax), %xmm0