Home | History | Annotate | Download | only in X86

Lines Matching full:next

8 ; SSE2-NEXT:    movd %xmm1, %eax
9 ; SSE2-NEXT: movzwl %ax, %eax
10 ; SSE2-NEXT: movd %eax, %xmm1
11 ; SSE2-NEXT: psllw %xmm1, %xmm0
12 ; SSE2-NEXT: retq
16 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
17 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3,4,5,6,7]
18 ; AVX-NEXT: vpsllw %xmm1, %xmm0, %xmm0
19 ; AVX-NEXT: retq
29 ; SSE2-NEXT: xorps %xmm2, %xmm2
30 ; SSE2-NEXT: movss {{.*#+}} xmm2 = xmm1[0],xmm2[1,2,3]
31 ; SSE2-NEXT: pslld %xmm2, %xmm0
32 ; SSE2-NEXT: retq
36 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
37 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
38 ; AVX-NEXT: vpslld %xmm1, %xmm0, %xmm0
39 ; AVX-NEXT: retq
49 ; SSE2-NEXT: psllq %xmm1, %xmm0
50 ; SSE2-NEXT: retq
54 ; AVX-NEXT: vpsllq %xmm1, %xmm0, %xmm0
55 ; AVX-NEXT: retq
65 ; SSE2-NEXT: movd %xmm1, %eax
66 ; SSE2-NEXT: movzwl %ax, %eax
67 ; SSE2-NEXT: movd %eax, %xmm1
68 ; SSE2-NEXT: psrlw %xmm1, %xmm0
69 ; SSE2-NEXT: retq
73 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
74 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3,4,5,6,7]
75 ; AVX-NEXT: vpsrlw %xmm1, %xmm0, %xmm0
76 ; AVX-NEXT: retq
86 ; SSE2-NEXT: xorps %xmm2, %xmm2
87 ; SSE2-NEXT: movss {{.*#+}} xmm2 = xmm1[0],xmm2[1,2,3]
88 ; SSE2-NEXT: psrld %xmm2, %xmm0
89 ; SSE2-NEXT: retq
93 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
94 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
95 ; AVX-NEXT: vpsrld %xmm1, %xmm0, %xmm0
96 ; AVX-NEXT: retq
106 ; SSE2-NEXT: psrlq %xmm1, %xmm0
107 ; SSE2-NEXT: retq
111 ; AVX-NEXT: vpsrlq %xmm1, %xmm0, %xmm0
112 ; AVX-NEXT: retq
122 ; SSE2-NEXT: movd %xmm1, %eax
123 ; SSE2-NEXT: movzwl %ax, %eax
124 ; SSE2-NEXT: movd %eax, %xmm1
125 ; SSE2-NEXT: psraw %xmm1, %xmm0
126 ; SSE2-NEXT: retq
130 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
131 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0],xmm2[1,2,3,4,5,6,7]
132 ; AVX-NEXT: vpsraw %xmm1, %xmm0, %xmm0
133 ; AVX-NEXT: retq
143 ; SSE2-NEXT: xorps %xmm2, %xmm2
144 ; SSE2-NEXT: movss {{.*#+}} xmm2 = xmm1[0],xmm2[1,2,3]
145 ; SSE2-NEXT: psrad %xmm2, %xmm0
146 ; SSE2-NEXT: retq
150 ; AVX-NEXT: vpxor %xmm2, %xmm2, %xmm2
151 ; AVX-NEXT: vpblendw {{.*#+}} xmm1 = xmm1[0,1],xmm2[2,3,4,5,6,7]
152 ; AVX-NEXT: vpsrad %xmm1, %xmm0, %xmm0
153 ; AVX-NEXT: retq