Lines Matching full:xmm0
12 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
14 ; SSE41-NEXT: pmuludq %xmm0, %xmm1
17 ; SSE41-NEXT: psubd %xmm1, %xmm0
18 ; SSE41-NEXT: psrld $1, %xmm0
19 ; SSE41-NEXT: paddd %xmm1, %xmm0
20 ; SSE41-NEXT: psrld $2, %xmm0
26 ; SSE-NEXT: movdqa %xmm0, %xmm2
30 ; SSE-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
34 ; SSE-NEXT: psubd %xmm2, %xmm0
35 ; SSE-NEXT: psrld $1, %xmm0
36 ; SSE-NEXT: paddd %xmm2, %xmm0
37 ; SSE-NEXT: psrld $2, %xmm0
44 ; AVX-NEXT: vpshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
46 ; AVX-NEXT: vpmuludq %xmm1, %xmm0, %xmm1
49 ; AVX-NEXT: vpsubd %xmm1, %xmm0, %xmm0
50 ; AVX-NEXT: vpsrld $1, %xmm0, %xmm0
51 ; AVX-NEXT: vpaddd %xmm1, %xmm0, %xmm0
52 ; AVX-NEXT: vpsrld $2, %xmm0, %xmm0
63 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
65 ; SSE41-NEXT: movdqa %xmm0, %xmm5
69 ; SSE41-NEXT: psubd %xmm5, %xmm0
70 ; SSE41-NEXT: psrld $1, %xmm0
71 ; SSE41-NEXT: paddd %xmm5, %xmm0
72 ; SSE41-NEXT: psrld $2, %xmm0
87 ; SSE-NEXT: movdqa %xmm0, %xmm3
91 ; SSE-NEXT: pshufd {{.*#+}} xmm5 = xmm0[1,1,3,3]
95 ; SSE-NEXT: psubd %xmm3, %xmm0
96 ; SSE-NEXT: psrld $1, %xmm0
97 ; SSE-NEXT: paddd %xmm3, %xmm0
98 ; SSE-NEXT: psrld $2, %xmm0
133 ; SSE41-NEXT: pmulhuw %xmm0, %xmm1
134 ; SSE41-NEXT: psubw %xmm1, %xmm0
135 ; SSE41-NEXT: psrlw $1, %xmm0
136 ; SSE41-NEXT: paddw %xmm1, %xmm0
137 ; SSE41-NEXT: psrlw $2, %xmm0
143 ; SSE-NEXT: pmulhuw %xmm0, %xmm1
144 ; SSE-NEXT: psubw %xmm1, %xmm0
145 ; SSE-NEXT: psrlw $1, %xmm0
146 ; SSE-NEXT: paddw %xmm1, %xmm0
147 ; SSE-NEXT: psrlw $2, %xmm0
152 ; AVX-NEXT: vpmulhuw {{.*}}(%rip), %xmm0, %xmm1
153 ; AVX-NEXT: vpsubw %xmm1, %xmm0, %xmm0
154 ; AVX-NEXT: vpsrlw $1, %xmm0, %xmm0
155 ; AVX-NEXT: vpaddw %xmm1, %xmm0, %xmm0
156 ; AVX-NEXT: vpsrlw $2, %xmm0, %xmm0
166 ; SSE41-NEXT: movdqa %xmm0, %xmm3
168 ; SSE41-NEXT: psubw %xmm3, %xmm0
169 ; SSE41-NEXT: psrlw $1, %xmm0
170 ; SSE41-NEXT: paddw %xmm3, %xmm0
171 ; SSE41-NEXT: psrlw $2, %xmm0
182 ; SSE-NEXT: movdqa %xmm0, %xmm3
184 ; SSE-NEXT: psubw %xmm3, %xmm0
185 ; SSE-NEXT: psrlw $1, %xmm0
186 ; SSE-NEXT: paddw %xmm3, %xmm0
187 ; SSE-NEXT: psrlw $2, %xmm0
210 ; SSE41-NEXT: pmulhw {{.*}}(%rip), %xmm0
211 ; SSE41-NEXT: movdqa %xmm0, %xmm1
213 ; SSE41-NEXT: psraw $1, %xmm0
214 ; SSE41-NEXT: paddw %xmm1, %xmm0
219 ; SSE-NEXT: pmulhw {{.*}}(%rip), %xmm0
220 ; SSE-NEXT: movdqa %xmm0, %xmm1
222 ; SSE-NEXT: psraw $1, %xmm0
223 ; SSE-NEXT: paddw %xmm1, %xmm0
228 ; AVX-NEXT: vpmulhw {{.*}}(%rip), %xmm0, %xmm0
229 ; AVX-NEXT: vpsrlw $15, %xmm0, %xmm1
230 ; AVX-NEXT: vpsraw $1, %xmm0, %xmm0
231 ; AVX-NEXT: vpaddw %xmm1, %xmm0, %xmm0
241 ; SSE41-NEXT: pmulhw %xmm2, %xmm0
242 ; SSE41-NEXT: movdqa %xmm0, %xmm3
244 ; SSE41-NEXT: psraw $1, %xmm0
245 ; SSE41-NEXT: paddw %xmm3, %xmm0
256 ; SSE-NEXT: pmulhw %xmm2, %xmm0
257 ; SSE-NEXT: movdqa %xmm0, %xmm3
259 ; SSE-NEXT: psraw $1, %xmm0
260 ; SSE-NEXT: paddw %xmm3, %xmm0
282 ; SSE41-NEXT: pextrb $1, %xmm0, %eax
292 ; SSE41-NEXT: pextrb $0, %xmm0, %ecx
304 ; SSE41-NEXT: pextrb $2, %xmm0, %eax
315 ; SSE41-NEXT: pextrb $3, %xmm0, %eax
326 ; SSE41-NEXT: pextrb $4, %xmm0, %eax
337 ; SSE41-NEXT: pextrb $5, %xmm0, %eax
348 ; SSE41-NEXT: pextrb $6, %xmm0, %eax
359 ; SSE41-NEXT: pextrb $7, %xmm0, %eax
370 ; SSE41-NEXT: pextrb $8, %xmm0, %eax
381 ; SSE41-NEXT: pextrb $9, %xmm0, %eax
392 ; SSE41-NEXT: pextrb $10, %xmm0, %eax
403 ; SSE41-NEXT: pextrb $11, %xmm0, %eax
414 ; SSE41-NEXT: pextrb $12, %xmm0, %eax
425 ; SSE41-NEXT: pextrb $13, %xmm0, %eax
436 ; SSE41-NEXT: pextrb $14, %xmm0, %eax
447 ; SSE41-NEXT: pextrb $15, %xmm0, %eax
458 ; SSE41-NEXT: movdqa %xmm1, %xmm0
466 xmm0, -{{[0-9]+}}(%rsp)
476 ; SSE-NEXT: movd %eax, %xmm0
494 ; SSE-NEXT: punpcklbw {{.*#+}} xmm1 = xmm1[0],xmm0[0],xmm1[1],xmm0[1],xmm1[2],xmm0[2],xmm1[3],xmm0[3],xmm1[4],xmm0[4],xmm1[5],xmm0[5],xmm1[6],xmm0[6],xmm1[7],xmm0[7]
516 ; SSE-NEXT: movd %eax, %xmm0
517 ; SSE-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm2[0],xmm0[1],xmm2[1],xmm0[2],xmm2[2],xmm0[3],xmm2[3],xmm0[4],xmm2[4],xmm0[5],xmm2[5],xmm0[6],xmm2[6],xmm0[7],xmm2[7]
518 ; SSE-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],xmm1[3],xmm0[4],xmm1[4],xmm0[5],xmm1[5],xmm0[6],xmm1[6],xmm0[7],xmm1[7]
560 ; SSE-NEXT: punpcklbw {{.*#+}} xmm1 = xmm1[0],xmm0[0],xmm1[1],xmm0[1],xmm1[2],xmm0[2],xmm1[3],xmm0[3],xmm1[4],xmm0[4],xmm1[5],xmm0[5],xmm1[6],xmm0[6],xmm1[7],xmm0[7]
578 ; SSE-NEXT: movd %eax, %xmm0
579 ; SSE-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm2[0],xmm0[1],xmm2[1],xmm0[2],xmm2[2],xmm0[3],xmm2[3],xmm0[4],xmm2[4],xmm0[5],xmm2[5],xmm0[6],xmm2[6],xmm0[7],xmm2[7]
599 ; SSE-NEXT: punpcklbw {{.*#+}} xmm2 = xmm2[0],xmm0[0],xmm2[1],xmm0[1],xmm2[2],xmm0[2],xmm2[3],xmm0[3],xmm2[4],xmm0[4],xmm2[5],xmm0[5],xmm2[6],xmm0[6],xmm2[7],xmm0[7]
608 ; SSE-NEXT: movd %eax, %xmm0
618 ; SSE-NEXT: punpcklbw {{.*#+}} xmm3 = xmm3[0],xmm0[0],xmm3[1],xmm0[1],xmm3[2],xmm0[2],xmm3[3],xmm0[3],xmm3[4],xmm0[4],xmm3[5],xmm0[5],xmm3[6],xmm0[6],xmm3[7],xmm0[7]
637 ; SSE-NEXT: movd %eax, %xmm0
638 ; SSE-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm4[0],xmm0[1],xmm4[1],xmm0[2],xmm4[2],xmm0[3],xmm4[3],xmm0[4],xmm4[4],xmm0[5],xmm4[5],xmm0[6],xmm4[6],xmm0[7],xmm4[7]
639 ; SSE-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm3[0],xmm0[1],xmm3[1],xmm0[2],xmm3[2],xmm0[3],xmm3[3],xmm0[4],xmm3[4],xmm0[5],xmm3[5],xmm0[6],xmm3[6],xmm0[7],xmm3[7]
640 ; SSE-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm2[0],xmm0[1],xmm2[1],xmm0[2],xmm2[2],xmm0[3],xmm2[3],xmm0[4],xmm2[4],xmm0[5],xmm2[5],xmm0[6],xmm2[6],xmm0[7],xmm2[7]
641 ; SSE-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],xmm1[3],xmm0[4],xmm1[4],xmm0[5],xmm1[5],xmm0[6],xmm1[6],xmm0[7],xmm1[7]
649 ; AVX-NEXT: vpextrb $1, %xmm0, %eax
659 ; AVX-NEXT: vpextrb $0, %xmm0, %ecx
670 ; AVX-NEXT: vpextrb $2, %xmm0, %ecx
681 ; AVX-NEXT: vpextrb $3, %xmm0, %ecx
692 ; AVX-NEXT: vpextrb $4, %xmm0, %ecx
703 ; AVX-NEXT: vpextrb $5, %xmm0, %ecx
714 ; AVX-NEXT: vpextrb $6, %xmm0, %ecx
725 ; AVX-NEXT: vpextrb $7, %xmm0, %ecx
736 ; AVX-NEXT: vpextrb $8, %xmm0, %ecx
747 ; AVX-NEXT: vpextrb $9, %xmm0, %ecx
758 ; AVX-NEXT: vpextrb $10, %xmm0, %ecx
769 ; AVX-NEXT: vpextrb $11, %xmm0, %ecx
780 ; AVX-NEXT: vpextrb $12, %xmm0, %ecx
791 ; AVX-NEXT: vpextrb $13, %xmm0, %ecx
802 ; AVX-NEXT: vpextrb $14, %xmm0, %ecx
813 ; AVX-NEXT: vpextrb $15, %xmm0, %ecx
816 ; AVX-NEXT: vpinsrb $14, %eax, %xmm1, %xmm0
824 ; AVX-NEXT: vpinsrb $15, %eax, %xmm0, %xmm0
835 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
837 ; SSE41-NEXT: pmuldq %xmm0, %xmm1
840 ; SSE41-NEXT: paddd %xmm0, %xmm1
841 ; SSE41-NEXT: movdqa %xmm1, %xmm0
842 ; SSE41-NEXT: psrld $31, %xmm0
844 ; SSE41-NEXT: paddd %xmm0, %xmm1
845 ; SSE41-NEXT: movdqa %xmm1, %xmm0
851 ; SSE-NEXT: movdqa %xmm0, %xmm2
854 ; SSE-NEXT: movdqa %xmm0, %xmm3
858 ; SSE-NEXT: pand %xmm0, %xmm1
861 ; SSE-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
866 ; SSE-NEXT: paddd %xmm0, %xmm1
867 ; SSE-NEXT: movdqa %xmm1, %xmm0
868 ; SSE-NEXT: psrld $31, %xmm0
870 ; SSE-NEXT: paddd %xmm0, %xmm1
871 ; SSE-NEXT: movdqa %xmm1, %xmm0
878 ; AVX-NEXT: vpshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
880 ; AVX-NEXT: vpmuldq %xmm1, %xmm0, %xmm1
883 ; AVX-NEXT: vpaddd %xmm0, %xmm1, %xmm0
884 ; AVX-NEXT: vpsrld $31, %xmm0, %xmm1
885 ; AVX-NEXT: vpsrad $2, %xmm0, %xmm0
886 ; AVX-NEXT: vpaddd %xmm1, %xmm0, %xmm0
897 ; SSE41-NEXT: pshufd {{.*#+}} xmm5 = xmm0[1,1,3,3]
899 ; SSE41-NEXT: movdqa %xmm0, %xmm2
903 ; SSE41-NEXT: paddd %xmm0, %xmm2
904 ; SSE41-NEXT: movdqa %xmm2, %xmm0
905 ; SSE41-NEXT: psrld $31, %xmm0
907 ; SSE41-NEXT: paddd %xmm0, %xmm2
908 ; SSE41-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,3,3]
909 ; SSE41-NEXT: pmuldq %xmm4, %xmm0
912 ; SSE41-NEXT: pblendw {{.*#+}} xmm3 = xmm3[0,1],xmm0[2,3],xmm3[4,5],xmm0[6,7]
914 ; SSE41-NEXT: movdqa %xmm3, %xmm0
915 ; SSE41-NEXT: psrld $31, %xmm0
917 ; SSE41-NEXT: paddd %xmm0, %xmm3
918 ; SSE41-NEXT: movdqa %xmm2, %xmm0
924 ; SSE-NEXT: movdqa %xmm0, %xmm2
928 ; SSE-NEXT: movdqa %xmm4, %xmm0
929 ; SSE-NEXT: pand %xmm2, %xmm0
933 ; SSE-NEXT: paddd %xmm0, %xmm5
934 ; SSE-NEXT: movdqa %xmm2, %xmm0
935 ; SSE-NEXT: pmuludq %xmm3, %xmm0
936 ; SSE-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,3,2,3]
941 ; SSE-NEXT: punpckldq {{.*#+}} xmm0 = xmm0[0],xmm7[0],xmm0[1],xmm7[1]
942 ; SSE-NEXT: psubd %xmm5, %xmm0
943 ; SSE-NEXT: paddd %xmm2, %xmm0
944 ; SSE-NEXT: movdqa %xmm0, %xmm2
946 ; SSE-NEXT: psrad $2, %xmm0
947 ; SSE-NEXT: paddd %xmm2, %xmm0
991 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
993 ; SSE41-NEXT: movdqa %xmm0, %xmm5
997 ; SSE41-NEXT: movdqa %xmm0, %xmm4
1004 ; SSE41-NEXT: psubd %xmm4, %xmm0
1022 ; SSE-NEXT: movdqa %xmm0, %xmm2
1026 ; SSE-NEXT: pshufd {{.*#+}} xmm5 = xmm0[1,1,3,3]
1030 ; SSE-NEXT: movdqa %xmm0, %xmm5
1042 ; SSE-NEXT: psubd %xmm5, %xmm0
1089 ; SSE41-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
1091 ; SSE41-NEXT: movdqa %xmm0, %xmm5
1095 ; SSE41-NEXT: paddd %xmm0, %xmm5
1102 ; SSE41-NEXT: psubd %xmm5, %xmm0
1123 ; SSE-NEXT: pand %xmm0, %xmm4
1124 ; SSE-NEXT: movdqa %xmm0, %xmm6
1128 ; SSE-NEXT: movdqa %xmm0, %xmm4
1132 ; SSE-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,1,3,3]
1137 ; SSE-NEXT: paddd %xmm0, %xmm7
1149 ; SSE-NEXT: psubd %xmm7, %xmm0
1200 ; SSE41-NEXT: xorps %xmm0, %xmm0
1205 ; SSE-NEXT: xorps %xmm0, %xmm0
1210 ; AVX-NEXT: vxorps %xmm0, %xmm0, %xmm0
1223 ; SSE41-NEXT: pshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
1225 ; SSE41-NEXT: pmuldq %xmm1, %xmm0
1226 ; SSE41-NEXT: pshufd {{.*#+}} xmm1 = xmm0[1,1,3,3]
1228 ; SSE41-NEXT: movdqa %xmm1, %xmm0
1229 ; SSE41-NEXT: psrld $31, %xmm0
1230 ; SSE41-NEXT: paddd %xmm1, %xmm0
1238 ; SSE-NEXT: pand %xmm0, %xmm2
1239 ; SSE-NEXT: movdqa %xmm0, %xmm3
1243 ; SSE-NEXT: pshufd {{.*#+}} xmm2 = xmm0[1,1,3,3]
1244 ; SSE-NEXT: pmuludq %xmm1, %xmm0
1245 ; SSE-NEXT: pshufd {{.*#+}} xmm4 = xmm0[1,3,2,3]
1246 ; SSE-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,3,3]
1247 ; SSE-NEXT: pmuludq %xmm2, %xmm0
1248 ; SSE-NEXT: pshufd {{.*#+}} xmm0 = xmm0[1,3,2,3]
1249 ; SSE-NEXT: punpckldq {{.*#+}} xmm4 = xmm4[0],xmm0[0],xmm4[1],xmm0[1]
1251 ; SSE-NEXT: movdqa %xmm4, %xmm0
1252 ; SSE-NEXT: psrld $31, %xmm0
1253 ; SSE-NEXT: paddd %xmm4, %xmm0
1260 ; AVX-NEXT: vpshufd {{.*#+}} xmm3 = xmm0[1,1,3,3]
1262 ; AVX-NEXT: vpmuldq %xmm1, %xmm0, %xmm0
1263 ; AVX-NEXT: vpshufd {{.*#+}} xmm0 = xmm0[1,1,3,3]
1264 ; AVX-NEXT: vpblendd {{.*#+}} xmm0 = xmm0[0],xmm2[1],xmm0[2],xmm2[3]
1265 ; AVX-NEXT: vpsrld $31, %xmm0, %xmm1
1266 ; AVX-NEXT: vpaddd %xmm1, %xmm0, %xmm0