Home | History | Annotate | Download | only in X86

Lines Matching full:xmm3

19 ; SSE2-NEXT:    pshufd {{.*#+}} xmm3 = xmm1[2,3,0,1]
22 ; SSE2-NEXT: psrlq %xmm3, %xmm4
26 ; SSE2-NEXT: psrlq %xmm3, %xmm2
37 ; SSE41-NEXT: movdqa %xmm2, %xmm3
38 ; SSE41-NEXT: psrlq %xmm1, %xmm3
41 ; SSE41-NEXT: pblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
42 ; SSE41-NEXT: movdqa %xmm0, %xmm3
43 ; SSE41-NEXT: psrlq %xmm1, %xmm3
45 ; SSE41-NEXT: pblendw {{.*#+}} xmm0 = xmm3[0,1,2,3],xmm0[4,5,6,7]
53 ; AVX1-NEXT: vpsrlq %xmm1, %xmm2, %xmm3
56 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
67 ; AVX2-NEXT: vpsrlvq %xmm1, %xmm2, %xmm3
70 ; AVX2-NEXT: vpsubq %xmm3, %xmm0, %xmm0
83 ; X32-SSE-NEXT: movdqa {{.*#+}} xmm3 = [0,2147483648,0,2147483648]
84 ; X32-SSE-NEXT: movdqa %xmm3, %xmm4
87 ; X32-SSE-NEXT: psrlq %xmm5, %xmm3
88 ; X32-SSE-NEXT: movsd {{.*#+}} xmm4 = xmm3[0],xmm4[1]
106 ; SSE2-NEXT: movdqa %xmm0, %xmm3
107 ; SSE2-NEXT: psrad %xmm2, %xmm3
112 ; SSE2-NEXT: movsd {{.*#+}} xmm3 = xmm4[0],xmm3[1]
113 ; SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm3[1,3,2,3]
114 ; SSE2-NEXT: pxor %xmm3, %xmm3
116 ; SSE2-NEXT: punpckhdq {{.*#+}} xmm4 = xmm4[2],xmm3[2],xmm4[3],xmm3[3]
119 ; SSE2-NEXT: punpckldq {{.*#+}} xmm1 = xmm1[0],xmm3[0],xmm1[1],xmm3[1]
130 ; SSE41-NEXT: movdqa %xmm0, %xmm3
131 ; SSE41-NEXT: psrad %xmm2, %xmm3
136 ; SSE41-NEXT: pblendw {{.*#+}} xmm4 = xmm4[0,1,2,3],xmm3[4,5,6,7]
138 ; SSE41-NEXT: pmovzxdq {{.*#+}} xmm3 = xmm1[0],zero,xmm1[1],zero
142 ; SSE41-NEXT: psrad %xmm3, %xmm0
151 ; AVX1-NEXT: vpsrlq $32, %xmm1, %xmm3
152 ; AVX1-NEXT: vpsrad %xmm3, %xmm0, %xmm3
153 ; AVX1-NEXT: vpblendw {{.*#+}} xmm2 = xmm3[0,1,2,3],xmm2[4,5,6,7]
154 ; AVX1-NEXT: vpxor %xmm3, %xmm3, %xmm3
155 ; AVX1-NEXT: vpunpckhdq {{.*#+}} xmm3 = xmm1[2],xmm3[2],xmm1[3],xmm3[3]
156 ; AVX1-NEXT: vpsrad %xmm3, %xmm0, %xmm3
159 ; AVX1-NEXT: vpblendw {{.*#+}} xmm0 = xmm0[0,1,2,3],xmm3[4,5,6,7]
184 ; X32-SSE-NEXT: movdqa %xmm0, %xmm3
185 ; X32-SSE-NEXT: psrad %xmm2, %xmm3
190 ; X32-SSE-NEXT: movsd {{.*#+}} xmm3 = xmm4[0],xmm3[1]
191 ; X32-SSE-NEXT: pshufd {{.*#+}} xmm2 = xmm3[1,3,2,3]
192 ; X32-SSE-NEXT: pxor %xmm3, %xmm3
194 ; X32-SSE-NEXT: punpckhdq {{.*#+}} xmm4 = xmm4[2],xmm3[2],xmm4[3],xmm3[3]
197 ; X32-SSE-NEXT: punpckldq {{.*#+}} xmm1 = xmm1[0],xmm3[0],xmm1[1],xmm3[1]
213 ; SSE2-NEXT: movdqa %xmm2, %xmm3
214 ; SSE2-NEXT: pandn %xmm0, %xmm3
217 ; SSE2-NEXT: por %xmm3, %xmm0
221 ; SSE2-NEXT: movdqa %xmm2, %xmm3
222 ; SSE2-NEXT: pandn %xmm0, %xmm3
225 ; SSE2-NEXT: por %xmm3, %xmm0
229 ; SSE2-NEXT: movdqa %xmm2, %xmm3
230 ; SSE2-NEXT: pandn %xmm0, %xmm3
233 ; SSE2-NEXT: por %xmm3, %xmm0
250 ; SSE41-NEXT: movdqa %xmm1, %xmm3
251 ; SSE41-NEXT: paddw %xmm3, %xmm3
258 ; SSE41-NEXT: movdqa %xmm3, %xmm0
262 ; SSE41-NEXT: paddw %xmm3, %xmm3
263 ; SSE41-NEXT: movdqa %xmm3, %xmm0
267 ; SSE41-NEXT: paddw %xmm3, %xmm3
268 ; SSE41-NEXT: movdqa %xmm3, %xmm0
279 ; AVX1-NEXT: vpsraw $8, %xmm0, %xmm3
280 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
313 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
314 ; X32-SSE-NEXT: pandn %xmm0, %xmm3
317 ; X32-SSE-NEXT: por %xmm3, %xmm0
321 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
322 ; X32-SSE-NEXT: pandn %xmm0, %xmm3
325 ; X32-SSE-NEXT: por %xmm3, %xmm0
329 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
330 ; X32-SSE-NEXT: pandn %xmm0, %xmm3
333 ; X32-SSE-NEXT: por %xmm3, %xmm0
352 ; SSE2-NEXT: pxor %xmm3, %xmm3
395 ; SSE2-NEXT: pcmpgtw %xmm1, %xmm3
396 ; SSE2-NEXT: movdqa %xmm3, %xmm1
399 ; SSE2-NEXT: pand %xmm3, %xmm0
410 ; SSE41-NEXT: punpckhbw {{.*#+}} xmm3 = xmm3[8],xmm2[8],xmm3[9],xmm2[9],xmm3[10],xmm2[10],xmm3[11],xmm2[11],xmm3[12],xmm2[12],xmm3[13],xmm2[13],xmm3[14],xmm2[14],xmm3[15],xmm2[15]
411 ; SSE41-NEXT: movdqa %xmm3, %xmm4
413 ; SSE41-NEXT: pblendvb %xmm4, %xmm3
414 ; SSE41-NEXT: movdqa %xmm3, %xmm4
417 ; SSE41-NEXT: pblendvb %xmm4, %xmm3
418 ; SSE41-NEXT: movdqa %xmm3, %xmm4
421 ; SSE41-NEXT: pblendvb %xmm4, %xmm3
422 ; SSE41-NEXT: psrlw $8, %xmm3
437 ; SSE41-NEXT: packuswb %xmm3, %xmm1
445 ; AVX-NEXT: vpunpckhbw {{.*#+}} xmm3 = xmm0[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15]
446 ; AVX-NEXT: vpsraw $4, %xmm3, %xmm4
447 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
448 ; AVX-NEXT: vpsraw $2, %xmm3, %xmm4
450 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
451 ; AVX-NEXT: vpsraw $1, %xmm3, %xmm4
453 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
457 ; AVX-NEXT: vpsraw $4, %xmm0, %xmm3
458 ; AVX-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
459 ; AVX-NEXT: vpsraw $2, %xmm0, %xmm3
461 ; AVX-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
462 ; AVX-NEXT: vpsraw $1, %xmm0, %xmm3
464 ; AVX-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
481 ; X32-SSE-NEXT: pxor %xmm3, %xmm3
524 ; X32-SSE-NEXT: pcmpgtw %xmm1, %xmm3
525 ; X32-SSE-NEXT: movdqa %xmm3, %xmm1
528 ; X32-SSE-NEXT: pand %xmm3, %xmm0
678 ; SSE2-NEXT: pshufhw {{.*#+}} xmm3 = xmm1[0,1,2,3,4,4,4,4]
680 ; SSE2-NEXT: psllw $5, %xmm3
681 ; SSE2-NEXT: punpckhbw {{.*#+}} xmm4 = xmm4[8],xmm3[8],xmm4[9],xmm3[9],xmm4[10],xmm3[10],xmm4[11],xmm3[11],xmm4[12],xmm3[12],xmm4[13],xmm3[13],xmm4[14],xmm3[14],xmm4[15],xmm3[15]
708 ; SSE2-NEXT: punpcklbw {{.*#+}} xmm3 = xmm3[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
710 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm4
716 ; SSE2-NEXT: paddw %xmm3, %xmm3
718 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm4
724 ; SSE2-NEXT: paddw %xmm3, %xmm3
725 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm2
726 ; SSE2-NEXT: movdqa %xmm2, %xmm3
727 ; SSE2-NEXT: pandn %xmm0, %xmm3
730 ; SSE2-NEXT: por %xmm3, %xmm0
742 ; SSE41-NEXT: punpckhbw {{.*#+}} xmm3 = xmm3[8],xmm2[8],xmm3[9],xmm2[9],xmm3[10],xmm2[10],xmm3[11],xmm2[11],xmm3[12],xmm2[12],xmm3[13],xmm2[13],xmm3[14],xmm2[14],xmm3[15],xmm2[15]
743 ; SSE41-NEXT: movdqa %xmm3, %xmm4
745 ; SSE41-NEXT: pblendvb %xmm4, %xmm3
746 ; SSE41-NEXT: movdqa %xmm3, %xmm4
749 ; SSE41-NEXT: pblendvb %xmm4, %xmm3
750 ; SSE41-NEXT: movdqa %xmm3, %xmm4
753 ; SSE41-NEXT: pblendvb %xmm4, %xmm3
754 ; SSE41-NEXT: psrlw $8, %xmm3
769 ; SSE41-NEXT: packuswb %xmm3, %xmm1
779 ; AVX1-NEXT: vpunpckhbw {{.*#+}} xmm3 = xmm0[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15]
780 ; AVX1-NEXT: vpsraw $4, %xmm3, %xmm4
781 ; AVX1-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
782 ; AVX1-NEXT: vpsraw $2, %xmm3, %xmm4
784 ; AVX1-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
785 ; AVX1-NEXT: vpsraw $1, %xmm3, %xmm4
787 ; AVX1-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
791 ; AVX1-NEXT: vpsraw $4, %xmm0, %xmm3
792 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
793 ; AVX1-NEXT: vpsraw $2, %xmm0, %xmm3
795 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
796 ; AVX1-NEXT: vpsraw $1, %xmm0, %xmm3
798 ; AVX1-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
808 ; AVX2-NEXT: vpunpckhbw {{.*#+}} xmm3 = xmm0[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15]
809 ; AVX2-NEXT: vpsraw $4, %xmm3, %xmm4
810 ; AVX2-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
811 ; AVX2-NEXT: vpsraw $2, %xmm3, %xmm4
813 ; AVX2-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
814 ; AVX2-NEXT: vpsraw $1, %xmm3, %xmm4
816 ; AVX2-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
820 ; AVX2-NEXT: vpsraw $4, %xmm0, %xmm3
821 ; AVX2-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
822 ; AVX2-NEXT: vpsraw $2, %xmm0, %xmm3
824 ; AVX2-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
825 ; AVX2-NEXT: vpsraw $1, %xmm0, %xmm3
827 ; AVX2-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
853 ; X32-SSE-NEXT: pshufhw {{.*#+}} xmm3 = xmm1[0,1,2,3,4,4,4,4]
855 ; X32-SSE-NEXT: psllw $5, %xmm3
856 ; X32-SSE-NEXT: punpckhbw {{.*#+}} xmm4 = xmm4[8],xmm3[8],xmm4[9],xmm3[9],xmm4[10],xmm3[10],xmm4[11],xmm3[11],xmm4[12],xmm3[12],xmm4[13],xmm3[13],xmm4[14],xmm3[14],xmm4[15],xmm3[15]
883 ; X32-SSE-NEXT: punpcklbw {{.*#+}} xmm3 = xmm3[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
885 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm4
891 ; X32-SSE-NEXT: paddw %xmm3, %xmm3
893 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm4
899 ; X32-SSE-NEXT: paddw %xmm3, %xmm3
900 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm2
901 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
902 ; X32-SSE-NEXT: pandn %xmm0, %xmm3
905 ; X32-SSE-NEXT: por %xmm3, %xmm0
1159 ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [0,1,2,3,4,5,6,7,7,6,5,4,3,2,1,0]
1160 ; SSE2-NEXT: psllw $5, %xmm3
1161 ; SSE2-NEXT: punpckhbw {{.*#+}} xmm4 = xmm4[8],xmm3[8],xmm4[9],xmm3[9],xmm4[10],xmm3[10],xmm4[11],xmm3[11],xmm4[12],xmm3[12],xmm4[13],xmm3[13],xmm4[14],xmm3[14],xmm4[15],xmm3[15]
1188 ; SSE2-NEXT: punpcklbw {{.*#+}} xmm3 = xmm3[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
1190 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm4
1196 xmm3, %xmm3
1198 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm4
1204 ; SSE2-NEXT: paddw %xmm3, %xmm3
1205 ; SSE2-NEXT: pcmpgtw %xmm3, %xmm2
1206 ; SSE2-NEXT: movdqa %xmm2, %xmm3
1207 ; SSE2-NEXT: pandn %xmm0, %xmm3
1210 ; SSE2-NEXT: por %xmm3, %xmm0
1218 ; SSE41-NEXT: movdqa {{.*#+}} xmm3 = [0,1,2,3,4,5,6,7,7,6,5,4,3,2,1,0]
1219 ; SSE41-NEXT: psllw $5, %xmm3
1220 ; SSE41-NEXT: punpckhbw {{.*#+}} xmm0 = xmm0[8],xmm3[8],xmm0[9],xmm3[9],xmm0[10],xmm3[10],xmm0[11],xmm3[11],xmm0[12],xmm3[12],xmm0[13],xmm3[13],xmm0[14],xmm3[14],xmm0[15],xmm3[15]
1234 ; SSE41-NEXT: punpcklbw {{.*#+}} xmm0 = xmm0[0],xmm3[0],xmm0[1],xmm3[1],xmm0[2],xmm3[2],xmm0[3],xmm3[3],xmm0[4],xmm3[4],xmm0[5],xmm3[5],xmm0[6],xmm3[6],xmm0[7],xmm3[7]
1236 ; SSE41-NEXT: movdqa %xmm1, %xmm3
1237 ; SSE41-NEXT: psraw $4, %xmm3
1238 ; SSE41-NEXT: pblendvb %xmm3, %xmm1
1239 ; SSE41-NEXT: movdqa %xmm1, %xmm3
1240 ; SSE41-NEXT: psraw $2, %xmm3
1242 ; SSE41-NEXT: pblendvb %xmm3, %xmm1
1243 ; SSE41-NEXT: movdqa %xmm1, %xmm3
1244 ; SSE41-NEXT: psraw $1, %xmm3
1246 ; SSE41-NEXT: pblendvb %xmm3, %xmm1
1257 ; AVX-NEXT: vpunpckhbw {{.*#+}} xmm3 = xmm0[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15]
1258 ; AVX-NEXT: vpsraw $4, %xmm3, %xmm4
1259 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
1260 ; AVX-NEXT: vpsraw $2, %xmm3, %xmm4
1262 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm3
1263 ; AVX-NEXT: vpsraw $1, %xmm3, %xmm4
1265 ; AVX-NEXT: vpblendvb %xmm2, %xmm4, %xmm3, %xmm2
1269 ; AVX-NEXT: vpsraw $4, %xmm0, %xmm3
1270 ; AVX-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
1271 ; AVX-NEXT: vpsraw $2, %xmm0, %xmm3
1273 ; AVX-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
1274 ; AVX-NEXT: vpsraw $1, %xmm0, %xmm3
1276 ; AVX-NEXT: vpblendvb %xmm1, %xmm3, %xmm0, %xmm0
1291 ; X32-SSE-NEXT: movdqa {{.*#+}} xmm3 = [0,1,2,3,4,5,6,7,7,6,5,4,3,2,1,0]
1292 ; X32-SSE-NEXT: psllw $5, %xmm3
1293 ; X32-SSE-NEXT: punpckhbw {{.*#+}} xmm4 = xmm4[8],xmm3[8],xmm4[9],xmm3[9],xmm4[10],xmm3[10],xmm4[11],xmm3[11],xmm4[12],xmm3[12],xmm4[13],xmm3[13],xmm4[14],xmm3[14],xmm4[15],xmm3[15]
1320 ; X32-SSE-NEXT: punpcklbw {{.*#+}} xmm3 = xmm3[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
1322 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm4
1328 ; X32-SSE-NEXT: paddw %xmm3, %xmm3
1330 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm4
1336 ; X32-SSE-NEXT: paddw %xmm3, %xmm3
1337 ; X32-SSE-NEXT: pcmpgtw %xmm3, %xmm2
1338 ; X32-SSE-NEXT: movdqa %xmm2, %xmm3
1339 ; X32-SSE-NEXT: pandn %xmm0, %xmm3
1342 ; X32-SSE-NEXT: por %xmm3, %xmm0