Lines Matching full:xmm3
21 ; SSE-NEXT: movaps %xmm2, %xmm3
22 ; SSE-NEXT: andps %xmm1, %xmm3
25 ; SSE-NEXT: orps %xmm3, %xmm2
64 ; SSE-NEXT: movaps %xmm2, %xmm3
65 ; SSE-NEXT: andps %xmm1, %xmm3
68 ; SSE-NEXT: orps %xmm3, %xmm2
103 ; SSE-NEXT: movaps %xmm0, %xmm3
104 ; SSE-NEXT: shufps {{.*#+}} xmm3 = xmm3[3,1,2,3]
105 ; SSE-NEXT: movaps %xmm3, %xmm4
109 ; SSE-NEXT: maxss %xmm3, %xmm2
116 ; SSE-NEXT: movaps %xmm5, %xmm3
117 ; SSE-NEXT: cmpunordss %xmm3, %xmm3
118 ; SSE-NEXT: movaps %xmm3, %xmm6
121 ; SSE-NEXT: andnps %xmm2, %xmm3
122 ; SSE-NEXT: orps %xmm6, %xmm3
123 ; SSE-NEXT: unpcklps {{.*#+}} xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1]
142 ; SSE-NEXT: unpcklps {{.*#+}} xmm2 = xmm2[0],xmm3[0],xmm2[1],xmm3[1]
147 ; AVX-NEXT: vcmpunordss %xmm0, %xmm0, %xmm3
148 ; AVX-NEXT: vblendvps %xmm3, %xmm1, %xmm2, %xmm2
149 ; AVX-NEXT: vmovshdup {{.*#+}} xmm3 = xmm0[1,1,3,3]
151 ; AVX-NEXT: vmaxss %xmm3, %xmm4, %xmm5
152 ; AVX-NEXT: vcmpunordss %xmm3, %xmm3, %xmm3
153 ; AVX-NEXT: vblendvps %xmm3, %xmm4, %xmm5, %xmm3
154 ; AVX-NEXT: vinsertps {{.*#+}} xmm2 = xmm2[0],xmm3[0],xmm2[2,3]
155 ; AVX-NEXT: vpermilpd {{.*#+}} xmm3 = xmm0[1,0]
157 ; AVX-NEXT: vmaxss %xmm3, %xmm4, %xmm5
158 ; AVX-NEXT: vcmpunordss %xmm3, %xmm3, %xmm3
159 ; AVX-NEXT: vblendvps %xmm3, %xmm4, %xmm5, %xmm3
160 ; AVX-NEXT: vinsertps {{.*#+}} xmm2 = xmm2[0,1],xmm3[0],xmm2[3]
163 ; AVX-NEXT: vmaxss %xmm0, %xmm1, %xmm3
165 ; AVX-NEXT: vblendvps %xmm0, %xmm1, %xmm3, %xmm0
178 ; SSE-NEXT: movaps %xmm0, %xmm3
179 ; SSE-NEXT: shufps {{.*#+}} xmm3 = xmm3[3,1,2,3]
180 ; SSE-NEXT: movaps %xmm3, %xmm4
184 ; SSE-NEXT: maxss %xmm3, %xmm2
191 ; SSE-NEXT: movaps %xmm5, %xmm3
192 ; SSE-NEXT: cmpunordss %xmm3, %xmm3
193 ; SSE-NEXT: movaps %xmm3, %xmm6
196 ; SSE-NEXT: andnps %xmm2, %xmm3
197 ; SSE-NEXT: orps %xmm6, %xmm3
198 ; SSE-NEXT: unpcklps {{.*#+}} xmm3 = xmm3[0],xmm4[0],xmm3[1],xmm4[1]
217 ; SSE-NEXT: unpcklps {{.*#+}} xmm2 = xmm2[0],xmm3[0],xmm2[1],xmm3[1]
222 ; AVX-NEXT: vcmpunordss %xmm0, %xmm0, %xmm3
223 ; AVX-NEXT: vblendvps %xmm3, %xmm1, %xmm2, %xmm2
224 ; AVX-NEXT: vmovshdup {{.*#+}} xmm3 = xmm0[1,1,3,3]
226 ; AVX-NEXT: vmaxss %xmm3, %xmm4, %xmm5
227 ; AVX-NEXT: vcmpunordss %xmm3, %xmm3, %xmm3
228 ; AVX-NEXT: vblendvps %xmm3, %xmm4, %xmm5, %xmm3
229 ; AVX-NEXT: vinsertps {{.*#+}} xmm2 = xmm2[0],xmm3[0],xmm2[2,3]
230 ; AVX-NEXT: vpermilpd {{.*#+}} xmm3 = xmm0[1,0]
232 ; AVX-NEXT: vmaxss %xmm3, %xmm4, %xmm5
233 ; AVX-NEXT: vcmpunordss %xmm3, %xmm3, %xmm3
234 ; AVX-NEXT: vblendvps %xmm3, %xmm4, %xmm5, %xmm3
235 ; AVX-NEXT: vinsertps {{.*#+}} xmm2 = xmm2[0,1],xmm3[0],xmm2[3]
238 ; AVX-NEXT: vmaxss %xmm0, %xmm1, %xmm3
240 ; AVX-NEXT: vblendvps %xmm0, %xmm1, %xmm3, %xmm0