Lines Matching full:ebx
35 // CHECK: vaddss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
37 vaddss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
39 // CHECK: vsubss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
41 vsubss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
43 // CHECK: vmulss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
45 vmulss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
47 // CHECK: vdivss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
49 vdivss 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
51 // CHECK: vaddsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
53 vaddsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
55 // CHECK: vsubsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
57 vsubsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
59 // CHECK: vmulsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
61 vmulsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
63 // CHECK: vdivsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
65 vdivsd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
99 // CHECK: vaddps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
101 vaddps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
103 // CHECK: vsubps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
105 vsubps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
107 // CHECK: vmulps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
109 vmulps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
111 // CHECK: vdivps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
113 vdivps 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
115 // CHECK: vaddpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
117 vaddpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
119 // CHECK: vsubpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
121 vsubpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
123 // CHECK: vmulpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
125 vmulpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
127 // CHECK: vdivpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
129 vdivpd 3735928559(%ebx,%ecx,8), %xmm2, %xmm5
146 // CHECK: vmaxss -4(%ebx,%ecx,8), %xmm2, %xmm5
148 vmaxss -4(%ebx,%ecx,8), %xmm2, %xmm5
150 // CHECK: vmaxsd -4(%ebx,%ecx,8), %xmm2, %xmm5
152 vmaxsd -4(%ebx,%ecx,8), %xmm2, %xmm5
154 // CHECK: vminss -4(%ebx,%ecx,8), %xmm2, %xmm5
156 vminss -4(%ebx,%ecx,8), %xmm2, %xmm5
158 // CHECK: vminsd -4(%ebx,%ecx,8), %xmm2, %xmm5
160 vminsd -4(%ebx,%ecx,8), %xmm2, %xmm5
178 // CHECK: vmaxps -4(%ebx,%ecx,8), %xmm2, %xmm5
180 vmaxps -4(%ebx,%ecx,8), %xmm2, %xmm5
182 // CHECK: vmaxpd -4(%ebx,%ecx,8), %xmm2, %xmm5
184 vmaxpd -4(%ebx,%ecx,8), %xmm2, %xmm5
186 // CHECK: vminps -4(%ebx,%ecx,8), %xmm2, %xmm5
188 vminps -4(%ebx,%ecx,8), %xmm2, %xmm5
190 // CHECK: vminpd -4(%ebx,%ecx,8), %xmm2, %xmm5
192 vminpd -4(%ebx,%ecx,8), %xmm2, %xmm5
202 // CHECK: vandps -4(%ebx,%ecx,8), %xmm2, %xmm5
204 vandps -4(%ebx,%ecx,8), %xmm2, %xmm5
206 // CHECK: vandpd -4(%ebx,%ecx,8), %xmm2, %xmm5
208 vandpd -4(%ebx,%ecx,8), %xmm2, %xmm5
218 // CHECK: vorps -4(%ebx,%ecx,8), %xmm2, %xmm5
220 vorps -4(%ebx,%ecx,8), %xmm2, %xmm5
222 // CHECK: vorpd -4(%ebx,%ecx,8), %xmm2, %xmm5
224 vorpd -4(%ebx,%ecx,8), %xmm2, %xmm5
234 // CHECK: vxorps -4(%ebx,%ecx,8), %xmm2, %xmm5
236 vxorps -4(%ebx,%ecx,8), %xmm2, %xmm5
238 // CHECK: vxorpd -4(%ebx,%ecx,8), %xmm2, %xmm5
240 vxorpd -4(%ebx,%ecx,8), %xmm2, %xmm5
250 // CHECK: vandnps -4(%ebx,%ecx,8), %xmm2, %xmm5
252 vandnps -4(%ebx,%ecx,8), %xmm2, %xmm5
254 // CHECK: vandnpd -4(%ebx,%ecx,8), %xmm2, %xmm5
256 vandnpd -4(%ebx,%ecx,8), %xmm2, %xmm5
258 // CHECK: vmovss -4(%ebx,%ecx,8), %xmm5
260 vmovss -4(%ebx,%ecx,8), %xmm5
266 // CHECK: vmovsd -4(%ebx,%ecx,8), %xmm5
268 vmovsd -4(%ebx,%ecx,8), %xmm5
290 // CHECK: vunpckhps -4(%ebx,%ecx,8), %xmm2, %xmm5
292 vunpckhps -4(%ebx,%ecx,8), %xmm2, %xmm5
294 // CHECK: vunpckhpd -4(%ebx,%ecx,8), %xmm2, %xmm5
296 vunpckhpd -4(%ebx,%ecx,8), %xmm2, %xmm5
298 // CHECK: vunpcklps -4(%ebx,%ecx,8), %xmm2, %xmm5
300 vunpcklps -4(%ebx,%ecx,8), %xmm2, %xmm5
302 // CHECK: vunpcklpd -4(%ebx,%ecx,8), %xmm2, %xmm5
304 vunpcklpd -4(%ebx,%ecx,8), %xmm2, %xmm5
334 // CHECK: vshufps $8, -4(%ebx,%ecx,8), %xmm2, %xmm3
336 vshufps $8, -4(%ebx,%ecx,8), %xmm2, %xmm3
342 // CHECK: vshufpd $8, -4(%ebx,%ecx,8), %xmm2, %xmm3
344 vshufpd $8, -4(%ebx,%ecx,8), %xmm2, %xmm3
378 // CHECK: vcmpps $0, -4(%ebx,%ecx,8), %xmm2, %xmm3
380 vcmpeqps -4(%ebx,%ecx,8), %xmm2, %xmm3
382 // CHECK: vcmpps $2, -4(%ebx,%ecx,8), %xmm2, %xmm3
384 vcmpleps -4(%ebx,%ecx,8), %xmm2, %xmm3
386 // CHECK: vcmpps $1, -4(%ebx,%ecx,8), %xmm2, %xmm3
388 vcmpltps -4(%ebx,%ecx,8), %xmm2, %xmm3
390 // CHECK: vcmpps $4, -4(%ebx,%ecx,8), %xmm2, %xmm3
392 vcmpneqps -4(%ebx,%ecx,8), %xmm2, %xmm3
394 // CHECK: vcmpps $6, -4(%ebx,%ecx,8), %xmm2, %xmm3
396 vcmpnleps -4(%ebx,%ecx,8), %xmm2, %xmm3
398 // CHECK: vcmpps $5, -4(%ebx,%ecx,8), %xmm2, %xmm3
400 vcmpnltps -4(%ebx,%ecx,8), %xmm2, %xmm3
402 // CHECK: vcmpps $7, -4(%ebx,%ecx,8), %xmm6, %xmm2
404 vcmpordps -4(%ebx,%ecx,8), %xmm6, %xmm2
406 // CHECK: vcmpps $3, -4(%ebx,%ecx,8), %xmm2, %xmm3
408 vcmpunordps -4(%ebx,%ecx,8), %xmm2, %xmm3
442 // CHECK: vcmppd $0, -4(%ebx,%ecx,8), %xmm2, %xmm3
444 vcmpeqpd -4(%ebx,%ecx,8), %xmm2, %xmm3
446 // CHECK: vcmppd $2, -4(%ebx,%ecx,8), %xmm2, %xmm3
448 vcmplepd -4(%ebx,%ecx,8), %xmm2, %xmm3
450 // CHECK: vcmppd $1, -4(%ebx,%ecx,8), %xmm2, %xmm3
452 vcmpltpd -4(%ebx,%ecx,8), %xmm2, %xmm3
454 // CHECK: vcmppd $4, -4(%ebx,%ecx,8), %xmm2, %xmm3
456 vcmpneqpd -4(%ebx,%ecx,8), %xmm2, %xmm3
458 // CHECK: vcmppd $6, -4(%ebx,%ecx,8), %xmm2, %xmm3
460 vcmpnlepd -4(%ebx
462 // CHECK: vcmppd $5, -4(%ebx,%ecx,8), %xmm2, %xmm3
464 vcmpnltpd -4(%ebx,%ecx,8), %xmm2, %xmm3
466 // CHECK: vcmppd $7, -4(%ebx,%ecx,8), %xmm6, %xmm2
468 vcmpordpd -4(%ebx,%ecx,8), %xmm6, %xmm2
470 // CHECK: vcmppd $3, -4(%ebx,%ecx,8), %xmm2, %xmm3
472 vcmpunordpd -4(%ebx,%ecx,8), %xmm2, %xmm3
522 // CHECK: vcmpss $0, -4(%ebx,%ecx,8), %xmm2, %xmm3
524 vcmpeqss -4(%ebx,%ecx,8), %xmm2, %xmm3
526 // CHECK: vcmpss $2, -4(%ebx,%ecx,8), %xmm2, %xmm3
528 vcmpless -4(%ebx,%ecx,8), %xmm2, %xmm3
530 // CHECK: vcmpss $1, -4(%ebx,%ecx,8), %xmm2, %xmm3
532 vcmpltss -4(%ebx,%ecx,8), %xmm2, %xmm3
534 // CHECK: vcmpss $4, -4(%ebx,%ecx,8), %xmm2, %xmm3
536 vcmpneqss -4(%ebx,%ecx,8), %xmm2, %xmm3
538 // CHECK: vcmpss $6, -4(%ebx,%ecx,8), %xmm2, %xmm3
540 vcmpnless -4(%ebx,%ecx,8), %xmm2, %xmm3
542 // CHECK: vcmpss $5, -4(%ebx,%ecx,8), %xmm2, %xmm3
544 vcmpnltss -4(%ebx,%ecx,8), %xmm2, %xmm3
546 // CHECK: vcmpss $7, -4(%ebx,%ecx,8), %xmm6, %xmm2
548 vcmpordss -4(%ebx,%ecx,8), %xmm6, %xmm2
550 // CHECK: vcmpss $3, -4(%ebx,%ecx,8), %xmm2, %xmm3
552 vcmpunordss -4(%ebx,%ecx,8), %xmm2, %xmm3
586 // CHECK: vcmpsd $0, -4(%ebx,%ecx,8), %xmm2, %xmm3
588 vcmpeqsd -4(%ebx,%ecx,8), %xmm2, %xmm3
590 // CHECK: vcmpsd $2, -4(%ebx,%ecx,8), %xmm2, %xmm3
592 vcmplesd -4(%ebx,%ecx,8), %xmm2, %xmm3
594 // CHECK: vcmpsd $1, -4(%ebx,%ecx,8), %xmm2, %xmm3
596 vcmpltsd -4(%ebx,%ecx,8), %xmm2, %xmm3
598 // CHECK: vcmpsd $4, -4(%ebx,%ecx,8), %xmm2, %xmm3
600 vcmpneqsd -4(%ebx,%ecx,8), %xmm2, %xmm3
602 // CHECK: vcmpsd $6, -4(%ebx,%ecx,8), %xmm2, %xmm3
604 vcmpnlesd -4(%ebx,%ecx,8), %xmm2, %xmm3
606 // CHECK: vcmpsd $5, -4(%ebx,%ecx,8), %xmm2, %xmm3
608 vcmpnltsd -4(%ebx,%ecx,8), %xmm2, %xmm3
610 // CHECK: vcmpsd $7, -4(%ebx,%ecx,8), %xmm6, %xmm2
612 vcmpordsd -4(%ebx,%ecx,8), %xmm6, %xmm2
614 // CHECK: vcmpsd $3, -4(%ebx,%ecx,8), %xmm2, %xmm3
616 vcmpunordsd -4(%ebx,%ecx,8), %xmm2, %xmm3
774 // CHECK: vcvtss2sil (%eax), %ebx
776 vcvtss2si (%eax), %ebx
2334 // CHECK: vunpckhps -4(%ebx,%ecx,8), %ymm2, %ymm5
2336 vunpckhps -4(%ebx,%ecx,8), %ymm2, %ymm5
2338 // CHECK: vunpckhpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2340 vunpckhpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2342 // CHECK: vunpcklps -4(%ebx,%ecx,8), %ymm2, %ymm5
2344 vunpcklps -4(%ebx,%ecx,8), %ymm2, %ymm5
2346 // CHECK: vunpcklpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2348 vunpcklpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2506 // CHECK: vandps -4(%ebx,%ecx,8), %ymm2, %ymm5
2508 vandps -4(%ebx,%ecx,8), %ymm2, %ymm5
2510 // CHECK: vandpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2512 vandpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2522 // CHECK: vorps -4(%ebx,%ecx,8), %ymm2, %ymm5
2524 vorps -4(%ebx,%ecx,8), %ymm2, %ymm5
2526 // CHECK: vorpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2528 vorpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2538 // CHECK: vxorps -4(%ebx,%ecx,8), %ymm2, %ymm5
2540 vxorps -4(%ebx,%ecx,8), %ymm2, %ymm5
2542 // CHECK: vxorpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2544 vxorpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2554 // CHECK: vandnps -4(%ebx,%ecx,8), %ymm2, %ymm5
2556 vandnps -4(%ebx,%ecx,8), %ymm2, %ymm5
2558 // CHECK: vandnpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2560 vandnpd -4(%ebx,%ecx,8), %ymm2, %ymm5
2698 // CHECK: vcmpps $0, -4(%ebx,%ecx,8), %ymm2, %ymm3
2700 vcmpeqps -4(%ebx,%ecx,8), %ymm2, %ymm3
2702 // CHECK: vcmpps $2, -4(%ebx,%ecx,8), %ymm2, %ymm3
2704 vcmpleps -4(%ebx,%ecx,8), %ymm2, %ymm3
2706 // CHECK: vcmpps $1, -4(%ebx,%ecx,8), %ymm2, %ymm3
2708 vcmpltps -4(%ebx,%ecx,8), %ymm2, %ymm3
2710 // CHECK: vcmpps $4, -4(%ebx,%ecx,8), %ymm2, %ymm3
2712 vcmpneqps -4(%ebx,%ecx,8), %ymm2, %ymm3
2714 // CHECK: vcmpps $6, -4(%ebx,%ecx,8), %ymm2, %ymm3
2716 vcmpnleps -4(%ebx,%ecx,8), %ymm2, %ymm3
2718 // CHECK: vcmpps $5, -4(%ebx,%ecx,8), %ymm2, %ymm3
2720 vcmpnltps -4(%ebx,%ecx,8), %ymm2, %ymm3
2722 // CHECK: vcmpps $7, -4(%ebx,%ecx,8), %ymm6, %ymm2
2724 vcmpordps -4(%ebx,%ecx,8), %ymm6, %ymm2
2726 // CHECK: vcmpps $3, -4(%ebx,%ecx,8), %ymm2, %ymm3
2728 vcmpunordps -4(%ebx,%ecx,8), %ymm2, %ymm3
2762 // CHECK: vcmppd $0, -4(%ebx,%ecx,8), %ymm2, %ymm3
2764 vcmpeqpd -4(%ebx,%ecx,8), %ymm2, %ymm3
2766 // CHECK: vcmppd $2, -4(%ebx,%ecx,8), %ymm2, %ymm3
2768 vcmplepd -4(%ebx,%ecx,8), %ymm2, %ymm3
2770 // CHECK: vcmppd $1, -4(%ebx,%ecx,8), %ymm2, %ymm3
2772 vcmpltpd -4(%ebx,%ecx,8), %ymm2, %ymm3
2774 // CHECK: vcmppd $4, -4(%ebx,%ecx,8), %ymm2, %ymm3
2776 vcmpneqpd -4(%ebx,%ecx,8), %ymm2, %ymm3
2778 // CHECK: vcmppd $6, -4(%ebx,%ecx,8), %ymm2, %ymm3
2780 vcmpnlepd -4(%ebx,%ecx,8), %ymm2, %ymm3
2782 // CHECK: vcmppd $5, -4(%ebx,%ecx,8), %ymm2, %ymm3
2784 vcmpnltpd -4(%ebx,%ecx,8), %ymm2, %ymm3
2786 // CHECK: vcmppd $7, -4(%ebx,%ecx,8), %ymm6, %ymm2
2788 vcmpordpd -4(%ebx,%ecx,8), %ymm6, %ymm2
2790 // CHECK: vcmppd $3, -4(%ebx,%ecx,8), %ymm2, %ymm3
2792 vcmpunordpd -4(%ebx,%ecx,8), %ymm2, %ymm3