Home | History | Annotate | Download | only in X86

Lines Matching refs:rcx

35 // CHECK:   vaddss  -4(%rcx,%rbx,8), %xmm10, %xmm11
37 vaddss -4(%rcx,%rbx,8), %xmm10, %xmm11
39 // CHECK: vsubss -4(%rcx,%rbx,8), %xmm10, %xmm11
41 vsubss -4(%rcx,%rbx,8), %xmm10, %xmm11
43 // CHECK: vmulss -4(%rcx,%rbx,8), %xmm10, %xmm11
45 vmulss -4(%rcx,%rbx,8), %xmm10, %xmm11
47 // CHECK: vdivss -4(%rcx,%rbx,8), %xmm10, %xmm11
49 vdivss -4(%rcx,%rbx,8), %xmm10, %xmm11
51 // CHECK: vaddsd -4(%rcx,%rbx,8), %xmm10, %xmm11
53 vaddsd -4(%rcx,%rbx,8), %xmm10, %xmm11
55 // CHECK: vsubsd -4(%rcx,%rbx,8), %xmm10, %xmm11
57 vsubsd -4(%rcx,%rbx,8), %xmm10, %xmm11
59 // CHECK: vmulsd -4(%rcx,%rbx,8), %xmm10, %xmm11
61 vmulsd -4(%rcx,%rbx,8), %xmm10, %xmm11
63 // CHECK: vdivsd -4(%rcx,%rbx,8), %xmm10, %xmm11
65 vdivsd -4(%rcx,%rbx,8), %xmm10, %xmm11
99 // CHECK: vaddps -4(%rcx,%rbx,8), %xmm10, %xmm11
101 vaddps -4(%rcx,%rbx,8), %xmm10, %xmm11
103 // CHECK: vsubps -4(%rcx,%rbx,8), %xmm10, %xmm11
105 vsubps -4(%rcx,%rbx,8), %xmm10, %xmm11
107 // CHECK: vmulps -4(%rcx,%rbx,8), %xmm10, %xmm11
109 vmulps -4(%rcx,%rbx,8), %xmm10, %xmm11
111 // CHECK: vdivps -4(%rcx,%rbx,8), %xmm10, %xmm11
113 vdivps -4(%rcx,%rbx,8), %xmm10, %xmm11
115 // CHECK: vaddpd -4(%rcx,%rbx,8), %xmm10, %xmm11
117 vaddpd -4(%rcx,%rbx,8), %xmm10, %xmm11
119 // CHECK: vsubpd -4(%rcx,%rbx,8), %xmm10, %xmm11
121 vsubpd -4(%rcx,%rbx,8), %xmm10, %xmm11
123 // CHECK: vmulpd -4(%rcx,%rbx,8), %xmm10, %xmm11
125 vmulpd -4(%rcx,%rbx,8), %xmm10, %xmm11
127 // CHECK: vdivpd -4(%rcx,%rbx,8), %xmm10, %xmm11
129 vdivpd -4(%rcx,%rbx,8), %xmm10, %xmm11
147 // CHECK: vmaxss -4(%rbx,%rcx,8), %xmm12, %xmm10
149 vmaxss -4(%rbx,%rcx,8), %xmm12, %xmm10
151 // CHECK: vmaxsd -4(%rbx,%rcx,8), %xmm12, %xmm10
153 vmaxsd -4(%rbx,%rcx,8), %xmm12, %xmm10
155 // CHECK: vminss -4(%rbx,%rcx,8), %xmm12, %xmm10
157 vminss -4(%rbx,%rcx,8), %xmm12, %xmm10
159 // CHECK: vminsd -4(%rbx,%rcx,8), %xmm12, %xmm10
161 vminsd -4(%rbx,%rcx,8), %xmm12, %xmm10
179 // CHECK: vmaxps -4(%rbx,%rcx,8), %xmm12, %xmm10
181 vmaxps -4(%rbx,%rcx,8), %xmm12, %xmm10
183 // CHECK: vmaxpd -4(%rbx,%rcx,8), %xmm12, %xmm10
185 vmaxpd -4(%rbx,%rcx,8), %xmm12, %xmm10
187 // CHECK: vminps -4(%rbx,%rcx,8), %xmm12, %xmm10
189 vminps -4(%rbx,%rcx,8), %xmm12, %xmm10
191 // CHECK: vminpd -4(%rbx,%rcx,8), %xmm12, %xmm10
193 vminpd -4(%rbx,%rcx,8), %xmm12, %xmm10
203 // CHECK: vandps -4(%rbx,%rcx,8), %xmm12, %xmm10
205 vandps -4(%rbx,%rcx,8), %xmm12, %xmm10
207 // CHECK: vandpd -4(%rbx,%rcx,8), %xmm12, %xmm10
209 vandpd -4(%rbx,%rcx,8), %xmm12, %xmm10
219 // CHECK: vorps -4(%rbx,%rcx,8), %xmm12, %xmm10
221 vorps -4(%rbx,%rcx,8), %xmm12, %xmm10
223 // CHECK: vorpd -4(%rbx,%rcx,8), %xmm12, %xmm10
225 vorpd -4(%rbx,%rcx,8), %xmm12, %xmm10
235 // CHECK: vxorps -4(%rbx,%rcx,8), %xmm12, %xmm10
237 vxorps -4(%rbx,%rcx,8), %xmm12, %xmm10
239 // CHECK: vxorpd -4(%rbx,%rcx,8), %xmm12, %xmm10
241 vxorpd -4(%rbx,%rcx,8), %xmm12, %xmm10
251 // CHECK: vandnps -4(%rbx,%rcx,8), %xmm12, %xmm10
253 vandnps -4(%rbx,%rcx,8), %xmm12, %xmm10
255 // CHECK: vandnpd -4(%rbx,%rcx,8), %xmm12, %xmm10
257 vandnpd -4(%rbx,%rcx,8), %xmm12, %xmm10
259 // CHECK: vmovss -4(%rbx,%rcx,8), %xmm10
261 vmovss -4(%rbx,%rcx,8), %xmm10
267 // CHECK: vmovsd -4(%rbx,%rcx,8), %xmm10
269 vmovsd -4(%rbx,%rcx,8), %xmm10
291 // CHECK: vunpckhps -4(%rbx,%rcx,8), %xmm12, %xmm15
293 vunpckhps -4(%rbx,%rcx,8), %xmm12, %xmm15
295 // CHECK: vunpckhpd -4(%rbx,%rcx,8), %xmm12, %xmm15
297 vunpckhpd -4(%rbx,%rcx,8), %xmm12, %xmm15
299 // CHECK: vunpcklps -4(%rbx,%rcx,8), %xmm12, %xmm15
301 vunpcklps -4(%rbx,%rcx,8), %xmm12, %xmm15
303 // CHECK: vunpcklpd -4(%rbx,%rcx,8), %xmm12, %xmm15
305 vunpcklpd -4(%rbx,%rcx,8), %xmm12, %xmm15
335 // CHECK: vshufps $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
337 vshufps $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
343 // CHECK: vshufpd $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
345 vshufpd $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
379 // CHECK: vcmpps $0, -4(%rbx,%rcx,8), %xmm12, %xmm13
381 vcmpeqps -4(%rbx,%rcx,8), %xmm12, %xmm13
383 // CHECK: vcmpps $2, -4(%rbx,%rcx,8), %xmm12, %xmm13
385 vcmpleps -4(%rbx,%rcx,8), %xmm12, %xmm13
387 // CHECK: vcmpps $1, -4(%rbx,%rcx,8), %xmm12, %xmm13
389 vcmpltps -4(%rbx,%rcx,8), %xmm12, %xmm13
391 // CHECK: vcmpps $4, -4(%rbx,%rcx,8), %xmm12, %xmm13
393 vcmpneqps -4(%rbx,%rcx,8), %xmm12, %xmm13
395 // CHECK: vcmpps $6, -4(%rbx,%rcx,8), %xmm12, %xmm13
397 vcmpnleps -4(%rbx,%rcx,8), %xmm12, %xmm13
399 // CHECK: vcmpps $5, -4(%rbx,%rcx,8), %xmm12, %xmm13
401 vcmpnltps -4(%rbx,%rcx,8), %xmm12, %xmm13
403 // CHECK: vcmpps $7, -4(%rbx,%rcx,8), %xmm6, %xmm2
405 vcmpordps -4(%rbx,%rcx,8), %xmm6, %xmm2
407 // CHECK: vcmpps $3, -4(%rbx,%rcx,8), %xmm12, %xmm13
409 vcmpunordps -4(%rbx,%rcx,8), %xmm12, %xmm13
443 // CHECK: vcmppd $0, -4(%rbx,%rcx,8), %xmm12, %xmm13
445 vcmpeqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
447 // CHECK: vcmppd $2, -4(%rbx,%rcx,8), %xmm12, %xmm13
449 vcmplepd -4(%rbx,%rcx,8), %xmm12, %xmm13
451 // CHECK: vcmppd $1, -4(%rbx,%rcx,8), %xmm12, %xmm13
453 vcmpltpd -4(%rbx,%rcx,8), %xmm12, %xmm13
455 // CHECK: vcmppd $4, -4(%rbx,%rcx,8), %xmm12, %xmm13
457 vcmpneqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
459 // CHECK: vcmppd $6, -4(%rbx,%rcx,8), %xmm12, %xmm13
461 vcmpnlepd -4(%rbx,%rcx,8), %xmm12, %xmm13
463 // CHECK: vcmppd $5, -4(%rbx,%rcx,8), %xmm12, %xmm13
465 vcmpnltpd -4(%rbx,%rcx,8), %xmm12, %xmm13
467 // CHECK: vcmppd $7, -4(%rbx,%rcx,8), %xmm6, %xmm2
469 vcmpordpd -4(%rbx,%rcx,8), %xmm6, %xmm2
471 // CHECK: vcmppd $3, -4(%rbx,%rcx,8), %xmm12, %xmm13
473 vcmpunordpd -4(%rbx,%rcx,8), %xmm12, %xmm13
507 // CHECK: vcmpss $0, -4(%rbx,%rcx,8), %xmm12, %xmm13
509 vcmpeqss -4(%rbx,%rcx,8), %xmm12, %xmm13
511 // CHECK: vcmpss $2, -4(%rbx,%rcx,8), %xmm12, %xmm13
513 vcmpless -4(%rbx,%rcx,8), %xmm12, %xmm13
515 // CHECK: vcmpss $1, -4(%rbx,%rcx,8), %xmm12, %xmm13
517 vcmpltss -4(%rbx,%rcx,8), %xmm12, %xmm13
519 // CHECK: vcmpss $4, -4(%rbx,%rcx,8), %xmm12, %xmm13
521 vcmpneqss -4(%rbx,%rcx,8), %xmm12, %xmm13
523 // CHECK: vcmpss $6, -4(%rbx,%rcx,8), %xmm12, %xmm13
525 vcmpnless -4(%rbx,%rcx,8), %xmm12, %xmm13
527 // CHECK: vcmpss $5, -4(%rbx,%rcx,8), %xmm12, %xmm13
529 vcmpnltss -4(%rbx,%rcx,8), %xmm12, %xmm13
531 // CHECK: vcmpss $7, -4(%rbx,%rcx,8), %xmm6, %xmm2
533 vcmpordss -4(%rbx,%rcx,8), %xmm6, %xmm2
535 // CHECK: vcmpss $3, -4(%rbx,%rcx,8), %xmm12, %xmm13
537 vcmpunordss -4(%rbx,%rcx,8), %xmm12, %xmm13
571 // CHECK: vcmpsd $0, -4(%rbx,%rcx,8), %xmm12, %xmm13
573 vcmpeqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
575 // CHECK: vcmpsd $2, -4(%rbx,%rcx,8), %xmm12, %xmm13
577 vcmplesd -4(%rbx,%rcx,8), %xmm12, %xmm13
579 // CHECK: vcmpsd $1, -4(%rbx,%rcx,8), %xmm12, %xmm13
581 vcmpltsd -4(%rbx,%rcx,8), %xmm12, %xmm13
583 // CHECK: vcmpsd $4, -4(%rbx,%rcx,8), %xmm12, %xmm13
585 vcmpneqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
587 // CHECK: vcmpsd $6, -4(%rbx,%rcx,8), %xmm12, %xmm13
589 vcmpnlesd -4(%rbx,%rcx,8), %xmm12, %xmm13
591 // CHECK: vcmpsd $5, -4(%rbx,%rcx,8), %xmm12, %xmm13
593 vcmpnltsd -4(%rbx,%rcx,8), %xmm12, %xmm13
595 // CHECK: vcmpsd $7, -4(%rbx,%rcx,8), %xmm6, %xmm2
597 vcmpordsd -4(%rbx,%rcx,8), %xmm6, %xmm2
599 // CHECK: vcmpsd $3, -4(%rbx,%rcx,8), %xmm12, %xmm13
601 vcmpunordsd -4(%rbx,%rcx,8), %xmm12, %xmm13
699 // CHECK: vcmpps $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
701 vcmpeq_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
703 // CHECK: vcmpps $9, -4(%rbx,%rcx,8), %xmm12, %xmm13
705 vcmpngeps -4(%rbx,%rcx,8), %xmm12, %xmm13
707 // CHECK: vcmpps $10, -4(%rbx,%rcx,8), %xmm12, %xmm13
709 vcmpngtps -4(%rbx,%rcx,8), %xmm12, %xmm13
711 // CHECK: vcmpps $11, -4(%rbx,%rcx,8), %xmm12, %xmm13
713 vcmpfalseps -4(%rbx,%rcx,8), %xmm12, %xmm13
715 // CHECK: vcmpps $12, -4(%rbx,%rcx,8), %xmm12, %xmm13
717 vcmpneq_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
719 // CHECK: vcmpps $13, -4(%rbx,%rcx,8), %xmm12, %xmm13
721 vcmpgeps -4(%rbx,%rcx,8), %xmm12, %xmm13
723 // CHECK: vcmpps $14, -4(%rbx,%rcx,8), %xmm6, %xmm2
725 vcmpgtps -4(%rbx,%rcx,8), %xmm6, %xmm2
727 // CHECK: vcmpps $15, -4(%rbx,%rcx,8), %xmm12, %xmm13
729 vcmptrueps -4(%rbx,%rcx,8), %xmm12, %xmm13
731 // CHECK: vcmpps $16, -4(%rbx,%rcx,8), %xmm12, %xmm13
733 vcmpeq_osps -4(%rbx,%rcx,8), %xmm12, %xmm13
735 // CHECK: vcmpps $17, -4(%rbx,%rcx,8), %xmm12, %xmm13
737 vcmplt_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
739 // CHECK: vcmpps $18, -4(%rbx,%rcx,8), %xmm12, %xmm13
741 vcmple_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
743 // CHECK: vcmpps $19, -4(%rbx,%rcx,8), %xmm12, %xmm13
745 vcmpunord_sps -4(%rbx,%rcx,8), %xmm12, %xmm13
747 // CHECK: vcmpps $20, -4(%rbx,%rcx,8), %xmm12, %xmm13
749 vcmpneq_usps -4(%rbx,%rcx,8), %xmm12, %xmm13
751 // CHECK: vcmpps $21, -4(%rbx,%rcx,8), %xmm12, %xmm13
753 vcmpnlt_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
755 // CHECK: vcmpps $22, -4(%rbx,%rcx,8), %xmm6, %xmm2
757 vcmpnle_uqps -4(%rbx,%rcx,8), %xmm6, %xmm2
759 // CHECK: vcmpps $23, -4(%rbx,%rcx,8), %xmm12, %xmm13
761 vcmpord_sps -4(%rbx,%rcx,8), %xmm12, %xmm13
763 // CHECK: vcmpps $24, -4(%rbx,%rcx,8), %xmm12, %xmm13
765 vcmpeq_usps -4(%rbx,%rcx,8), %xmm12, %xmm13
767 // CHECK: vcmpps $25, -4(%rbx,%rcx,8), %xmm12, %xmm13
769 vcmpnge_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
771 // CHECK: vcmpps $26, -4(%rbx,%rcx,8), %xmm12, %xmm13
773 vcmpngt_uqps -4(%rbx,%rcx,8), %xmm12, %xmm13
775 // CHECK: vcmpps $27, -4(%rbx,%rcx,8), %xmm12, %xmm13
777 vcmpfalse_osps -4(%rbx,%rcx,8), %xmm12, %xmm13
779 // CHECK: vcmpps $28, -4(%rbx,%rcx,8), %xmm12, %xmm13
781 vcmpneq_osps -4(%rbx,%rcx,8), %xmm12, %xmm13
783 // CHECK: vcmpps $29, -4(%rbx,%rcx,8), %xmm12, %xmm13
785 vcmpge_oqps -4(%rbx,%rcx,8), %xmm12, %xmm13
787 // CHECK: vcmpps $30, -4(%rbx,%rcx,8), %xmm6, %xmm2
789 vcmpgt_oqps -4(%rbx,%rcx,8), %xmm6, %xmm2
791 // CHECK: vcmpps $31, -4(%rbx,%rcx,8), %xmm12, %xmm13
793 vcmptrue_usps -4(%rbx,%rcx,8), %xmm12, %xmm13
891 // CHECK: vcmppd $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
893 vcmpeq_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
895 // CHECK: vcmppd $9, -4(%rbx,%rcx,8), %xmm12, %xmm13
897 vcmpngepd -4(%rbx,%rcx,8), %xmm12, %xmm13
899 // CHECK: vcmppd $10, -4(%rbx,%rcx,8), %xmm12, %xmm13
901 vcmpngtpd -4(%rbx,%rcx,8), %xmm12, %xmm13
903 // CHECK: vcmppd $11, -4(%rbx,%rcx,8), %xmm12, %xmm13
905 vcmpfalsepd -4(%rbx,%rcx,8), %xmm12, %xmm13
907 // CHECK: vcmppd $12, -4(%rbx,%rcx,8), %xmm12, %xmm13
909 vcmpneq_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
911 // CHECK: vcmppd $13, -4(%rbx,%rcx,8), %xmm12, %xmm13
913 vcmpgepd -4(%rbx,%rcx,8), %xmm12, %xmm13
915 // CHECK: vcmppd $14, -4(%rbx,%rcx,8), %xmm6, %xmm2
917 vcmpgtpd -4(%rbx,%rcx,8), %xmm6, %xmm2
919 // CHECK: vcmppd $15, -4(%rbx,%rcx,8), %xmm12, %xmm13
921 vcmptruepd -4(%rbx,%rcx,8), %xmm12, %xmm13
923 // CHECK: vcmppd $16, -4(%rbx,%rcx,8), %xmm12, %xmm13
925 vcmpeq_ospd -4(%rbx,%rcx,8), %xmm12, %xmm13
927 // CHECK: vcmppd $17, -4(%rbx,%rcx,8), %xmm12, %xmm13
929 vcmplt_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
931 // CHECK: vcmppd $18, -4(%rbx,%rcx,8), %xmm12, %xmm13
933 vcmple_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
935 // CHECK: vcmppd $19, -4(%rbx,%rcx,8), %xmm12, %xmm13
937 vcmpunord_spd -4(%rbx,%rcx,8), %xmm12, %xmm13
939 // CHECK: vcmppd $20, -4(%rbx,%rcx,8), %xmm12, %xmm13
941 vcmpneq_uspd -4(%rbx,%rcx,8), %xmm12, %xmm13
943 // CHECK: vcmppd $21, -4(%rbx,%rcx,8), %xmm12, %xmm13
945 vcmpnlt_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
947 // CHECK: vcmppd $22, -4(%rbx,%rcx,8), %xmm6, %xmm2
949 vcmpnle_uqpd -4(%rbx,%rcx,8), %xmm6, %xmm2
951 // CHECK: vcmppd $23, -4(%rbx,%rcx,8), %xmm12, %xmm13
953 vcmpord_spd -4(%rbx,%rcx,8), %xmm12, %xmm13
955 // CHECK: vcmppd $24, -4(%rbx,%rcx,8), %xmm12, %xmm13
957 vcmpeq_uspd -4(%rbx,%rcx,8), %xmm12, %xmm13
959 // CHECK: vcmppd $25, -4(%rbx,%rcx,8), %xmm12, %xmm13
961 vcmpnge_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
963 // CHECK: vcmppd $26, -4(%rbx,%rcx,8), %xmm12, %xmm13
965 vcmpngt_uqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
967 // CHECK: vcmppd $27, -4(%rbx,%rcx,8), %xmm12, %xmm13
969 vcmpfalse_ospd -4(%rbx,%rcx,8), %xmm12, %xmm13
971 // CHECK: vcmppd $28, -4(%rbx,%rcx,8), %xmm12, %xmm13
973 vcmpneq_ospd -4(%rbx,%rcx,8), %xmm12, %xmm13
975 // CHECK: vcmppd $29, -4(%rbx,%rcx,8), %xmm12, %xmm13
977 vcmpge_oqpd -4(%rbx,%rcx,8), %xmm12, %xmm13
979 // CHECK: vcmppd $30, -4(%rbx,%rcx,8), %xmm6, %xmm2
981 vcmpgt_oqpd -4(%rbx,%rcx,8), %xmm6, %xmm2
983 // CHECK: vcmppd $31, -4(%rbx,%rcx,8), %xmm12, %xmm13
985 vcmptrue_uspd -4(%rbx,%rcx,8), %xmm12, %xmm13
1083 // CHECK: vcmpss $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
1085 vcmpeq_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1087 // CHECK: vcmpss $9, -4(%rbx,%rcx,8), %xmm12, %xmm13
1089 vcmpngess -4(%rbx,%rcx,8), %xmm12, %xmm13
1091 // CHECK: vcmpss $10, -4(%rbx,%rcx,8), %xmm12, %xmm13
1093 vcmpngtss -4(%rbx,%rcx,8), %xmm12, %xmm13
1095 // CHECK: vcmpss $11, -4(%rbx,%rcx,8), %xmm12, %xmm13
1097 vcmpfalsess -4(%rbx,%rcx,8), %xmm12, %xmm13
1099 // CHECK: vcmpss $12, -4(%rbx,%rcx,8), %xmm12, %xmm13
1101 vcmpneq_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1103 // CHECK: vcmpss $13, -4(%rbx,%rcx,8), %xmm12, %xmm13
1105 vcmpgess -4(%rbx,%rcx,8), %xmm12, %xmm13
1107 // CHECK: vcmpss $14, -4(%rbx,%rcx,8), %xmm6, %xmm2
1109 vcmpgtss -4(%rbx,%rcx,8), %xmm6, %xmm2
1111 // CHECK: vcmpss $15, -4(%rbx,%rcx,8), %xmm12, %xmm13
1113 vcmptruess -4(%rbx,%rcx,8), %xmm12, %xmm13
1115 // CHECK: vcmpss $16, -4(%rbx,%rcx,8), %xmm12, %xmm13
1117 vcmpeq_osss -4(%rbx,%rcx,8), %xmm12, %xmm13
1119 // CHECK: vcmpss $17, -4(%rbx,%rcx,8), %xmm12, %xmm13
1121 vcmplt_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1123 // CHECK: vcmpss $18, -4(%rbx,%rcx,8), %xmm12, %xmm13
1125 vcmple_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1127 // CHECK: vcmpss $19, -4(%rbx,%rcx,8), %xmm12, %xmm13
1129 vcmpunord_sss -4(%rbx,%rcx,8), %xmm12, %xmm13
1131 // CHECK: vcmpss $20, -4(%rbx,%rcx,8), %xmm12, %xmm13
1133 vcmpneq_usss -4(%rbx,%rcx,8), %xmm12, %xmm13
1135 // CHECK: vcmpss $21, -4(%rbx,%rcx,8), %xmm12, %xmm13
1137 vcmpnlt_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1139 // CHECK: vcmpss $22, -4(%rbx,%rcx,8), %xmm6, %xmm2
1141 vcmpnle_uqss -4(%rbx,%rcx,8), %xmm6, %xmm2
1143 // CHECK: vcmpss $23, -4(%rbx,%rcx,8), %xmm12, %xmm13
1145 vcmpord_sss -4(%rbx,%rcx,8), %xmm12, %xmm13
1147 // CHECK: vcmpss $24, -4(%rbx,%rcx,8), %xmm12, %xmm13
1149 vcmpeq_usss -4(%rbx,%rcx,8), %xmm12, %xmm13
1151 // CHECK: vcmpss $25, -4(%rbx,%rcx,8), %xmm12, %xmm13
1153 vcmpnge_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1155 // CHECK: vcmpss $26, -4(%rbx,%rcx,8), %xmm12, %xmm13
1157 vcmpngt_uqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1159 // CHECK: vcmpss $27, -4(%rbx,%rcx,8), %xmm12, %xmm13
1161 vcmpfalse_osss -4(%rbx,%rcx,8), %xmm12, %xmm13
1163 // CHECK: vcmpss $28, -4(%rbx,%rcx,8), %xmm12, %xmm13
1165 vcmpneq_osss -4(%rbx,%rcx,8), %xmm12, %xmm13
1167 // CHECK: vcmpss $29, -4(%rbx,%rcx,8), %xmm12, %xmm13
1169 vcmpge_oqss -4(%rbx,%rcx,8), %xmm12, %xmm13
1171 // CHECK: vcmpss $30, -4(%rbx,%rcx,8), %xmm6, %xmm2
1173 vcmpgt_oqss -4(%rbx,%rcx,8), %xmm6, %xmm2
1175 // CHECK: vcmpss $31, -4(%rbx,%rcx,8), %xmm12, %xmm13
1177 vcmptrue_usss -4(%rbx,%rcx,8), %xmm12, %xmm13
1275 // CHECK: vcmpsd $8, -4(%rbx,%rcx,8), %xmm12, %xmm13
1277 vcmpeq_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1279 // CHECK: vcmpsd $9, -4(%rbx,%rcx,8), %xmm12, %xmm13
1281 vcmpngesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1283 // CHECK: vcmpsd $10, -4(%rbx,%rcx,8), %xmm12, %xmm13
1285 vcmpngtsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1287 // CHECK: vcmpsd $11, -4(%rbx,%rcx,8), %xmm12, %xmm13
1289 vcmpfalsesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1291 // CHECK: vcmpsd $12, -4(%rbx,%rcx,8), %xmm12, %xmm13
1293 vcmpneq_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1295 // CHECK: vcmpsd $13, -4(%rbx,%rcx,8), %xmm12, %xmm13
1297 vcmpgesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1299 // CHECK: vcmpsd $14, -4(%rbx,%rcx,8), %xmm6, %xmm2
1301 rcx,8), %xmm6, %xmm2
1303 // CHECK: vcmpsd $15, -4(%rbx,%rcx,8), %xmm12, %xmm13
1305 vcmptruesd -4(%rbx,%rcx,8), %xmm12, %xmm13
1307 // CHECK: vcmpsd $16, -4(%rbx,%rcx,8), %xmm12, %xmm13
1309 vcmpeq_ossd -4(%rbx,%rcx,8), %xmm12, %xmm13
1311 // CHECK: vcmpsd $17, -4(%rbx,%rcx,8), %xmm12, %xmm13
1313 vcmplt_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1315 // CHECK: vcmpsd $18, -4(%rbx,%rcx,8), %xmm12, %xmm13
1317 vcmple_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1319 // CHECK: vcmpsd $19, -4(%rbx,%rcx,8), %xmm12, %xmm13
1321 vcmpunord_ssd -4(%rbx,%rcx,8), %xmm12, %xmm13
1323 // CHECK: vcmpsd $20, -4(%rbx,%rcx,8), %xmm12, %xmm13
1325 vcmpneq_ussd -4(%rbx,%rcx,8), %xmm12, %xmm13
1327 // CHECK: vcmpsd $21, -4(%rbx,%rcx,8), %xmm12, %xmm13
1329 vcmpnlt_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1331 // CHECK: vcmpsd $22, -4(%rbx,%rcx,8), %xmm6, %xmm2
1333 vcmpnle_uqsd -4(%rbx,%rcx,8), %xmm6, %xmm2
1335 // CHECK: vcmpsd $23, -4(%rbx,%rcx,8), %xmm12, %xmm13
1337 vcmpord_ssd -4(%rbx,%rcx,8), %xmm12, %xmm13
1339 // CHECK: vcmpsd $24, -4(%rbx,%rcx,8), %xmm12, %xmm13
1341 vcmpeq_ussd -4(%rbx,%rcx,8), %xmm12, %xmm13
1343 // CHECK: vcmpsd $25, -4(%rbx,%rcx,8), %xmm12, %xmm13
1345 vcmpnge_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1347 // CHECK: vcmpsd $26, -4(%rbx,%rcx,8), %xmm12, %xmm13
1349 vcmpngt_uqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1351 // CHECK: vcmpsd $27, -4(%rbx,%rcx,8), %xmm12, %xmm13
1353 vcmpfalse_ossd -4(%rbx,%rcx,8), %xmm12, %xmm13
1355 // CHECK: vcmpsd $28, -4(%rbx,%rcx,8), %xmm12, %xmm13
1357 vcmpneq_ossd -4(%rbx,%rcx,8), %xmm12, %xmm13
1359 // CHECK: vcmpsd $29, -4(%rbx,%rcx,8), %xmm12, %xmm13
1361 vcmpge_oqsd -4(%rbx,%rcx,8), %xmm12, %xmm13
1363 // CHECK: vcmpsd $30, -4(%rbx,%rcx,8), %xmm6, %xmm2
1365 vcmpgt_oqsd -4(%rbx,%rcx,8), %xmm6, %xmm2
1367 // CHECK: vcmpsd $31, -4(%rbx,%rcx,8), %xmm12, %xmm13
1369 vcmptrue_ussd -4(%rbx,%rcx,8), %xmm12, %xmm13
1403 // CHECK: vcvttss2si (%rcx), %eax
1405 vcvttss2si (%rcx), %eax
1415 // CHECK: vcvttsd2si (%rcx), %eax
1417 vcvttsd2si (%rcx), %eax
2783 // CHECK: vpextrq $7, %xmm12, %rcx
2785 vpextrq $7, %xmm12, %rcx
2787 // CHECK: vpextrq $7, %xmm12, (%rcx)
2789 vpextrq $7, %xmm12, (%rcx)
3099 // CHECK: vunpckhps -4(%rbx,%rcx,8), %ymm12, %ymm10
3101 vunpckhps -4(%rbx,%rcx,8), %ymm12, %ymm10
3103 // CHECK: vunpckhpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3105 vunpckhpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3107 // CHECK: vunpcklps -4(%rbx,%rcx,8), %ymm12, %ymm10
3109 vunpcklps -4(%rbx,%rcx,8), %ymm12, %ymm10
3111 // CHECK: vunpcklpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3113 vunpcklpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3271 // CHECK: vandps -4(%rbx,%rcx,8), %ymm12, %ymm10
3273 vandps -4(%rbx,%rcx,8), %ymm12, %ymm10
3275 // CHECK: vandpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3277 vandpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3287 // CHECK: vorps -4(%rbx,%rcx,8), %ymm12, %ymm10
3289 vorps -4(%rbx,%rcx,8), %ymm12, %ymm10
3291 // CHECK: vorpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3293 vorpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3303 // CHECK: vxorps -4(%rbx,%rcx,8), %ymm12, %ymm10
3305 vxorps -4(%rbx,%rcx,8), %ymm12, %ymm10
3307 // CHECK: vxorpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3309 vxorpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3319 // CHECK: vandnps -4(%rbx,%rcx
3321 vandnps -4(%rbx,%rcx,8), %ymm12, %ymm10
3323 // CHECK: vandnpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3325 vandnpd -4(%rbx,%rcx,8), %ymm12, %ymm10
3463 // CHECK: vcmpps $0, -4(%rbx,%rcx,8), %ymm12, %ymm13
3465 vcmpeqps -4(%rbx,%rcx,8), %ymm12, %ymm13
3467 // CHECK: vcmpps $2, -4(%rbx,%rcx,8), %ymm12, %ymm13
3469 vcmpleps -4(%rbx,%rcx,8), %ymm12, %ymm13
3471 // CHECK: vcmpps $1, -4(%rbx,%rcx,8), %ymm12, %ymm13
3473 vcmpltps -4(%rbx,%rcx,8), %ymm12, %ymm13
3475 // CHECK: vcmpps $4, -4(%rbx,%rcx,8), %ymm12, %ymm13
3477 vcmpneqps -4(%rbx,%rcx,8), %ymm12, %ymm13
3479 // CHECK: vcmpps $6, -4(%rbx,%rcx,8), %ymm12, %ymm13
3481 vcmpnleps -4(%rbx,%rcx,8), %ymm12, %ymm13
3483 // CHECK: vcmpps $5, -4(%rbx,%rcx,8), %ymm12, %ymm13
3485 vcmpnltps -4(%rbx,%rcx,8), %ymm12, %ymm13
3487 // CHECK: vcmpps $7, -4(%rbx,%rcx,8), %ymm6, %ymm12
3489 vcmpordps -4(%rbx,%rcx,8), %ymm6, %ymm12
3491 // CHECK: vcmpps $3, -4(%rbx,%rcx,8), %ymm12, %ymm13
3493 vcmpunordps -4(%rbx,%rcx,8), %ymm12, %ymm13
3527 // CHECK: vcmppd $0, -4(%rbx,%rcx,8), %ymm12, %ymm13
3529 vcmpeqpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3531 // CHECK: vcmppd $2, -4(%rbx,%rcx,8), %ymm12, %ymm13
3533 vcmplepd -4(%rbx,%rcx,8), %ymm12, %ymm13
3535 // CHECK: vcmppd $1, -4(%rbx,%rcx,8), %ymm12, %ymm13
3537 vcmpltpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3539 // CHECK: vcmppd $4, -4(%rbx,%rcx,8), %ymm12, %ymm13
3541 vcmpneqpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3543 // CHECK: vcmppd $6, -4(%rbx,%rcx,8), %ymm12, %ymm13
3545 vcmpnlepd -4(%rbx,%rcx,8), %ymm12, %ymm13
3547 // CHECK: vcmppd $5, -4(%rbx,%rcx,8), %ymm12, %ymm13
3549 vcmpnltpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3551 // CHECK: vcmppd $7, -4(%rbx,%rcx,8), %ymm6, %ymm12
3553 vcmpordpd -4(%rbx,%rcx,8), %ymm6, %ymm12
3555 // CHECK: vcmppd $3, -4(%rbx,%rcx,8), %ymm12, %ymm13
3557 vcmpunordpd -4(%rbx,%rcx,8), %ymm12, %ymm13
3867 // CHECK: vcvtsd2si (%rcx), %ecx
3869 vcvtsd2si (%rcx), %ecx
3871 // CHECK: vcvtss2si %xmm4, %rcx
3873 vcvtss2si %xmm4, %rcx
3875 // CHECK: vcvtss2si (%rcx), %r8
3877 vcvtss2si (%rcx), %r8
3887 // CHECK: vcvtsi2sdq %rcx, %xmm4, %xmm6
3889 vcvtsi2sdq %rcx, %xmm4, %xmm6
3891 // CHECK: vcvtsi2sdq (%rcx), %xmm4, %xmm6
3893 vcvtsi2sdq (%rcx), %xmm4, %xmm6
3895 // CHECK: vcvtsi2ssq %rcx, %xmm4, %xmm6
3897 vcvtsi2ssq %rcx, %xmm4, %xmm6
3899 // CHECK: vcvtsi2ssq (%rcx), %xmm4, %xmm6
3901 vcvtsi2ssq (%rcx), %xmm4, %xmm6
3903 // CHECK: vcvttsd2si %xmm4, %rcx
3905 vcvttsd2si %xmm4, %rcx
3907 // CHECK: vcvttsd2si (%rcx), %rcx
3909 vcvttsd2si (%rcx), %rcx
3911 // CHECK: vcvttss2si %xmm4, %rcx
3913 vcvttss2si %xmm4, %rcx
3915 // CHECK: vcvttss2si (%rcx), %rcx
3917 vcvttss2si (%rcx), %rcx
4047 // CHECK: vextractps $7, %xmm4, %rcx
4049 vextractps $7, %xmm4, %rcx
4051 // CHECK: vmovd %xmm4, %rcx
4053 vmovd %xmm4, %rcx
4055 // CHECK: vmovmskpd %xmm4, %rcx
4057 vmovmskpd %xmm4, %rcx
4059 // CHECK: vmovmskpd %ymm4, %rcx
4061 vmovmskpd %ymm4, %rcx
4063 // CHECK: vmovmskps %xmm4, %rcx
4065 vmovmskps %xmm4, %rcx
4067 // CHECK: vmovmskps %ymm4, %rcx
4069 vmovmskps %ymm4, %rcx
4071 // CHECK: vpextrb $7, %xmm4, %rcx
4073 vpextrb $7, %xmm4, %rcx
4079 // CHECK: vpinsrw $7, %rcx, %xmm4, %xmm6
4081 vpinsrw $7, %rcx, %xmm4, %xmm6
4083 // CHECK: vpmovmskb %xmm4, %rcx
4085 vpmovmskb %xmm4, %rcx