Home | History | Annotate | Download | only in asm

Lines Matching refs:Xi

99 @xi=("%edx","%ebp");
112 mov `4*$i`($inp),$xi[0]
113 bswap $xi[0]
114 mov $xi[0],`4*$i`(%rsp)
118 mov `4*$j`($inp),$xi[1]
121 bswap $xi[1]
123 lea 0x5a827999($xi[0],$e),$e
125 mov $xi[1],`4*$j`(%rsp)
132 mov `4*($j%16)`(%rsp),$xi[1]
135 xor `4*(($j+2)%16)`(%rsp),$xi[1]
138 xor `4*(($j+8)%16)`(%rsp),$xi[1]
140 lea 0x5a827999($xi[0],$e),$e
141 xor `4*(($j+13)%16)`(%rsp),$xi[1]
143 rol \$1,$xi[1]
146 mov $xi[1],`4*($j%16)`(%rsp)
149 unshift(@xi,pop(@xi));
157 mov `4*($j%16)`(%rsp),$xi[1]
160 xor `4*(($j+2)%16)`(%rsp),$xi[1]
163 lea $K($xi[0],$e),$e
164 xor `4*(($j+8)%16)`(%rsp),$xi[1]
167 xor `4*(($j+13)%16)`(%rsp),$xi[1]
170 rol \$1,$xi[1]
173 mov $xi[1],`4*($j%16)`(%rsp)
179 lea $K($xi[0],$e),$e
186 unshift(@xi,pop(@xi));
193 mov `4*($j%16)`(%rsp),$xi[1]
196 xor `4*(($j+2)%16)`(%rsp),$xi[1]
199 xor `4*(($j+8)%16)`(%rsp),$xi[1]
201 lea 0x8f1bbcdc($xi[0],$e),$e
203 xor `4*(($j+13)%16)`(%rsp),$xi[1]
206 rol \$1,$xi[1]
209 mov $xi[1],`4*($j%16)`(%rsp)
212 unshift(@xi,pop(@xi));
294 my $Xi=4;
369 sub Xupdate_ssse3_16_31() # recall that $Xi starts wtih 4
402 &movdqa (eval(16*(($Xi-1)&3))."(%rsp)",@Tx[1]); # X[]+K xfer to IALU
438 &movdqa (@Tx[2],eval(16*(($Xi)/5))."($K_XX_XX)"); # K_XX_XX
446 $Xi++; push(@X,shift(@X)); # "rotate" X[]
456 &movdqa (@Tx[0],@X[-1&7]) if ($Xi==8);
467 if ($Xi%5) {
470 &movdqa (@Tx[2],eval(16*($Xi/5))."($K_XX_XX)");
483 &movdqa (eval(16*(($Xi-1)&3))."(%rsp)",@Tx[1]); # X[]+K xfer to IALU
503 &movdqa (@Tx[1],@X[0]) if ($Xi<19);
513 $Xi++; push(@X,shift(@X)); # "rotate" X[]
530 &movdqa (eval(16*(($Xi-1)&3))."(%rsp)",@Tx[1]); # X[]+K xfer IALU
548 $Xi=0;
559 &pshufb (@X[($Xi-3)&7],@X[2]);
562 &paddd (@X[($Xi-4)&7],@Tx[1]);
567 &movdqa (eval(16*$Xi)."(%rsp)",@X[($Xi-4)&7]); # X[]+K xfer to IALU
570 &psubd (@X[($Xi-4)&7],@Tx[1]);
573 $Xi++;
714 my $Xi=4;
780 sub Xupdate_avx_16_31() # recall that $Xi starts wtih 4
811 &vmovdqa (eval(16*(($Xi-1)&3))."(%rsp)",@Tx[1]); # X[]+K xfer to IALU
845 &vmovdqa (@Tx[2],eval(16*(($Xi)/5))."($K_XX_XX)"); # K_XX_XX
852 $Xi++; push(@X,shift(@X)); # "rotate" X[]
872 if ($Xi%5) {
875 &vmovdqa (@Tx[2],eval(16*($Xi/5))."($K_XX_XX)");
888 &vmovdqa (eval(16*(($Xi-1)&3))."(%rsp)",@Tx[1]); # X[]+K xfer to IALU
907 &vmovdqa (@Tx[1],@X[0]) if ($Xi<19);
917 $Xi++; push(@X,shift(@X)); # "rotate" X[]
934 &movdqa (eval(16*(($Xi-1)&3))."(%rsp)",@Tx[1]); # X[]+K xfer IALU
952 $Xi=0;
963 &vpshufb(@X[($Xi-3)&7],@X[($Xi-3)&7],@X[2]);
966 &vpaddd (@X[$Xi&7],@X[($Xi-4)&7],@Tx[1]);
971 &vmovdqa(eval(16*$Xi)."(%rsp)",@X[$Xi&7]); # X[]+K xfer to IALU
976 $Xi++;