Home | History | Annotate | Download | only in asm

Lines Matching refs:inp

74 ($out,$inp,$len,$key,$counter)=("%rdi","%rsi","%rdx","%rcx","%r8");
282 mov $inp,64+8(%rsp) # save inp
302 mov 64+8(%rsp),$inp # load inp
323 xor 4*0($inp),@x[0] # xor with input
324 xor 4*1($inp),@x[1]
325 xor 4*2($inp),@x[2]
326 xor 4*3($inp),@x[3]
327 xor 4*4($inp),@x[4]
328 xor 4*5($inp),@x[5]
329 xor 4*6($inp),@x[6]
330 xor 4*7($inp),@x[7]
331 movdqu 4*8($inp),%xmm0
332 xor 4*12($inp),@x[12]
333 xor 4*13($inp),@x[13]
334 xor 4*14($inp),@x[14]
335 xor 4*15($inp),@x[15]
336 lea 4*16($inp),$inp # inp+=64
380 movzb ($inp,%rbx),%eax
504 movdqu 0x00($inp),$t
505 movdqu 0x10($inp),$t1
507 movdqu 0x20($inp),$t
509 movdqu 0x30($inp),$t1
510 lea 0x40($inp),$inp # inp+=64
534 movzb ($inp,$counter),%eax
911 movdqu 0x00($inp),$xt0 # xor with input
912 movdqu 0x10($inp),$xt1
913 movdqu 0x20($inp),$xt2
914 movdqu 0x30($inp),$xt3
921 movdqu 0x40($inp),$xt0
923 movdqu 0x50($inp),$xt1
925 movdqu 0x60($inp),$xt2
927 movdqu 0x70($inp),$xt3
928 lea 0x80($inp),$inp # size optimization
935 movdqu 0x00($inp),$xt0
937 movdqu 0x10($inp),$xt1
939 movdqu 0x20($inp),$xt2
942 movdqu 0x30($inp),$xt3
949 movdqu 0x40($inp),$xt0
951 movdqu 0x50($inp),$xt1
953 movdqu 0x60($inp),$xt2
955 movdqu 0x70($inp),$xt3
956 lea 0x80($inp),$inp # inp+=64*4
990 movdqu 0x00($inp),$xt0 # xor with input
991 movdqu 0x10($inp),$xt1
992 movdqu 0x20($inp),$xt2
993 movdqu 0x30($inp),$xt3
1005 lea 0x40($inp),$inp # inp+=64*1
1017 movdqu 0x00($inp),$xt0 # xor with input
1018 movdqu 0x10($inp),$xt1
1019 movdqu 0x20($inp),$xt2
1020 movdqu 0x30($inp),$xt3
1027 movdqu 0x40($inp),$xt0
1029 movdqu 0x50($inp),$xt1
1031 movdqu 0x60($inp),$xt2
1033 movdqu 0x70($inp),$xt3
1045 lea 0x80($inp),$inp # inp+=64*2
1057 movdqu 0x00($inp),$xt0 # xor with input
1058 movdqu 0x10($inp),$xt1
1059 movdqu 0x20($inp),$xt2
1060 movdqu 0x30($inp),$xt3
1067 movdqu 0x40($inp),$xt0
1069 movdqu 0x50($inp),$xt1
1071 movdqu 0x60($inp),$xt2
1073 movdqu 0x70($inp),$xt3
1074 lea 0x80($inp),$inp # size optimization
1081 movdqu 0x00($inp),$xt0
1083 movdqu 0x10($inp),$xt1
1085 movdqu 0x20($inp),$xt2
1088 movdqu 0x30($inp),$xt3
1100 lea 0x40($inp),$inp # inp+=64*3
1110 movzb ($inp,%r10),%eax
1484 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1485 vpxor 0x20($inp),$xb0,$xb0
1486 vpxor 0x40($inp),$xc0,$xc0
1487 vpxor 0x60($inp),$xd0,$xd0
1488 lea 0x80($inp),$inp # size optimization
1495 vpxor 0x00($inp),$xa1,$xa1
1496 vpxor 0x20($inp),$xb1,$xb1
1497 vpxor 0x40($inp),$xc1,$xc1
1498 vpxor 0x60($inp),$xd1,$xd1
1499 lea 0x80($inp),$inp # size optimization
1506 vpxor 0x00($inp),$xa2,$xa2
1507 vpxor 0x20($inp),$xb2,$xb2
1508 vpxor 0x40($inp),$xc2,$xc2
1509 vpxor 0x60($inp),$xd2,$xd2
1510 lea 0x80($inp),$inp # size optimization
1517 vpxor 0x00($inp),$xa3,$xa3
1518 vpxor 0x20($inp),$xb3,$xb3
1519 vpxor 0x40($inp),$xc3,$xc3
1520 vpxor 0x60($inp),$xd3,$xd3
1521 lea 0x80($inp),$inp # size optimization
1556 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1557 vpxor 0x20($inp),$xb0,$xb0
1562 lea 0x40($inp),$inp # inp+=64*1
1572 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1573 vpxor 0x20($inp),$xb0,$xb0
1574 vpxor 0x40($inp),$xc0,$xc0
1575 vpxor 0x60($inp),$xd0,$xd0
1582 lea 0x80($inp),$inp # inp+=64*2
1592 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1593 vpxor 0x20($inp),$xb0,$xb0
1594 vpxor 0x40($inp),$xc0,$xc0
1595 vpxor 0x60($inp),$xd0,$xd0
1596 vpxor 0x80($inp),$xa1,$xa1
1597 vpxor 0xa0($inp),$xb1,$xb1
1606 lea 0xc0($inp),$inp # inp+=64*3
1616 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1617 vpxor 0x20($inp),$xb0,$xb0
1618 vpxor 0x40($inp),$xc0,$xc0
1619 vpxor 0x60($inp),$xd0,$xd0
1620 vpxor 0x80($inp),$xa1,$xa1
1621 vpxor 0xa0($inp),$xb1,$xb1
1622 vpxor 0xc0($inp),$xc1,$xc1
1623 vpxor 0xe0($inp),$xd1,$xd1
1634 lea 0x100($inp),$inp # inp+=64*4
1644 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1645 vpxor 0x20($inp),$xb0,$xb0
1646 vpxor 0x40($inp),$xc0,$xc0
1647 vpxor 0x60($inp),$xd0,$xd0
1648 vpxor 0x80($inp),$xa1,$xa1
1649 vpxor 0xa0($inp),$xb1,$xb1
1650 vpxor 0xc0($inp),$xc1,$xc1
1651 vpxor 0xe0($inp),$xd1,$xd1
1652 vpxor 0x100($inp),$xa2,$xa2
1653 vpxor 0x120($inp),$xb2,$xb2
1666 lea 0x140($inp),$inp # inp+=64*5
1676 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1677 vpxor 0x20($inp),$xb0,$xb0
1678 vpxor 0x40($inp),$xc0,$xc0
1679 vpxor 0x60($inp),$xd0,$xd0
1680 vpxor 0x80($inp),$xa1,$xa1
1681 vpxor 0xa0($inp),$xb1,$xb1
1682 vpxor 0xc0($inp),$xc1,$xc1
1683 vpxor 0xe0($inp),$xd1,$xd1
1684 vpxor 0x100($inp),$xa2,$xa2
1685 vpxor 0x120($inp),$xb2,$xb2
1686 vpxor 0x140($inp),$xc2,$xc2
1687 vpxor 0x160($inp),$xd2,$xd2
1702 lea 0x180($inp),$inp # inp+=64*6
1712 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1713 vpxor 0x20($inp),$xb0,$xb0
1714 vpxor 0x40($inp),$xc0,$xc0
1715 vpxor 0x60($inp),$xd0,$xd0
1716 vpxor 0x80($inp),$xa1,$xa1
1717 vpxor 0xa0($inp),$xb1,$xb1
1718 vpxor 0xc0($inp),$xc1,$xc1
1719 vpxor 0xe0($inp),$xd1,$xd1
1720 vpxor 0x100($inp),$xa2,$xa2
1721 vpxor 0x120($inp),$xb2,$xb2
1722 vpxor 0x140($inp),$xc2,$xc2
1723 vpxor 0x160($inp),$xd2,$xd2
1724 vpxor 0x180($inp),$xa3,$xa3
1725 vpxor 0x1a0($inp),$xb3,$xb3
1742 lea 0x1c0($inp),$inp # inp+=64*7
1750 movzb ($inp,%r10),%eax
1875 vpxor 0x00($inp),%x#$a,$t0 # xor with input
1876 vpxor 0x10($inp),%x#$b,$t1
1877 vpxor 0x20($inp),%x#$c,$t2
1878 vpxor 0x30($inp),%x#$d,$t3
1879 lea 0x40($inp),$inp # inp+=64
1897 vpxor 0x00($inp),$t0,$t0 # xor with input
1898 vpxor 0x10($inp),$t1,$t1
1899 vpxor 0x20($inp),$t2,$t2
1900 vpxor 0x30($inp),$t3,$t3
1901 lea 0x40($inp),$inp # inp+=64
1919 vpxor 0x00($inp),$t0,$t0 # xor with input
1920 vpxor 0x10($inp),$t1,$t1
1921 vpxor 0x20($inp),$t2,$t2
1922 vpxor 0x30($inp),$t3,$t3
1923 lea 0x40($inp),$inp # inp+=64
1941 vpxor 0x00($inp),$t0,$t0 # xor with input
1942 vpxor 0x10($inp),$t1,$t1
1943 vpxor 0x20($inp),$t2,$t2
1944 vpxor 0x30($inp),$t3,$t3
1945 lea 0x40($inp),$inp # inp+=64
1975 movzb ($inp,$counter),%eax
2295 vpxord 0x00($inp),$xa0,$xa0 # xor with input
2296 vpxord 0x40($inp),$xb0,$xb0
2297 vpxord 0x80($inp),$xc0,$xc0
2298 vpxord 0xc0($inp),$xd0,$xd0
2304 vpxord 0x100($inp),$xa1,$xa1
2305 vpxord 0x140($inp),$xb1,$xb1
2306 vpxord 0x180($inp),$xc1,$xc1
2307 vpxord 0x1c0($inp),$xd1,$xd1
2313 vpxord 0x200($inp),$xa2,$xa2
2314 vpxord 0x240($inp),$xb2,$xb2
2315 vpxord 0x280($inp),$xc2,$xc2
2316 vpxord 0x2c0($inp),$xd2,$xd2
2322 vpxord 0x300($inp),$xa3,$xa3
2323 vpxord 0x340($inp),$xb3,$xb3
2324 vpxord 0x380($inp),$xc3,$xc3
2325 vpxord 0x3c0($inp),$xd3,$xd3
2326 lea 0x400($inp),$inp
2341 sub $inp,$out
2344 vpxord ($inp),$xa0,$xa0 # xor with input
2345 vmovdqu32 $xa0,($out,$inp)
2348 lea 64($inp),$inp
2352 vpxord ($inp),$xb0,$xb0
2353 vmovdqu32 $xb0,($out,$inp)
2356 lea 64($inp),$inp
2360 vpxord ($inp),$xc0,$xc0
2361 vmovdqu32 $xc0,($out,$inp)
2364 lea 64($inp),$inp
2368 vpxord ($inp),$xd0,$xd0
2369 vmovdqu32 $xd0,($out,$inp)
2372 lea 64($inp),$inp
2376 vpxord ($inp),$xa1,$xa1
2377 vmovdqu32 $xa1,($out,$inp)
2380 lea 64($inp),$inp
2384 vpxord ($inp),$xb1,$xb1
2385 vmovdqu32 $xb1,($out,$inp)
2388 lea 64($inp),$inp
2392 vpxord ($inp),$xc1,$xc1
2393 vmovdqu32 $xc1,($out,$inp)
2396 lea 64($inp),$inp
2400 vpxord ($inp),$xd1,$xd1
2401 vmovdqu32 $xd1,($out,$inp)
2404 lea 64($inp),$inp
2408 vpxord ($inp),$xa2,$xa2
2409 vmovdqu32 $xa2,($out,$inp)
2412 lea 64($inp),$inp
2416 vpxord ($inp),$xb2,$xb2
2417 vmovdqu32 $xb2,($out,$inp)
2420 lea 64($inp),$inp
2424 vpxord ($inp),$xc2,$xc2
2425 vmovdqu32 $xc2,($out,$inp)
2428 lea 64($inp),$inp
2432 vpxord ($inp),$xd2,$xd2
2433 vmovdqu32 $xd2,($out,$inp)
2436 lea 64($inp),$inp
2440 vpxord ($inp),$xa3,$xa3
2441 vmovdqu32 $xa3,($out,$inp)
2444 lea 64($inp),$inp
2448 vpxord ($inp),$xb3,$xb3
2449 vmovdqu32 $xb3,($out,$inp)
2452 lea 64($inp),$inp
2456 vpxord ($inp),$xc3,$xc3
2457 vmovdqu32 $xc3,($out,$inp)
2460 lea 64($inp),$inp
2464 lea ($out,$inp),$out
2468 movzb ($inp,%r10),%eax