Home | History | Annotate | Download | only in AArch64

Lines Matching full:tmp4

649         %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
650 ret <16 x i8> %tmp4
659 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
660 ret <8 x i16> %tmp4
669 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
670 ret <4 x i32> %tmp4
711 %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
712 ret <16 x i8> %tmp4
722 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
723 ret <8 x i16> %tmp4
733 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
734 ret <4 x i32> %tmp4
779 %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
780 ret <16 x i8> %tmp4
789 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
790 ret <8 x i16> %tmp4
799 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
800 ret <4 x i32> %tmp4
845 %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
846 ret <16 x i8> %tmp4
855 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
856 ret <8 x i16> %tmp4
865 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
866 ret <4 x i32> %tmp4
911 %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
912 ret <16 x i8> %tmp4
921 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
922 ret <8 x i16> %tmp4
931 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
932 ret <4 x i32> %tmp4
977 %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
978 ret <16 x i8> %tmp4
987 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
988 ret <8 x i16> %tmp4
997 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
998 ret <4 x i32> %tmp4
1043 %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
1044 ret <16 x i8> %tmp4
1053 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
1054 ret <8 x i16> %tmp4
1063 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
1064 ret <4 x i32> %tmp4
1109 %tmp4 = shufflevector <8 x i8> %out, <8 x i8> %tmp3, <16 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
1110 ret <16 x i8> %tmp4
1119 %tmp4 = shufflevector <4 x i16> %out, <4 x i16> %tmp3, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
1120 ret <8 x i16> %tmp4
1129 %tmp4 = shufflevector <2 x i32> %out, <2 x i32> %tmp3, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
1130 ret <4 x i32> %tmp4
1378 %tmp4 = load <8 x i8>, <8 x i8>* %B
1379 %tmp5 = add <8 x i8> %tmp3, %tmp4
1388 %tmp4 = load <4 x i16>, <4 x i16>* %B
1389 %tmp5 = add <4 x i16> %tmp3, %tmp4
1398 %tmp4 = load <2 x i32>, <2 x i32>* %B
1399 %tmp5 = add <2 x i32> %tmp3, %tmp4
1408 %tmp4 = load <16 x i8>, <16 x i8>* %B
1409 %tmp5 = add <16 x i8> %tmp3, %tmp4
1418 %tmp4 = load <8 x i16>, <8 x i16>* %B
1419 %tmp5 = add <8 x i16> %tmp3, %tmp4
1428 %tmp4 = load <4 x i32>, <4 x i32>* %B
1429 %tmp5 = add <4 x i32> %tmp3, %tmp4
1438 %tmp4 = load <2 x i64>, <2 x i64>* %B
1439 %tmp5 = add <2 x i64> %tmp3, %tmp4
1448 %tmp4 = load <8 x i8>, <8 x i8>* %B
1449 %tmp5 = add <8 x i8> %tmp3, %tmp4
1458 %tmp4 = load <4 x i16>, <4 x i16>* %B
1459 %tmp5 = add <4 x i16> %tmp3, %tmp4
1468 %tmp4 = load <2 x i32>, <2 x i32>* %B
1469 %tmp5 = add <2 x i32> %tmp3, %tmp4
1478 %tmp4 = load <16 x i8>, <16 x i8>* %B
1479 %tmp5 = add <16 x i8> %tmp3, %tmp4
1488 %tmp4 = load <8 x i16>, <8 x i16>* %B
1489 %tmp5 = add <8 x i16> %tmp3, %tmp4
1498 %tmp4 = load <4 x i32>, <4 x i32>* %B
1499 %tmp5 = add <4 x i32> %tmp3, %tmp4
1508 %tmp4 = load <2 x i64>, <2 x i64>* %B
1509 %tmp5 = add <2 x i64> %tmp3, %tmp4
1518 %tmp4 = load <8 x i8>, <8 x i8>* %B
1519 %tmp5 = add <8 x i8> %tmp3, %tmp4
1528 %tmp4 = load <4 x i16>, <4 x i16>* %B
1529 %tmp5 = add <4 x i16> %tmp3, %tmp4
1538 %tmp4 = load <2 x i32>, <2 x i32>* %B
1539 %tmp5 = add <2 x i32> %tmp3, %tmp4
1548 %tmp4 = load <16 x i8>, <16 x i8>* %B
1549 %tmp5 = add <16 x i8> %tmp3, %tmp4
1558 %tmp4 = load <8 x i16>, <8 x i16>* %B
1559 %tmp5 = add <8 x i16> %tmp3, %tmp4
1568 %tmp4 = load <4 x i32>, <4 x i32>* %B
1569 %tmp5 = add <4 x i32> %tmp3, %tmp4
1578 %tmp4 = load <2 x i64>, <2 x i64>* %B
1579 %tmp5 = add <2 x i64> %tmp3, %tmp4
1588 %tmp4
1589 %tmp5 = add <8 x i8> %tmp3, %tmp4
1598 %tmp4 = load <4 x i16>, <4 x i16>* %B
1599 %tmp5 = add <4 x i16> %tmp3, %tmp4
1608 %tmp4 = load <2 x i32>, <2 x i32>* %B
1609 %tmp5 = add <2 x i32> %tmp3, %tmp4
1618 %tmp4 = load <16 x i8>, <16 x i8>* %B
1619 %tmp5 = add <16 x i8> %tmp3, %tmp4
1628 %tmp4 = load <8 x i16>, <8 x i16>* %B
1629 %tmp5 = add <8 x i16> %tmp3, %tmp4
1638 %tmp4 = load <4 x i32>, <4 x i32>* %B
1639 %tmp5 = add <4 x i32> %tmp3, %tmp4
1648 %tmp4 = load <2 x i64>, <2 x i64>* %B
1649 %tmp5 = add <2 x i64> %tmp3, %tmp4
1659 %tmp4 = load <8 x i8>, <8 x i8>* %B
1661 %tmp5 = or <8 x i8> %tmp3, %tmp4
1671 %tmp4 = load <4 x i16>, <4 x i16>* %B
1673 %tmp5 = or <4 x i16> %tmp3, %tmp4
1683 %tmp4 = load <2 x i32>, <2 x i32>* %B
1685 %tmp5 = or <2 x i32> %tmp3, %tmp4
1695 %tmp4 = load <16 x i8>, <16 x i8>* %B
1697 %tmp5 = or <16 x i8> %tmp3, %tmp4
1707 %tmp4 = load <8 x i16>, <8 x i16>* %B
1709 %tmp5 = or <8 x i16> %tmp3, %tmp4
1719 %tmp4 = load <4 x i32>, <4 x i32>* %B
1721 %tmp5 = or <4 x i32> %tmp3, %tmp4
1731 %tmp4 = load <2 x i64>, <2 x i64>* %B
1733 %tmp5 = or <2 x i64> %tmp3, %tmp4
1743 %tmp4 = load <8 x i8>, <8 x i8>* %B
1745 %tmp5 = or <8 x i8> %tmp3, %tmp4
1755 %tmp4 = load <4 x i16>, <4 x i16>* %B
1757 %tmp5 = or <4 x i16> %tmp3, %tmp4
1767 %tmp4 = load <2 x i32>, <2 x i32>* %B
1769 %tmp5 = or <2 x i32> %tmp3, %tmp4
1779 %tmp4 = load <16 x i8>, <16 x i8>* %B
1781 %tmp5 = or <16 x i8> %tmp3, %tmp4
1791 %tmp4 = load <8 x i16>, <8 x i16>* %B
1793 %tmp5 = or <8 x i16> %tmp3, %tmp4
1803 %tmp4 = load <4 x i32>, <4 x i32>* %B
1805 %tmp5 = or <4 x i32> %tmp3, %tmp4
1815 %tmp4 = load <2 x i64>, <2 x i64>* %B
1817 %tmp5 = or <2 x i64> %tmp3, %tmp4