Lines Matching full:tmp4
10 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
11 ret <8 x i16> %tmp4
20 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
21 ret <4 x i32> %tmp4
30 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
31 ret <2 x i64> %tmp4
42 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
43 ret <8 x i16> %tmp4
54 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
55 ret <4 x i32> %tmp4
66 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
67 ret <2 x i64> %tmp4
76 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
77 ret <8 x i16> %tmp4
86 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
87 ret <4 x i32> %tmp4
96 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
97 ret <2 x i64> %tmp4
109 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
110 ret <8 x i16> %tmp4
121 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
122 ret <4 x i32> %tmp4
133 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
134 ret <2 x i64> %tmp4
543 %tmp4 = call <8 x i8> @llvm.aarch64.neon.sabd.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
544 %tmp4.1 = zext <8 x i8> %tmp4 to <8 x i16>
545 %tmp5 = add <8 x i16> %tmp3, %tmp4.1
555 %tmp4 = call <4 x i16> @llvm.aarch64.neon.sabd.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
556 %tmp4.1 = zext <4 x i16> %tmp4 to <4 x i32>
557 %tmp5 = add <4 x i32> %tmp3, %tmp4.1
567 %tmp4 = call <2 x i32> @llvm.aarch64.neon.sabd.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
568 %tmp4.1 = zext <2 x i32> %tmp4 to <2 x i64>
569 %tmp4.1.1 = zext <2 x i32> %tmp4 to <2 x i64>
570 %tmp5 = add <2 x i64> %tmp3, %tmp4.1
582 %tmp4 = call <8 x i8> @llvm.aarch64.neon.sabd.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
583 %tmp4.1 = zext <8 x i8> %tmp4 to <8 x i16>
584 %tmp5 = add <8 x i16> %tmp3, %tmp4.1
596 %tmp4 = call <4 x i16> @llvm.aarch64.neon.sabd.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
597 %tmp4.1 = zext <4 x i16> %tmp4 to <4 x i32>
598 %tmp5 = add <4 x i32> %tmp3, %tmp4.1
610 %tmp4 = call <2 x i32> @llvm.aarch64.neon.sabd.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
611 %tmp4.1 = zext <2 x i32> %tmp4 to <2 x i64>
612 %tmp5 = add <2 x i64> %tmp3, %tmp4.1
622 %tmp4 = call <8 x i8> @llvm.aarch64.neon.uabd.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
623 %tmp4.1 = zext <8 x i8> %tmp4 to <8 x i16>
624 %tmp5 = add <8 x i16> %tmp3, %tmp4.1
634 %tmp4 = call <4 x i16> @llvm.aarch64.neon.uabd.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
635 %tmp4.1 = zext <4 x i16> %tmp4 to <4 x i32>
636 %tmp5 = add <4 x i32> %tmp3, %tmp4.1
646 %tmp4 = call <2 x i32> @llvm.aarch64.neon.uabd.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
647 %tmp4.1 = zext <2 x i32> %tmp4 to <2 x i64>
648 %tmp5 = add <2 x i64> %tmp3, %tmp4.1
660 %tmp4 = call <8 x i8> @llvm.aarch64.neon.uabd.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
661 %tmp4.1 = zext <8 x i8> %tmp4 to <8 x i16>
662 %tmp5 = add <8 x i16> %tmp3, %tmp4.1
674 %tmp4 = call <4 x i16> @llvm.aarch64.neon.uabd.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
675 %tmp4.1 = zext <4 x i16> %tmp4 to <4 x i32>
676 %tmp5 = add <4 x i32> %tmp3, %tmp4.1
688 %tmp4 = call <2 x i32> @llvm.aarch64.neon.uabd.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
689 %tmp4.1 = zext <2 x i32> %tmp4 to <2 x i64>
690 %tmp5 = add <2 x i64> %tmp3, %tmp4.1
700 %tmp4 = load <8 x i8>, <8 x i8>* %C
701 %tmp5 = add <8 x i8> %tmp3, %tmp4
711 %tmp4 = load <16 x i8>, <16 x i8>* %C
712 %tmp5 = add <16 x i8> %tmp3, %tmp4
722 %tmp4 = load <4 x i16>, <4 x i16>* %C
723 %tmp5 = add <4 x i16> %tmp3, %tmp4
733 %tmp4 = load <8 x i16>, <8 x i16>* %C
734 %tmp5 = add <8 x i16> %tmp3, %tmp4
744 %tmp4 = load <2 x i32>, <2 x i32>* %C
745 %tmp5 = add <2 x i32> %tmp3, %tmp4
755 %tmp4 = load <4 x i32>, <4 x i32>* %C
756 %tmp5 = add <4 x i32> %tmp3, %tmp4
766 %tmp4 = load <8 x i8>, <8 x i8>* %C
767 %tmp5 = add <8 x i8> %tmp3, %tmp4
777 %tmp4 = load <16 x i8>, <16 x i8>* %C
778 %tmp5 = add <16 x i8> %tmp3, %tmp4
788 %tmp4 = load <4 x i16>, <4 x i16>* %C
789 %tmp5 = add <4 x i16> %tmp3, %tmp4
799 %tmp4 = load <8 x i16>, <8 x i16>* %C
800 %tmp5 = add <8 x i16> %tmp3, %tmp4
810 %tmp4 = load <2 x i32>, <2 x i32>* %C
811 %tmp5 = add <2 x i32> %tmp3, %tmp4
821 %tmp4 = load <4 x i32>, <4 x i32>* %C
822 %tmp5 = add <4 x i32> %tmp3, %tmp4