Home | History | Annotate | Download | only in AArch64

Lines Matching full:tmp1

6         %tmp1 = load <8 x i16>, <8 x i16>* %A
8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.addhn.v8i8(<8 x i16> %tmp1, <8 x i16> %tmp2)
15 %tmp1 = load <4 x i32>, <4 x i32>* %A
17 %tmp3 = call <4 x i16> @llvm.aarch64.neon.addhn.v4i16(<4 x i32> %tmp1, <4 x i32> %tmp2)
24 %tmp1 = load <2 x i64>, <2 x i64>* %A
26 %tmp3 = call <2 x i32> @llvm.aarch64.neon.addhn.v2i32(<2 x i64> %tmp1, <2 x i64> %tmp2)
68 %tmp1 = load <8 x i16>, <8 x i16>* %A
70 %tmp3 = call <8 x i8> @llvm.aarch64.neon.raddhn.v8i8(<8 x i16> %tmp1, <8 x i16> %tmp2)
77 %tmp1 = load <4 x i32>, <4 x i32>* %A
79 %tmp3 = call <4 x i16> @llvm.aarch64.neon.raddhn.v4i16(<4 x i32> %tmp1, <4 x i32> %tmp2)
86 %tmp1 = load <2 x i64>, <2 x i64>* %A
88 %tmp3 = call <2 x i32> @llvm.aarch64.neon.raddhn.v2i32(<2 x i64> %tmp1, <2 x i64> %tmp2)
129 %tmp1 = load <8 x i8>, <8 x i8>* %A
131 %tmp3 = sext <8 x i8> %tmp1 to <8 x i16>
140 %tmp1 = load <4 x i16>, <4 x i16>* %A
142 %tmp3 = sext <4 x i16> %tmp1 to <4 x i32>
151 %tmp1 = load <2 x i32>, <2 x i32>* %A
153 %tmp3 = sext <2 x i32> %tmp1 to <2 x i64>
165 %tmp1 = bitcast <1 x i64> %shuffle.i.i.i to <8 x i8>
166 %vmovl.i.i.i = sext <8 x i8> %tmp1 to <8 x i16>
181 %tmp1 = bitcast <1 x i64> %shuffle.i.i.i to <4 x i16>
182 %vmovl.i.i.i = sext <4 x i16> %tmp1 to <4 x i32>
197 %tmp1 = bitcast <1 x i64> %shuffle.i.i.i to <2 x i32>
198 %vmovl.i.i.i = sext <2 x i32> %tmp1 to <2 x i64>
210 %tmp1 = load <8 x i8>, <8 x i8>* %A
212 %tmp3 = zext <8 x i8> %tmp1 to <8 x i16>
221 %tmp1 = load <4 x i16>, <4 x i16>* %A
223 %tmp3 = zext <4 x i16> %tmp1 to <4 x i32>
232 %tmp1 = load <2 x i32>, <2 x i32>* %A
234 %tmp3 = zext <2 x i32> %tmp1 to <2 x i64>
247 %tmp1 = bitcast <1 x i64> %shuffle.i.i.i to <8 x i8>
248 %vmovl.i.i.i = zext <8 x i8> %tmp1 to <8 x i16>
263 %tmp1 = bitcast <1 x i64> %shuffle.i.i.i to <4 x i16>
264 %vmovl.i.i.i = zext <4 x i16> %tmp1 to <4 x i32>
279 %tmp1 = bitcast <1 x i64> %shuffle.i.i.i to <2 x i32>
280 %vmovl.i.i.i = zext <2 x i32> %tmp1 to <2 x i64>
292 %tmp1 = load <8 x i16>, <8 x i16>* %A
295 %tmp4 = add <8 x i16> %tmp1, %tmp3
302 %tmp1 = load <4 x i32>, <4 x i32>* %A
305 %tmp4 = add <4 x i32> %tmp1, %tmp3
312 %tmp1 = load <2 x i64>, <2 x i64>* %A
315 %tmp4 = add <2 x i64> %tmp1, %tmp3
322 %tmp1 = load <8 x i16>, <8 x i16>* %A
328 %res = add <8 x i16> %tmp1, %ext2
335 %tmp1 = load <4 x i32>, <4 x i32>* %A
341 %res = add <4 x i32> %tmp1, %ext2
348 %tmp1 = load <2 x i64>, <2 x i64>* %A
354 %res = add <2 x i64> %tmp1, %ext2
361 %tmp1 = load <8 x i16>, <8 x i16>* %A
364 %tmp4 = add <8 x i16> %tmp1, %tmp3
371 %tmp1 = load <4 x i32>, <4 x i32>* %A
374 %tmp4 = add <4 x i32> %tmp1, %tmp3
381 %tmp1 = load <2 x i64>, <2 x i64>* %A
384 %tmp4 = add <2 x i64> %tmp1, %tmp3
391 %tmp1 = load <8 x i16>, <8 x i16>* %A
397 %res = add <8 x i16> %tmp1, %ext2
404 %tmp1 = load <4 x i32>, <4 x i32>* %A
410 %res = add <4 x i32> %tmp1, %ext2
417 %tmp1 = load <2 x i64>, <2 x i64>* %A
423 %res = add <2 x i64> %tmp1, %ext2
430 %tmp1 = load <8 x i8>, <8 x i8>* %A
431 %tmp3 = call <4 x i16> @llvm.aarch64.neon.saddlp.v4i16.v8i8(<8 x i8> %tmp1)
438 %tmp1 = load <4 x i16>, <4 x i16>* %A
439 %tmp3 = call <2 x i32> @llvm.aarch64.neon.saddlp.v2i32.v4i16(<4 x i16> %tmp1)
446 %tmp1 = load <2 x i32>, <2 x i32>* %A
447 %tmp3 = call <1 x i64> @llvm.aarch64.neon.saddlp.v1i64.v2i32(<2 x i32> %tmp1)
454 %tmp1 = load <16 x i8>, <16 x i8>* %A
455 %tmp3 = call <8 x i16> @llvm.aarch64.neon.saddlp.v8i16.v16i8(<16 x i8> %tmp1)
462 %tmp1 = load <8 x i16>, <8 x i16>* %A
463 %tmp3 = call <4 x i32> @llvm.aarch64.neon.saddlp.v4i32.v8i16(<8 x i16> %tmp1)
470 %tmp1 = load <4 x i32>, <4 x i32>* %A
471 %tmp3 = call <2 x i64> @llvm.aarch64.neon.saddlp.v2i64.v4i32(<4 x i32> %tmp1)
486 %tmp1 = load <8 x i8>, <8 x i8>* %A
487 %tmp3 = call <4 x i16> @llvm.aarch64.neon.uaddlp.v4i16.v8i8(<8 x i8> %tmp1)
494 %tmp1 = load <4 x i16>, <4 x i16>* %A
495 %tmp3 = call <2 x i32> @llvm.aarch64.neon.uaddlp.v2i32.v4i16(<4 x i16> %tmp1)
502 %tmp1 = load <2 x i32>, <2 x i32>* %A
503 %tmp3 = call <1 x i64> @llvm.aarch64.neon.uaddlp.v1i64.v2i32(<2 x i32> %tmp1)
510 %tmp1 = load <16 x i8>, <16 x i8>* %A
511 %tmp3 = call <8 x i16> @llvm.aarch64.neon.uaddlp.v8i16.v16i8(<16 x i8> %tmp1)
518 %tmp1 = load <8 x i16>, <8 x i16>* %A
519 %tmp3 = call <4 x i32> @llvm.aarch64.neon.uaddlp.v4i32.v8i16(<8 x i16> %tmp1)
526 %tmp1 = load <4 x i32>, <4 x i32>* %A
527 %tmp3 = call <2 x i64> @llvm.aarch64.neon.uaddlp.v2i64.v4i32(<4 x i32> %tmp1)
542 %tmp1 = load <8 x i8>, <8 x i8>* %A
543 %tmp3 = call <4 x i16> @llvm.aarch64.neon.saddlp.v4i16.v8i8(<8 x i8> %tmp1)
552 %tmp1 = load <4 x i16>, <4 x i16>* %A
553 %tmp3 = call <2 x i32> @llvm.aarch64.neon.saddlp.v2i32.v4i16(<4 x i16> %tmp1)
562 %tmp1 = load <16 x i8>, <16 x i8>* %A
563 %tmp3 = call <8 x i16> @llvm.aarch64.neon.saddlp.v8i16.v16i8(<16 x i8> %tmp1)
572 %tmp1 = load <8 x i16>, <8 x i16>* %A
573 %tmp3 = call <4 x i32> @llvm.aarch64.neon.saddlp.v4i32.v8i16(<8 x i16> %tmp1)
582 %tmp1 = load <4 x i32>, <4 x i32>* %A
583 %tmp3 = call <2 x i64> @llvm.aarch64.neon.saddlp.v2i64.v4i32(<4 x i32> %tmp1)
592 %tmp1 = load <8 x i8>, <8 x i8>* %A
593 %tmp3 = call <4 x i16> @llvm.aarch64.neon.uaddlp.v4i16.v8i8(<8 x i8> %tmp1)
602 %tmp1 = load <4 x i16>, <4 x i16>* %A
603 %tmp3 = call <2 x i32> @llvm.aarch64.neon.uaddlp.v2i32.v4i16(<4 x i16> %tmp1)
612 %tmp1 = load <16 x i8>, <16 x i8>* %A
613 %tmp3 = call <8 x i16> @llvm.aarch64.neon.uaddlp.v8i16.v16i8(<16 x i8> %tmp1)
622 %tmp1 = load <8 x i16>, <8 x i16>* %A
623 %tmp3 = call <4 x i32> @llvm.aarch64.neon.uaddlp.v4i32.v8i16(<8 x i16> %tmp1)
632 %tmp1 = load <4 x i32>, <4 x i32>* %A
633 %tmp3 = call <2 x i64> @llvm.aarch64.neon.uaddlp.v2i64.v4i32(<4 x i32> %tmp1)
642 %tmp1 = load <8 x i8>, <8 x i8>* %A
644 %tmp3 = call <8 x i8> @llvm.aarch64.neon.addp.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
651 %tmp1 = load <16 x i8>, <16 x i8>* %A
653 %tmp3 = call <16 x i8> @llvm.aarch64.neon.addp.v16i8(<16 x i8> %tmp1, <16 x i8> %tmp2)
660 %tmp1 = load <4 x i16>, <4 x i16>* %A
662 %tmp3 = call <4 x i16> @llvm.aarch64.neon.addp.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
669 %tmp1 = load <8 x i16>, <8 x i16>* %A
671 %tmp3 = call <8 x i16> @llvm.aarch64.neon.addp.v8i16(<8 x i16> %tmp1, <8 x i16> %tmp2)
678 %tmp1 = load <2 x i32>, <2 x i32>* %A
680 %tmp3 = call <2 x i32> @llvm.aarch64.neon.addp.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
687 %tmp1 = load <4 x i32>, <4 x i32>* %A
689 %tmp3 = call <4 x i32> @llvm.aarch64.neon.addp.v4i32(<4 x i32> %tmp1, <4 x i32> %tmp2)
696 %tmp1 = load <2 x i64>, <2 x i64>* %A
698 %tmp3 = call <2 x i64> @llvm.aarch64.neon.addp.v2i64(<2 x i64> %tmp1, <2 x i64> %tmp2)
713 %tmp1 = load <2 x float>, <2 x float>* %A
715 %tmp3 = call <2 x float> @llvm.aarch64.neon.addp.v2f32(<2 x float> %tmp1, <2 x float> %tmp2)
722 %tmp1 = load <4 x float>, <4 x float>* %A
724 %tmp3 = call <4 x float> @llvm.aarch64.neon.addp.v4f32(<4 x float> %tmp1, <4 x float> %tmp2)
731 %tmp1 = load <2 x double>, <2 x double>* %A
733 %tmp3 = call <2 x double> @llvm.aarch64.neon.addp.v2f64(<2 x double> %tmp1, <2 x double> %tmp2)
808 %tmp1 = load <8 x i16>, <8 x i16>* %A
810 %sum = add <8 x i16> %tmp1, %tmp2
819 %tmp1 = load <4 x i32>, <4 x i32>* %A
821 %sum = add <4 x i32> %tmp1, %tmp2
830 %tmp1 = load <2 x i64>, <2 x i64>* %A
832 %sum = add <2 x i64> %tmp1, %tmp2
841 %tmp1 = load <8 x i16>, <8 x i16>* %A
843 %sum = add <8 x i16> %tmp1, %tmp2
853 %tmp1 = load <4 x i32>, <4 x i32>* %A
855 %sum = add <4 x i32> %tmp1, %tmp2
865 %tmp1 = load <2 x i64>, <2 x i64>* %A
867 %sum = add <2 x i64> %tmp1, %tmp2
877 %tmp1 = load <8 x i16>, <8 x i16>* %A
879 %diff = sub <8 x i16> %tmp1, %tmp2
888 %tmp1 = load <4 x i32>, <4 x i32>* %A
890 %diff = sub <4 x i32> %tmp1, %tmp2
899 %tmp1 = load <2 x i64>, <2 x i64>* %A
901 %diff = sub <2 x i64> %tmp1, %tmp2
910 %tmp1 = load <8 x i16>, <8 x i16>* %A
912 %diff = sub <8 x i16> %tmp1, %tmp2
922 %tmp1 = load <4 x i32>, <4 x i32>* %A
924 %diff = sub <4 x i32> %tmp1, %tmp2
934 %tmp1 = load <2 x i64>, <2 x i64>* %A
936 %diff = sub <2 x i64> %tmp1, %tmp2