Home | History | Annotate | Download | only in AArch64

Lines Matching full:tmp1

6         %tmp1 = load <8 x i16>, <8 x i16>* %A
8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.subhn.v8i8(<8 x i16> %tmp1, <8 x i16> %tmp2)
15 %tmp1 = load <4 x i32>, <4 x i32>* %A
17 %tmp3 = call <4 x i16> @llvm.aarch64.neon.subhn.v4i16(<4 x i32> %tmp1, <4 x i32> %tmp2)
24 %tmp1 = load <2 x i64>, <2 x i64>* %A
26 %tmp3 = call <2 x i32> @llvm.aarch64.neon.subhn.v2i32(<2 x i64> %tmp1, <2 x i64> %tmp2)
67 %tmp1 = load <8 x i16>, <8 x i16>* %A
69 %tmp3 = call <8 x i8> @llvm.aarch64.neon.rsubhn.v8i8(<8 x i16> %tmp1, <8 x i16> %tmp2)
76 %tmp1 = load <4 x i32>, <4 x i32>* %A
78 %tmp3 = call <4 x i16> @llvm.aarch64.neon.rsubhn.v4i16(<4 x i32> %tmp1, <4 x i32> %tmp2)
85 %tmp1 = load <2 x i64>, <2 x i64>* %A
87 %tmp3 = call <2 x i32> @llvm.aarch64.neon.rsubhn.v2i32(<2 x i64> %tmp1, <2 x i64> %tmp2)
128 %tmp1 = load <8 x i8>, <8 x i8>* %A
130 %tmp3 = sext <8 x i8> %tmp1 to <8 x i16>
139 %tmp1 = load <4 x i16>, <4 x i16>* %A
141 %tmp3 = sext <4 x i16> %tmp1 to <4 x i32>
150 %tmp1 = load <2 x i32>, <2 x i32>* %A
152 %tmp3 = sext <2 x i32> %tmp1 to <2 x i64>
161 %tmp1 = load <16 x i8>, <16 x i8>* %A
162 %high1 = shufflevector <16 x i8> %tmp1, <16 x i8> undef, <8 x i32> <i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
176 %tmp1 = load <8 x i16>, <8 x i16>* %A
177 %high1 = shufflevector <8 x i16> %tmp1, <8 x i16> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7>
191 %tmp1 = load <4 x i32>, <4 x i32>* %A
192 %high1 = shufflevector <4 x i32> %tmp1, <4 x i32> undef, <2 x i32> <i32 2, i32 3>
206 %tmp1 = load <8 x i8>, <8 x i8>* %A
208 %tmp3 = zext <8 x i8> %tmp1 to <8 x i16>
217 %tmp1 = load <4 x i16>, <4 x i16>* %A
219 %tmp3 = zext <4 x i16> %tmp1 to <4 x i32>
228 %tmp1 = load <2 x i32>, <2 x i32>* %A
230 %tmp3 = zext <2 x i32> %tmp1 to <2 x i64>
239 %tmp1 = load <16 x i8>, <16 x i8>* %A
240 %high1 = shufflevector <16 x i8> %tmp1, <16 x i8> undef, <8 x i32> <i32 8, i32 9, i32 10, i32 11, i32 12, i32 13, i32 14, i32 15>
254 %tmp1 = load <8 x i16>, <8 x i16>* %A
255 %high1 = shufflevector <8 x i16> %tmp1, <8 x i16> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7>
269 %tmp1 = load <4 x i32>, <4 x i32>* %A
270 %high1 = shufflevector <4 x i32> %tmp1, <4 x i32> undef, <2 x i32> <i32 2, i32 3>
284 %tmp1 = load <8 x i16>, <8 x i16>* %A
287 %tmp4 = sub <8 x i16> %tmp1, %tmp3
294 %tmp1 = load <4 x i32>, <4 x i32>* %A
297 %tmp4 = sub <4 x i32> %tmp1, %tmp3
304 %tmp1 = load <2 x i64>, <2 x i64>* %A
307 %tmp4 = sub <2 x i64> %tmp1, %tmp3
314 %tmp1 = load <8 x i16>, <8 x i16>* %A
320 %res = sub <8 x i16> %tmp1, %ext2
327 %tmp1 = load <4 x i32>, <4 x i32>* %A
333 %res = sub <4 x i32> %tmp1, %ext2
340 %tmp1 = load <2 x i64>, <2 x i64>* %A
346 %res = sub <2 x i64> %tmp1, %ext2
353 %tmp1 = load <8 x i16>, <8 x i16>* %A
356 %tmp4 = sub <8 x i16> %tmp1, %tmp3
363 %tmp1 = load <4 x i32>, <4 x i32>* %A
366 %tmp4 = sub <4 x i32> %tmp1, %tmp3
373 %tmp1 = load <2 x i64>, <2 x i64>* %A
376 %tmp4 = sub <2 x i64> %tmp1, %tmp3
383 %tmp1 = load <8 x i16>, <8 x i16>* %A
389 %res = sub <8 x i16> %tmp1, %ext2
396 %tmp1 = load <4 x i32>, <4 x i32>* %A
402 %res = sub <4 x i32> %tmp1, %ext2
409 %tmp1 = load <2 x i64>, <2 x i64>* %A
415 %res = sub <2 x i64> %tmp1, %ext2