Lines Matching full:tmp1
194 %tmp1 = load <8 x i8>, <8 x i8>* %A
195 %tmp2 = sext <8 x i8> %tmp1 to <8 x i16>
202 %tmp1 = load <4 x i16>, <4 x i16>* %A
203 %tmp2 = sext <4 x i16> %tmp1 to <4 x i32>
210 %tmp1 = load <2 x i32>, <2 x i32>* %A
211 %tmp2 = sext <2 x i32> %tmp1 to <2 x i64>
218 %tmp1 = load <8 x i8>, <8 x i8>* %A
219 %tmp2 = zext <8 x i8> %tmp1 to <8 x i16>
226 %tmp1 = load <4 x i16>, <4 x i16>* %A
227 %tmp2 = zext <4 x i16> %tmp1 to <4 x i32>
234 %tmp1 = load <2 x i32>, <2 x i32>* %A
235 %tmp2 = zext <2 x i32> %tmp1 to <2 x i64>
242 %tmp1 = load <8 x i16>, <8 x i16>* %A
243 %tmp2 = trunc <8 x i16> %tmp1 to <8 x i8>
250 %tmp1 = load <4 x i32>, <4 x i32>* %A
251 %tmp2 = trunc <4 x i32> %tmp1 to <4 x i16>
258 %tmp1 = load <2 x i64>, <2 x i64>* %A
259 %tmp2 = trunc <2 x i64> %tmp1 to <2 x i32>
266 %tmp1 = load <8 x i16>, <8 x i16>* %A
267 %tmp2 = call <8 x i8> @llvm.arm.neon.vqmovns.v8i8(<8 x i16> %tmp1)
274 %tmp1 = load <4 x i32>, <4 x i32>* %A
275 %tmp2 = call <4 x i16> @llvm.arm.neon.vqmovns.v4i16(<4 x i32> %tmp1)
282 %tmp1 = load <2 x i64>, <2 x i64>* %A
283 %tmp2 = call <2 x i32> @llvm.arm.neon.vqmovns.v2i32(<2 x i64> %tmp1)
290 %tmp1 = load <8 x i16>, <8 x i16>* %A
291 %tmp2 = call <8 x i8> @llvm.arm.neon.vqmovnu.v8i8(<8 x i16> %tmp1)
298 %tmp1 = load <4 x i32>, <4 x i32>* %A
299 %tmp2 = call <4 x i16> @llvm.arm.neon.vqmovnu.v4i16(<4 x i32> %tmp1)
306 %tmp1 = load <2 x i64>, <2 x i64>* %A
307 %tmp2 = call <2 x i32> @llvm.arm.neon.vqmovnu.v2i32(<2 x i64> %tmp1)
314 %tmp1 = load <8 x i16>, <8 x i16>* %A
315 %tmp2 = call <8 x i8> @llvm.arm.neon.vqmovnsu.v8i8(<8 x i16> %tmp1)
322 %tmp1 = load <4 x i32>, <4 x i32>* %A
323 %tmp2 = call <4 x i16> @llvm.arm.neon.vqmovnsu.v4i16(<4 x i32> %tmp1)
330 %tmp1 = load <2 x i64>, <2 x i64>* %A
331 %tmp2 = call <2 x i32> @llvm.arm.neon.vqmovnsu.v2i32(<2 x i64> %tmp1)
351 %tmp1 = load <4 x i32>, <4 x i32>* %a, align 16
352 %tmp2 = trunc <4 x i32> %tmp1 to <4 x i16>