Home | History | Annotate | Download | only in ARM

Lines Matching full:i64

33 define <1 x i64> @vsras64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
36 %tmp1 = load <1 x i64>* %A
37 %tmp2 = load <1 x i64>* %B
38 %tmp3 = ashr <1 x i64> %tmp2, < i64 64 >
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
40 ret <1 x i64> %tmp4
73 define <2 x i64> @vsraQs64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
76 %tmp1 = load <2 x i64>* %A
77 %tmp2 = load <2 x i64>* %B
78 %tmp3 = ashr <2 x i64> %tmp2, < i64 64, i64 64 >
79 %tmp4 = add <2 x i64> %tmp1, %tmp3
80 ret <2 x i64> %tmp4
113 define <1 x i64> @vsrau64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
116 %tmp1 = load <1 x i64>* %A
117 %tmp2 = load <1 x i64>* %B
118 %tmp3 = lshr <1 x i64> %tmp2, < i64 64 >
119 %tmp4 = add <1 x i64> %tmp1, %tmp3
120 ret <1 x i64> %tmp4
153 define <2 x i64> @vsraQu64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
156 %tmp1 = load <2 x i64>* %A
157 %tmp2 = load <2 x i64>* %B
158 %tmp3 = lshr <2 x i64> %tmp2, < i64 64, i64 64 >
159 %tmp4 = add <2 x i64> %tmp1, %tmp3
160 ret <2 x i64> %tmp4
193 define <1 x i64> @vrsras64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
196 %tmp1 = load <1 x i64>* %A
197 %tmp2 = load <1 x i64>* %B
198 %tmp3 = call <1 x i64> @llvm.arm.neon.vrshifts.v1i64(<1 x i64> %tmp2, <1 x i64> < i64 -64 >)
199 %tmp4 = add <1 x i64> %tmp1, %tmp3
200 ret <1 x i64> %tmp4
233 define <1 x i64> @vrsrau64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
236 %tmp1 = load <1 x i64>* %A
237 %tmp2 = load <1 x i64>* %B
238 %tmp3 = call <1 x i64> @llvm.arm.neon.vrshiftu.v1i64(<1 x i64> %tmp2, <1 x i64> < i64 -64 >)
239 %tmp4 = add <1 x i64> %tmp1, %tmp3
240 ret <1 x i64> %tmp4
273 define <2 x i64> @vrsraQs64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
276 %tmp1 = load <2 x i64>* %A
277 %tmp2 = load <2 x i64>* %B
278 %tmp3 = call <2 x i64> @llvm.arm.neon.vrshifts.v2i64(<2 x i64> %tmp2, <2 x i64> < i64 -64, i64 -64 >)
279 %tmp4 = add <2 x i64> %tmp1, %tmp3
280 ret <2 x i64> %tmp4
313 define <2 x i64> @vrsraQu64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
316 %tmp1 = load <2 x i64>* %A
317 %tmp2 = load <2 x i64>* %B
318 %tmp3 = call <2 x i64> @llvm.arm.neon.vrshiftu.v2i64(<2 x i64> %tmp2, <2 x i64> < i64 -64, i64 -64 >)
319 %tmp4 = add <2 x i64> %tmp1, %tmp3
320 ret <2 x i64> %tmp4
326 declare <1 x i64> @llvm.arm.neon.vrshifts.v1i64(<1 x i64>, <1 x i64>) nounwind readnone
331 declare <1 x i64> @llvm.arm.neon.vrshiftu.v1i64(<1 x i64>, <1 x i64>) nounwind readnone
336 declare <2 x i64> @llvm.arm.neon.vrshifts.v2i64(<2 x i64>, <2 x i64>) nounwind readnone
341 declare <2 x i64> @llvm.arm.neon.vrshiftu.v2i64(<2 x i64>, <2 x i64>) nounwind readnone