Home | History | Annotate | Download | only in ARM

Lines Matching full:i16

13 define <4 x i16> @vcges16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
16 %tmp1 = load <4 x i16>* %A
17 %tmp2 = load <4 x i16>* %B
18 %tmp3 = icmp sge <4 x i16> %tmp1, %tmp2
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
20 ret <4 x i16> %tmp4
43 define <4 x i16> @vcgeu16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
46 %tmp1 = load <4 x i16>* %A
47 %tmp2 = load <4 x i16>* %B
48 %tmp3 = icmp uge <4 x i16> %tmp1, %tmp2
49 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
50 ret <4 x i16> %tmp4
83 define <8 x i16> @vcgeQs16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
86 %tmp1 = load <8 x i16>* %A
87 %tmp2 = load <8 x i16>* %B
88 %tmp3 = icmp sge <8 x i16> %tmp1, %tmp2
89 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
90 ret <8 x i16> %tmp4
113 define <8 x i16> @vcgeQu16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
116 %tmp1 = load <8 x i16>* %A
117 %tmp2 = load <8 x i16>* %B
118 %tmp3 = icmp uge <8 x i16> %tmp1, %tmp2
119 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
120 ret <8 x i16> %tmp4
194 %1 = sext <4 x i1> %0 to <4 x i16>
195 %2 = add <4 x i16> %1, zeroinitializer
196 %3 = shufflevector <4 x i16> %2, <4 x i16> undef, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
197 %4 = add <8 x i16> %3, <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>
198 %5 = trunc <8 x i16> %4 to <8 x i8>