Home | History | Annotate | Download | only in ARM

Lines Matching full:i16

12 define <4 x i16> @v_andi16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
15 %tmp1 = load <4 x i16>* %A
16 %tmp2 = load <4 x i16>* %B
17 %tmp3 = and <4 x i16> %tmp1, %tmp2
18 ret <4 x i16> %tmp3
48 define <8 x i16> @v_andQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
51 %tmp1 = load <8 x i16>* %A
52 %tmp2 = load <8 x i16>* %B
53 %tmp3 = and <8 x i16> %tmp1, %tmp2
54 ret <8 x i16> %tmp3
85 define <4 x i16> @v_bici16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
88 %tmp1 = load <4 x i16>* %A
89 %tmp2 = load <4 x i16>* %B
90 %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
91 %tmp4 = and <4 x i16> %tmp1, %tmp3
92 ret <4 x i16> %tmp4
125 define <8 x i16> @v_bicQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
128 %tmp1 = load <8 x i16>* %A
129 %tmp2 = load <8 x i16>* %B
130 %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
131 %tmp4 = and <8 x i16> %tmp1, %tmp3
132 ret <8 x i16> %tmp4
164 define <4 x i16> @v_eori16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
167 %tmp1 = load <4 x i16>* %A
168 %tmp2 = load <4 x i16>* %B
169 %tmp3 = xor <4 x i16> %tmp1, %tmp2
170 ret <4 x i16> %tmp3
200 define <8 x i16> @v_eorQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
203 %tmp1 = load <8 x i16>* %A
204 %tmp2 = load <8 x i16>* %B
205 %tmp3 = xor <8 x i16> %tmp1, %tmp2
206 ret <8 x i16> %tmp3
235 define <4 x i16> @v_mvni16(<4 x i16>* %A) nounwind {
238 %tmp1 = load <4 x i16>* %A
239 %tmp2 = xor <4 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1 >
240 ret <4 x i16> %tmp2
267 define <8 x i16> @v_mvnQi16(<8 x i16>* %A) nounwind {
270 %tmp1 = load <8 x i16>* %A
271 %tmp2 = xor <8 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
272 ret <8 x i16> %tmp2
300 define <4 x i16> @v_orri16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
303 %tmp1 = load <4 x i16>* %A
304 %tmp2 = load <4 x i16>* %B
305 %tmp3 = or <4 x i16> %tmp1, %tmp2
306 ret <4 x i16> %tmp3
336 define <8 x i16> @v_orrQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
339 %tmp1 = load <8 x i16>* %A
340 %tmp2 = load <8 x i16>* %B
341 %tmp3 = or <8 x i16> %tmp1, %tmp2
342 ret <8 x i16> %tmp3
373 define <4 x i16> @v_orni16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
376 %tmp1 = load <4 x i16>* %A
377 %tmp2 = load <4 x i16>* %B
378 %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
379 %tmp4 = or <4 x i16> %tmp1, %tmp3
380 ret <4 x i16> %tmp4
413 define <8 x i16> @v_ornQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
416 %tmp1 = load <8 x i16>* %A
417 %tmp2 = load <8 x i16>* %B
418 %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
419 %tmp4 = or <8 x i16> %tmp1, %tmp3
420 ret <8 x i16> %tmp4
454 define <4 x i16> @vtsti16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
457 %tmp1 = load <4 x i16>* %A
458 %tmp2 = load <4 x i16>* %B
459 %tmp3 = and <4 x i16> %tmp1, %tmp2
460 %tmp4 = icmp ne <4 x i16> %tmp3, zeroinitializer
461 %tmp5 = sext <4 x i1> %tmp4 to <4 x i16>
462 ret <4 x i16> %tmp5
487 define <8 x i16> @vtstQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
490 %tmp1 = load <8 x i16>* %A
491 %tmp2 = load <8 x i16>* %B
492 %tmp3 = and <8 x i16> %tmp1, %tmp2
493 %tmp4 = icmp ne <8 x i16> %tmp3, zeroinitializer
494 %tmp5 = sext <8 x i1> %tmp4 to <8 x i16>
495 ret <8 x i16> %tmp5