Lines Matching full:i16
9 target datalayout = "E-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:32:64-f32:32:32-f64:32:64-v64:64:64-v128:128:128-a0:0:64-f128:64:128"
14 @ss = common global i16 0
15 @us = common global i16 0
27 %2 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
28 %3 = atomicrmw add i16* %2, i16 1 monotonic
29 %4 = bitcast i8* bitcast (i16* @us to i8*) to i16*
30 %5 = atomicrmw add i16* %4, i16 1 monotonic
41 %16 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
42 %17 = atomicrmw sub i16* %16, i16 1 monotonic
43 %18 = bitcast i8* bitcast (i16* @us to i8*) to i16*
44 %19 = atomicrmw sub i16* %18, i16 1 monotonic
55 %30 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
56 %31 = atomicrmw or i16* %30, i16 1 monotonic
57 %32 = bitcast i8* bitcast (i16* @us to i8*) to i16*
58 %33 = atomicrmw or i16* %32, i16 1 monotonic
69 %44 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
70 %45 = atomicrmw xor i16* %44, i16 1 monotonic
71 %46 = bitcast i8* bitcast (i16* @us to i8*) to i16*
72 %47 = atomicrmw xor i16* %46, i16 1 monotonic
83 %58 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
84 %59 = atomicrmw and i16* %58, i16 1 monotonic
85 %60 = bitcast i8* bitcast (i16* @us to i8*) to i16*
86 %61 = atomicrmw and i16* %60, i16 1 monotonic
97 %72 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
98 %73 = atomicrmw nand i16* %72, i16 1 monotonic
99 %74 = bitcast i8* bitcast (i16* @us to i8*) to i16*
100 %75 = atomicrmw nand i16* %74, i16 1 monotonic
121 %2 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
122 %3 = atomicrmw add i16* %2, i16 11 monotonic
123 store i16 %3, i16* @ss, align 2
124 %4 = bitcast i8* bitcast (i16* @us to i8*) to i16*
125 %5 = atomicrmw add i16* %4, i16 11 monotonic
126 store i16 %5, i16* @us, align 2
143 %16 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
144 %17 = atomicrmw sub i16* %16, i16 11 monotonic
145 store i16 %17, i16* @ss, align 2
146 %18 = bitcast i8* bitcast (i16* @us to i8*) to i16*
147 %19 = atomicrmw sub i16* %18, i16 11 monotonic
148 store i16 %19, i16* @us, align 2
165 %30 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
166 %31 = atomicrmw or i16* %30, i16 11 monotonic
167 store i16 %31, i16* @ss, align 2
168 %32 = bitcast i8* bitcast (i16* @us to i8*) to i16*
169 %33 = atomicrmw or i16* %32, i16 11 monotonic
170 store i16 %33, i16* @us, align 2
187 %44 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
188 %45 = atomicrmw xor i16* %44, i16 11 monotonic
189 store i16 %45, i16* @ss, align 2
190 %46 = bitcast i8* bitcast (i16* @us to i8*) to i16*
191 %47 = atomicrmw xor i16* %46, i16 11 monotonic
192 store i16 %47, i16* @us, align 2
209 %58 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
210 %59 = atomicrmw and i16* %58, i16 11 monotonic
211 store i16 %59, i16* @ss, align 2
212 %60 = bitcast i8* bitcast (i16* @us to i8*) to i16*
213 %61 = atomicrmw and i16* %60, i16 11 monotonic
214 store i16 %61, i16* @us, align 2
231 %72 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
232 %73 = atomicrmw nand i16* %72, i16 11 monotonic
233 store i16 %73, i16* @ss, align 2
234 %74 = bitcast i8* bitcast (i16* @us to i8*) to i16*
235 %75 = atomicrmw nand i16* %74, i16 11 monotonic
236 store i16 %75, i16* @us, align 2
266 %7 = zext i8 %6 to i16
267 %8 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
268 %9 = atomicrmw add i16* %8, i16 %7 monotonic
269 %10 = add i16 %9, %7
270 store i16 %10, i16* @ss, align 2
272 %12 = zext i8 %11 to i16
273 %13 = bitcast i8* bitcast (i16* @us to i8*) to i16*
274 %14 = atomicrmw add i16* %13, i16 %12 monotonic
275 %15 = add i16 %14, %12
276 store i16 %15, i16* @us, align 2
310 %43 = zext i8 %42 to i16
311 %44 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
312 %45 = atomicrmw sub i16* %44, i16 %43 monotonic
313 %46 = sub i16 %45, %43
314 store i16 %46, i16* @ss, align 2
316 %48 = zext i8 %47 to i16
317 %49 = bitcast i8* bitcast (i16* @us to i8*) to i16*
318 %50 = atomicrmw sub i16* %49, i16 %48 monotonic
319 %51 = sub i16 %50, %48
320 store i16 %51, i16* @us, align 2
354 %79 = zext i8 %78 to i16
355 %80 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
356 %81 = atomicrmw or i16* %80, i16 %79 monotonic
357 %82 = or i16 %81, %79
358 store i16 %82, i16* @ss, align 2
360 %84 = zext i8 %83 to i16
361 %85 = bitcast i8* bitcast (i16* @us to i8*) to i16*
362 %86 = atomicrmw or i16* %85, i16 %84 monotonic
363 %87 = or i16 %86, %84
364 store i16 %87, i16* @us, align 2
398 %115 = zext i8 %114 to i16
399 i16* @ss to i8*) to i16*
400 %117 = atomicrmw xor i16* %116, i16 %115 monotonic
401 %118 = xor i16 %117, %115
402 store i16 %118, i16* @ss, align 2
404 %120 = zext i8 %119 to i16
405 %121 = bitcast i8* bitcast (i16* @us to i8*) to i16*
406 %122 = atomicrmw xor i16* %121, i16 %120 monotonic
407 %123 = xor i16 %122, %120
408 store i16 %123, i16* @us, align 2
442 %151 = zext i8 %150 to i16
443 %152 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
444 %153 = atomicrmw and i16* %152, i16 %151 monotonic
445 %154 = and i16 %153, %151
446 store i16 %154, i16* @ss, align 2
448 %156 = zext i8 %155 to i16
449 %157 = bitcast i8* bitcast (i16* @us to i8*) to i16*
450 %158 = atomicrmw and i16* %157, i16 %156 monotonic
451 %159 = and i16 %158, %156
452 store i16 %159, i16* @us, align 2
488 %189 = zext i8 %188 to i16
489 %190 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
490 %191 = atomicrmw nand i16* %190, i16 %189 monotonic
491 %192 = xor i16 %191, -1
492 %193 = and i16 %192, %189
493 store i16 %193, i16* @ss, align 2
495 %195 = zext i8 %194 to i16
496 %196 = bitcast i8* bitcast (i16* @us to i8*) to i16*
497 %197 = atomicrmw nand i16* %196, i16 %195 monotonic
498 %198 = xor i16 %197, -1
499 %199 = and i16 %198, %195
500 store i16 %199, i16* @us, align 2
546 %7 = zext i8 %6 to i16
548 %9 = sext i8 %8 to i16
549 %10 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
550 %11 = cmpxchg i16* %10, i16 %7, i16 %9 monotonic
551 store i16 %11, i16* @ss, align 2
553 %13 = zext i8 %12 to i16
555 %15 = sext i8 %14 to i16
556 %16 = bitcast i8* bitcast (i16* @us to i8*) to i16*
557 %17 = cmpxchg i16* %16, i16 %13, i16 %15 monotonic
558 store i16 %17, i16* @us, align 2
602 %55 = zext i8 %54 to i16
604 %57 = sext i8 %56 to i16
605 %58 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
606 %59 = cmpxchg i16* %58, i16 %55, i16 %57 monotonic
607 %60 = icmp eq i16 %59, %55
612 %64 = zext i8 %63 to i16
614 %66 = sext i8 %65 to i16
615 %67 = bitcast i8* bitcast (i16* @us to i8*) to i16*
616 %68 = cmpxchg i16* %67, i16 %64, i16 %66 monotonic
617 %69 = icmp eq i16 %68, %64
673 %2 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
674 %3 = atomicrmw xchg i16* %2, i16 1 monotonic
675 store i16 %3, i16* @ss, align 2
676 %4 = bitcast i8* bitcast (i16* @us to i8*) to i16*
677 %5 = atomicrmw xchg i16* %4, i16 1 monotonic
678 store i16 %5, i16* @us, align 2
694 %14 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
695 store volatile i16 0, i16* %14, align 2
696 %15 = bitcast i8* bitcast (i16* @us to i8*) to i16*
697 store volatile i16 0, i16* %15, align 2