Home | History | Annotate | Download | only in PowerPC

Lines Matching full:i16

2 target datalayout = "E-p:32:32:32-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:32:64-f32:32:32-f64:32:64-v64:64:64-v128:128:128-a0:0:64-f128:64:128"
7 @ss = common global i16 0
8 @us = common global i16 0
20 %2 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
21 %3 = atomicrmw add i16* %2, i16 1 monotonic
22 %4 = bitcast i8* bitcast (i16* @us to i8*) to i16*
23 %5 = atomicrmw add i16* %4, i16 1 monotonic
34 %16 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
35 %17 = atomicrmw sub i16* %16, i16 1 monotonic
36 %18 = bitcast i8* bitcast (i16* @us to i8*) to i16*
37 %19 = atomicrmw sub i16* %18, i16 1 monotonic
48 %30 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
49 %31 = atomicrmw or i16* %30, i16 1 monotonic
50 %32 = bitcast i8* bitcast (i16* @us to i8*) to i16*
51 %33 = atomicrmw or i16* %32, i16 1 monotonic
62 %44 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
63 %45 = atomicrmw xor i16* %44, i16 1 monotonic
64 %46 = bitcast i8* bitcast (i16* @us to i8*) to i16*
65 %47 = atomicrmw xor i16* %46, i16 1 monotonic
76 %58 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
77 %59 = atomicrmw and i16* %58, i16 1 monotonic
78 %60 = bitcast i8* bitcast (i16* @us to i8*) to i16*
79 %61 = atomicrmw and i16* %60, i16 1 monotonic
90 %72 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
91 %73 = atomicrmw nand i16* %72, i16 1 monotonic
92 %74 = bitcast i8* bitcast (i16* @us to i8*) to i16*
93 %75 = atomicrmw nand i16* %74, i16 1 monotonic
114 %2 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
115 %3 = atomicrmw add i16* %2, i16 11 monotonic
116 store i16 %3, i16* @ss, align 2
117 %4 = bitcast i8* bitcast (i16* @us to i8*) to i16*
118 %5 = atomicrmw add i16* %4, i16 11 monotonic
119 store i16 %5, i16* @us, align 2
136 %16 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
137 %17 = atomicrmw sub i16* %16, i16 11 monotonic
138 store i16 %17, i16* @ss, align 2
139 %18 = bitcast i8* bitcast (i16* @us to i8*) to i16*
140 %19 = atomicrmw sub i16* %18, i16 11 monotonic
141 store i16 %19, i16* @us, align 2
158 %30 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
159 %31 = atomicrmw or i16* %30, i16 11 monotonic
160 store i16 %31, i16* @ss, align 2
161 %32 = bitcast i8* bitcast (i16* @us to i8*) to i16*
162 %33 = atomicrmw or i16* %32, i16 11 monotonic
163 store i16 %33, i16* @us, align 2
180 %44 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
181 %45 = atomicrmw xor i16* %44, i16 11 monotonic
182 store i16 %45, i16* @ss, align 2
183 %46 = bitcast i8* bitcast (i16* @us to i8*) to i16*
184 %47 = atomicrmw xor i16* %46, i16 11 monotonic
185 store i16 %47, i16* @us, align 2
202 %58 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
203 %59 = atomicrmw and i16* %58, i16 11 monotonic
204 store i16 %59, i16* @ss, align 2
205 %60 = bitcast i8* bitcast (i16* @us to i8*) to i16*
206 %61 = atomicrmw and i16* %60, i16 11 monotonic
207 store i16 %61, i16* @us, align 2
224 %72 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
225 %73 = atomicrmw nand i16* %72, i16 11 monotonic
226 store i16 %73, i16* @ss, align 2
227 %74 = bitcast i8* bitcast (i16* @us to i8*) to i16*
228 %75 = atomicrmw nand i16* %74, i16 11 monotonic
229 store i16 %75, i16* @us, align 2
259 %7 = zext i8 %6 to i16
260 %8 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
261 %9 = atomicrmw add i16* %8, i16 %7 monotonic
262 %10 = add i16 %9, %7
263 store i16 %10, i16* @ss, align 2
265 %12 = zext i8 %11 to i16
266 %13 = bitcast i8* bitcast (i16* @us to i8*) to i16*
267 %14 = atomicrmw add i16* %13, i16 %12 monotonic
268 %15 = add i16 %14, %12
269 store i16 %15, i16* @us, align 2
303 %43 = zext i8 %42 to i16
304 %44 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
305 %45 = atomicrmw sub i16* %44, i16 %43 monotonic
306 %46 = sub i16 %45, %43
307 store i16 %46, i16* @ss, align 2
309 %48 = zext i8 %47 to i16
310 %49 = bitcast i8* bitcast (i16* @us to i8*) to i16*
311 %50 = atomicrmw sub i16* %49, i16 %48 monotonic
312 %51 = sub i16 %50, %48
313 store i16 %51, i16* @us, align 2
347 %79 = zext i8 %78 to i16
348 %80 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
349 %81 = atomicrmw or i16* %80, i16 %79 monotonic
350 %82 = or i16 %81, %79
351 store i16 %82, i16* @ss, align 2
353 %84 = zext i8 %83 to i16
354 %85 = bitcast i8* bitcast (i16* @us to i8*) to i16*
355 %86 = atomicrmw or i16* %85, i16 %84 monotonic
356 %87 = or i16 %86, %84
357 store i16 %87, i16* @us, align 2
391 %115 = zext i8 %114 to i16
392 %116 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
393 %117 = atomicrmw xor i16* %116, i16 %115 monotonic
394 %118 = xor i16 %117, %115
395 store i16 %118, i16* @ss, align 2
397 %120 = zext i8 %119 to i16
398 %121 = bitcast i8* bitcast (i16* @us to i8*) to i16*
399 i16* %121, i16 %120 monotonic
400 %123 = xor i16 %122, %120
401 store i16 %123, i16* @us, align 2
435 %151 = zext i8 %150 to i16
436 %152 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
437 %153 = atomicrmw and i16* %152, i16 %151 monotonic
438 %154 = and i16 %153, %151
439 store i16 %154, i16* @ss, align 2
441 %156 = zext i8 %155 to i16
442 %157 = bitcast i8* bitcast (i16* @us to i8*) to i16*
443 %158 = atomicrmw and i16* %157, i16 %156 monotonic
444 %159 = and i16 %158, %156
445 store i16 %159, i16* @us, align 2
481 %189 = zext i8 %188 to i16
482 %190 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
483 %191 = atomicrmw nand i16* %190, i16 %189 monotonic
484 %192 = xor i16 %191, -1
485 %193 = and i16 %192, %189
486 store i16 %193, i16* @ss, align 2
488 %195 = zext i8 %194 to i16
489 %196 = bitcast i8* bitcast (i16* @us to i8*) to i16*
490 %197 = atomicrmw nand i16* %196, i16 %195 monotonic
491 %198 = xor i16 %197, -1
492 %199 = and i16 %198, %195
493 store i16 %199, i16* @us, align 2
539 %7 = zext i8 %6 to i16
541 %9 = sext i8 %8 to i16
542 %10 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
543 %11 = cmpxchg i16* %10, i16 %7, i16 %9 monotonic
544 store i16 %11, i16* @ss, align 2
546 %13 = zext i8 %12 to i16
548 %15 = sext i8 %14 to i16
549 %16 = bitcast i8* bitcast (i16* @us to i8*) to i16*
550 %17 = cmpxchg i16* %16, i16 %13, i16 %15 monotonic
551 store i16 %17, i16* @us, align 2
593 %53 = zext i8 %52 to i16
595 %55 = sext i8 %54 to i16
596 %56 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
597 %57 = cmpxchg i16* %56, i16 %53, i16 %55 monotonic
598 %58 = icmp eq i16 %57, %53
602 %61 = zext i8 %60 to i16
604 %63 = sext i8 %62 to i16
605 %64 = bitcast i8* bitcast (i16* @us to i8*) to i16*
606 %65 = cmpxchg i16* %64, i16 %61, i16 %63 monotonic
607 %66 = icmp eq i16 %65, %61
658 %2 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
659 %3 = atomicrmw xchg i16* %2, i16 1 monotonic
660 store i16 %3, i16* @ss, align 2
661 %4 = bitcast i8* bitcast (i16* @us to i8*) to i16*
662 %5 = atomicrmw xchg i16* %4, i16 1 monotonic
663 store i16 %5, i16* @us, align 2
679 %14 = bitcast i8* bitcast (i16* @ss to i8*) to i16*
680 store volatile i16 0, i16* %14, align 2
681 %15 = bitcast i8* bitcast (i16* @us to i8*) to i16*
682 store volatile i16 0, i16* %15, align 2