Lines Matching full:i64
36 %tmp13111 = load i64* null, align 8 ; <i64> [#uses=3]
37 %tmp13116 = lshr i64 %tmp13111, 16 ; <i64> [#uses=1]
38 %tmp1311613117 = trunc i64 %tmp13116 to i32 ; <i32> [#uses=1]
40 %tmp13120 = lshr i64 %tmp13111, 32 ; <i64> [#uses=1]
41 %tmp1312013121 = trunc i64 %tmp13120 to i32 ; <i32> [#uses=1]
43 %tmp13124 = lshr i64 %tmp13111, 48 ; <i64> [#uses=1]
44 %tmp1312413125 = trunc i64 %tmp13124 to i32 ; <i32> [#uses=2]
63 %tmp1320813209 = zext i32 %tmp13204 to i64 ; <i64> [#uses=1]
64 %tmp13211 = shl i64 %tmp1320813209, 48 ; <i64> [#uses=1]
65 %tmp1321213213 = zext i32 %tmp13201 to i64 ; <i64> [#uses=1]
66 %tmp13214 = shl i64 %tmp1321213213, 32 ; <i64> [#uses=1]
67 %tmp13215 = and i64 %tmp13214, 281470681743360 ; <i64> [#uses=1]
68 %tmp1321713218 = zext i32 %tmp13198 to i64 ; <i64> [#uses=1]
69 %tmp13219 = shl i64 %tmp1321713218, 16 ; <i64> [#uses=1]
70 %tmp13220 = and i64 %tmp13219, 4294901760 ; <i64> [#uses=1]
71 %tmp13216 = or i64 %tmp13211, 0 ; <i64> [#uses=1]
72 %tmp13221 = or i64 %tmp13216, %tmp13215 ; <i64> [#uses=1]
73 %tmp13225 = or i64 %tmp13221, %tmp13220 ; <i64> [#uses=4]
82 %tmp1329013291 = zext i16 %tmp1322713228 to i64 ; <i64> [#uses=8]
83 %tmp13296 = lshr i64 %tmp13225, 16 ; <i64> [#uses=1]
84 %tmp13297 = and i64 %tmp13296, 65535 ; <i64> [#uses=1]
85 %tmp13299 = lshr i64 %tmp13225, 32 ; <i64> [#uses=1]
86 %tmp13300 = and i64 %tmp13299, 65535 ; <i64> [#uses=1]
87 %tmp13302 = lshr i64 %tmp13225, 48 ; <i64> [#uses=1]
88 %tmp13306 = sub i64 %tmp1329013291, 0 ; <i64> [#uses=0]
89 %tmp13309 = sub i64 %tmp1329013291, %tmp13297 ; <i64> [#uses=1]
90 %tmp13312 = sub i64 %tmp1329013291, %tmp13300 ; <i64> [#uses=1]
91 %tmp13315 = sub i64 %tmp1329013291, %tmp13302 ; <i64> [#uses=1]
92 %tmp13318 = mul i64 %tmp1329013291, %tmp1329013291 ; <i64> [#uses=1]
99 %tmp13337 = sdiv i64 0, 0 ; <i64> [#uses=1]
103 %r0120.0 = phi i64 [ %tmp13337, %bb13330 ], [ 0, %bb13252 ], [ 4294836225, %bb13324 ] ; <i64> [#uses=1]
110 %tmp13354 = mul i64 0, %tmp13318 ; <i64> [#uses=1]
111 %tmp13357 = sub i64 %tmp1329013291, %tmp13309 ; <i64> [#uses=1]
112 %tmp13358 = sdiv i64 %tmp13354, %tmp13357 ; <i64> [#uses=1]
116 %r1121.0 = phi i64 [ %tmp13358, %bb13351 ], [ 0, %bb13339 ], [ 4294836225, %bb13345 ] ; <i64> [#uses=1]
123 %r3123.0 = phi i64 [ 0, %bb13360 ], [ 4294836225, %bb13387 ] ; <i64> [#uses=1]
131 %r0120.1 = phi i64 [ 0, %bb13407 ], [ %r0120.0, %bb13402 ] ; <i64> [#uses=0]
132 %r1121.1 = phi i64 [ 0, %bb13407 ], [ %r1121.0, %bb13402 ] ; <i64> [#uses=0]
133 %r3123.1 = phi i64 [ 0, %bb13407 ], [ %r3123.0, %bb13402 ] ; <i64> [#uses=0]
134 %tmp13450 = mul i64 0, %tmp13312 ; <i64> [#uses=0]
135 %tmp13455 = mul i64 0, %tmp13315 ; <i64> [#uses=0]
136 %tmp13461 = add i64 0, %tmp1329013291 ; <i64> [#uses=1]
137 %tmp13462 = mul i64 %tmp13461, 65535 ; <i64> [#uses=1]
138 %tmp13466 = sub i64 %tmp13462, 0 ; <i64> [#uses=1]
139 %tmp13526 = add i64 %tmp13466, 1 ; <i64> [#uses=1]
140 %tmp13527 = add i64 %tmp13526, 0 ; <i64> [#uses=1]
141 %tmp13528 = ashr i64 %tmp13527, 16 ; <i64> [#uses=4]
142 %tmp13536 = sub i64 %tmp13528, 0 ; <i64> [#uses=1]
143 %tmp13537 = shl i64 %tmp13536, 32 ; <i64> [#uses=1]
144 %tmp13538 = and i64 %tmp13537, 281470681743360 ; <i64> [#uses=1]
145 %tmp13542 = sub i64 %tmp13528, 0 ; <i64> [#uses=1]
146 %tmp13543 = shl i64 %tmp13542, 16 ; <i64> [#uses=1]
147 %tmp13544 = and i64 %tmp13543, 4294901760 ; <i64> [#uses=1]
148 %tmp13548 = sub i64 %tmp13528, 0 ; <i64> [#uses=1]
149 %tmp13549 = and i64 %tmp13548, 65535 ; <i64> [#uses=1]
150 %tmp13539 = or i64 %tmp13538, 0 ; <i64> [#uses=1]
151 %tmp13545 = or i64 %tmp13539, %tmp13549 ; <i64> [#uses=1]
152 %tmp13550 = or i64 %tmp13545, %tmp13544 ; <i64> [#uses=1]
153 %tmp1355213553 = trunc i64 %tmp13528 to i16 ; <i16> [#uses=1]
157 %tsp1040.0.0 = phi i64 [ %tmp13550, %bb13435 ], [ %tmp13225, %bb13236 ] ; <i64> [#uses=0]