/external/llvm/test/CodeGen/X86/ |
shift-pair.ll | 8 %B = lshr i64 %A, 56
|
vshift_split.ll | 6 %shr = lshr <2 x i64> %val, < i64 2, i64 3 >
|
rot64.ll | 12 %2 = lshr i64 %x, %1 21 %2 = lshr i64 %x, %1 28 %0 = lshr i64 %x, %z 37 %0 = lshr i64 %y, %z 48 %0 = lshr i64 %x, 57 59 %a = lshr i64 %x, 57 68 %1 = lshr i64 %x, 57 77 %0 = lshr i64 %x, 7 88 %a = lshr i64 %x, 7 96 %0 = lshr i64 %y, [all...] |
dagcombine-shifts.ll | 3 ; fold (shl (zext (lshr (A, X))), X) -> (zext (shl (lshr (A, X)), X)) 5 ; Canolicalize the sequence shl/zext/lshr performing the zeroextend 14 %shr = lshr i8 %v, 4 28 %shr = lshr i8 %v, 4 42 %shr = lshr i16 %v, 4 56 %shr = lshr i8 %v, 4 70 %shr = lshr i16 %v, 4 84 %shr = lshr i32 %v, 4 142 %shr = lshr i8 %v, [all...] |
rot16.ll | 9 %2 = lshr i16 %x, %1 20 %2 = lshr i16 %x, %1 29 %0 = lshr i16 %x, %z 40 %0 = lshr i16 %y, %z 51 %0 = lshr i16 %x, 11 62 %1 = lshr i16 %x, 11 71 %0 = lshr i16 %x, 5 81 %0 = lshr i16 %y, 5
|
rotate2.ll | 5 %tmp2 = lshr i64 %x, 55 ; <i64> [#uses=1] 13 %tmp2 = lshr i32 %x, 22 ; <i32> [#uses=1]
|
vec_udiv_to_shift.ll | 5 ; CHECK: lshr <8 x i16> %var, <i16 5, i16 5, i16 5, i16 5, i16 5, i16 5, i16 5, i16 5> 12 ; CHECK: lshr <4 x i32> %var, <i32 4, i32 4, i32 4, i32 4>
|
/external/llvm/test/Transforms/InstCombine/ |
2005-03-04-ShiftOverflow.ll | 5 %tmp.1710 = lshr i64 %tmp.169, 1 ; <i64> [#uses=1]
|
2007-03-19-BadTruncChangePR1261.ll | 7 %C = lshr i32 %B, 15
|
2007-03-25-DoubleShift.ll | 6 %tmp15 = lshr i32 %tmp14, 12 ; <i32> [#uses=1]
|
2009-03-24-InfLoop.ll | 4 %A = lshr i32 3968, %x
|
add-sitofp.ll | 4 %m = lshr i32 %a, 24
|
bitreverse-recognize.ll | 17 %8 = lshr i8 %a, 1 19 %10 = lshr i8 %a, 3 21 %12 = lshr i8 %a, 5 23 %14 = lshr i8 %a, 7 47 %8 = lshr i8 %a, 1 49 %10 = lshr i8 %a, 3 51 %12 = lshr i8 %a, 5 53 %14 = lshr i8 %a, 7 83 %16 = lshr i16 %a, 1 85 %18 = lshr i16 %a, [all...] |
udiv-simplify-bug-1.ll | 10 %y = lshr i32 %x, 30 16 %y = lshr i32 %x, 31
|
/external/llvm/test/Transforms/InstSimplify/ |
2011-01-14-Thread.ll | 6 %r = lshr i32 %s, 1
|
/external/llvm/test/CodeGen/ARM/ |
uxtb.ll | 10 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 16 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 22 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 28 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 34 %tmp1 = lshr i32 %x, 16 ; <i32> [#uses=1] 43 %tmp1 = lshr i32 %x, 16 ; <i32> [#uses=1] 54 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1] 60 %tmp1 = lshr i32 %x, 24 ; <i32> [#uses=1] 68 %tmp1 = lshr i32 %p0, 7 ; <i32> [#uses=1] 70 %tmp4 = lshr i32 %tmp2, 5 ; <i32> [#uses=1 [all...] |
bfx.ll | 6 %t1 = lshr i32 %a, 7 15 %t1 = lshr i32 %a, 7 24 %t1 = lshr i32 %a, 7 39 %and = lshr i32 %x, 8 41 %and1 = lshr i32 %x, 16 43 %shr4 = lshr i32 %x, 24
|
sbfx.ll | 17 %tmp2 = lshr i32 %tmp, 12 35 %tmp2 = lshr i32 %tmp, 29 53 %tmp = lshr i32 %a, 23 62 %tmp = lshr i32 %a, 25
|
/external/llvm/test/CodeGen/SystemZ/ |
shift-06.ll | 10 %shift = lshr i64 %a, 1 19 %shift = lshr i64 %a, 63 28 %shift = lshr i64 %a, 64 37 %shift = lshr i64 %a, %amt 47 %shift = lshr i64 %a, %add 58 %shift = lshr i64 %a, %addext 69 %shift = lshr i64 %a, %addext 80 %shift = lshr i64 %a, %add 92 %shift = lshr i64 %a, %add 102 %shift = lshr i64 %a, %su [all...] |
/external/llvm/test/CodeGen/PowerPC/ |
ppc32-lshrti3.ll | 17 %bf.lshr = lshr i72 %bf.set3, 40 18 %bf.lshr.tr = trunc i72 %bf.lshr to i32 19 %bf.cast = and i32 %bf.lshr.tr, 65535 20 %dec = add nsw i32 %bf.lshr.tr, 65535
|
rotl-64.ll | 6 %tmp1 = lshr i64 %A, 57 14 %tmp1 = lshr i64 %A, %Amt1
|
/external/llvm/test/CodeGen/Thumb/ |
long_shift.ll | 5 %tmp2 = lshr i64 %B, 1 23 %a = lshr i64 %x, %y
|
/external/llvm/test/CodeGen/AMDGPU/ |
packetizer.ll | 15 %x.1 = lshr i32 %x, %e 19 %y.1 = lshr i32 %y, %e 23 %z.1 = lshr i32 %z, %e 27 %w.1 = lshr i32 %w, %e
|
/external/llvm/test/CodeGen/Generic/ |
2008-01-25-dag-combine-mul.ll | 12 %tmp103 = lshr i64 %tmp101, 0 ; <i64> [#uses=1] 15 %tmp106 = lshr i64 %tmp104, %.cast105 ; <i64> [#uses=1] 23 %tmp120 = lshr i64 %tmp118, 0 ; <i64> [#uses=1] 25 %tmp123 = lshr i64 %tmp121, 0 ; <i64> [#uses=1]
|
i128-arith.ll | 8 %tmp3 = lshr i128 %tmp2, %tmp7
|