/external/llvm/test/CodeGen/ARM/ |
smul.ll | 14 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1] 15 ret i32 %tmp4 23 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1] 24 ret i32 %tmp4
|
vbsl-constant.ll | 11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3> 13 %tmp7 = or <8 x i8> %tmp4, %tmp6 25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3> 27 %tmp7 = or <4 x i16> %tmp4, %tmp6 39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3> 41 %tmp7 = or <2 x i32> %tmp4, %tmp6 54 %tmp4 = and <1 x i64> %tmp1, <i64 3> 56 %tmp7 = or <1 x i64> %tmp4, %tmp6 68 %tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3> 70 %tmp7 = or <16 x i8> %tmp4, %tmp [all...] |
vmla.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 [all...] |
vmls.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 [all...] |
vtbl.ll | 22 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1 23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4) 33 %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1 35 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5) 45 %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1 48 %tmp7 = call <8 x i8> @llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6) 58 %tmp4 = call <8 x i8> @llvm.arm.neon.vtbx1(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> %tmp3) 59 ret <8 x i8> %tmp4 68 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1 70 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5 [all...] |
pack.ll | 7 %tmp4 = shl i32 %Y, 16 8 %tmp5 = or i32 %tmp4, %tmp1 17 %tmp4 = and i32 %tmp3, -65536 18 %tmp57 = or i32 %tmp4, %tmp1 45 %tmp4 = lshr i32 %tmp2, 16 46 %tmp5 = or i32 %tmp4, %tmp17 66 %tmp4 = and i32 %tmp38, 65535 67 %tmp59 = or i32 %tmp4, %tmp1 76 %tmp4 = and i32 %tmp3, 65535 77 %tmp57 = or i32 %tmp4, %tmp [all...] |
/external/llvm/test/CodeGen/PowerPC/ |
2007-02-16-InlineAsmNConstraint.ll | 9 %tmp4 = call i32 asm "rlwimi $0,$2,$3,$4,$5", "=r,0,r,n,n,n"( i32 0, i32 0, i32 0, i32 24, i32 31 ) ; <i32> [#uses=0]
|
/external/llvm/test/CodeGen/X86/ |
2010-08-04-MaskedSignedCompare.ll | 23 %tmp4.pre = load i32, i32* @g_38 ; <i32> [#uses=1] 31 %tmp4 = phi i32 [ %tmp4.pre, %entry.if.end_crit_edge ], [ 1, %if.then ] ; <i32> [#uses=1] 32 %call5 = tail call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([4 x i8], [4 x i8]* @.str, i64 0, i64 0), i32 %tmp4) nounwind ; <i32> [#uses=0]
|
or-branch.ll | 17 %tmp4 = or i1 %tmp3, %tmp1 18 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock 40 %tmp4 = or i1 %tmp3, %tmp1 41 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock, !unpredictable !0
|
packed_struct.ll | 23 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1] 24 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1] 31 %tmp4 = load i8, i8* getelementptr ([4 x <{ i32, i8 }>], [4 x <{ i32, i8 }>]* @bara, i32 0, i32 3, i32 1) ; <i8> [#uses=1] 32 %tmp5 = add i8 %tmp4, %tmp ; <i8> [#uses=1]
|
lea-2.ll | 9 %tmp4 = add i32 %tmp3, %tmp1 10 ; The above computation of %tmp4 should match a single lea, without using 15 ret i32 %tmp4
|
/external/llvm/test/Feature/ |
packed_struct.ll | 22 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1] 23 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1] 30 %tmp4 = load i32, i32* getelementptr ([2 x <{ i32, i8 }>], [2 x <{ i32, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i32> [#uses=1] 31 %tmp5 = add i32 %tmp4, %tmp ; <i32> [#uses=1]
|
/external/llvm/test/Integer/ |
packed_struct_bt.ll | 22 %tmp4 = add i35 %tmp3, %tmp ; <i35> [#uses=1] 23 %tmp7 = add i35 %tmp4, %tmp6 ; <i35> [#uses=1] 30 %tmp4 = load i35, i35* getelementptr ([2 x <{ i35, i8 }>], [2 x <{ i35, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i35> [#uses=1] 31 %tmp5 = add i35 %tmp4, %tmp ; <i35> [#uses=1]
|
/external/llvm/test/Transforms/Reassociate/ |
reassoc-intermediate-fnegs.ll | 12 %tmp4 = fsub fast half %tmp2, %tmp1 ; 5 * a - 3 * b 13 %tmp5 = fsub fast half %tmp3, %tmp4 ; 2 * b - ( 5 * a - 3 * b) 27 %tmp4 = fadd fast half %tmp2, %tmp1 ; 5 * a + 3 * b 28 %tmp5 = fsub fast half %tmp4, %tmp3 ; (5 * a + 3 * b) - (2 * b)
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/source/arm11_asm/ |
h264bsd_interpolate_hor_ver_quarter.s | 58 tmp4 RN 7 label 169 AND tmp4, count, #0x000F0000 ;// partHeight-1 171 ADD count, count, tmp4, LSL #8 ;// partH-1 to lower part of top byte 186 SMLAD tmp4, x_2_0, mult_20_01, plus16 191 SMLAD tmp4, x_3_1, mult_20_m5, tmp4 197 SMLABB tmp4, x_6_4, mult_20_m5, tmp4 202 SMLABB tmp4, x_7_5, mult_20_01, tmp4 [all...] |
h264bsd_interpolate_chroma_hor_ver.s | 49 tmp4 RN 5 label 194 LDRB tmp4, [ptrA, width] 197 PKHBT tmp2, tmp2, tmp4, LSL #16 ;// |t4|t2| 198 PKHBT tmp4, tmp4, tmp6, LSL #16 ;// |t6|t4| 204 SMUAD tmp4, tmp4, valY ;// t4=(t4*valY + t6*yFrac) 206 MLA tmp6, tmp4, xFrac, tmp6 ;// t6=t4*xFrac+t6 227 MLA tmp6, tmp4, valX, tmp6 ;// t6=t4*valX+t6 283 LDRB tmp4, [ptrA, width [all...] |
/external/llvm/test/Analysis/ScalarEvolution/ |
2007-07-15-NegativeStride.ll | 13 %i.01.0 = phi i32 [ 100, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2] 16 %tmp4 = add i32 %i.01.0, -1 ; <i32> [#uses=2] 17 %tmp7 = icmp sgt i32 %tmp4, -1 ; <i1> [#uses=1]
|
pr24757.ll | 22 %tmp4 = xor i32 %tmp3, -1 24 %tmpf = sub nsw i32 %tmp4, %tmp5 31 store i32 %tmp4, i32* @b
|
/external/llvm/test/Transforms/IndVarSimplify/ |
loop_evaluate_2.ll | 14 %i.01.0 = phi i32 [ %tmp4, %bb ], [ 0, %bb.preheader ] ; <i32> [#uses=1] 16 %tmp4 = add i32 %i.01.0, 1 ; <i32> [#uses=2] 18 icmp slt i32 %tmp4, %x ; <i1>:1 [#uses=1]
|
/external/llvm/test/Transforms/InstCombine/ |
bswap.ll | 9 %tmp4 = and i32 %tmp3, 65280 ; <i32> [#uses=1] 10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1] 21 %tmp4 = shl i32 %arg, 8 ; <i32> [#uses=1] 22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 34 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1] 35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1] 41 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1] 42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1] 51 %tmp4 = and i32 %tmp, 255 ; <i32> [#uses=1] 52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1 [all...] |
/external/llvm/test/tools/gold/X86/ |
vectorize.ll | 19 %i.0 = phi i64 [ 0, %bb ], [ %tmp4, %bb1 ] 24 %tmp4 = add nsw i64 %i.0, 1 25 %tmp5 = icmp slt i64 %tmp4, %n
|
/external/llvm/test/CodeGen/AArch64/ |
arm64-trn.ll | 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 5, i32 13, i32 7, i32 15> 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7> 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 38 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3> 39 %tmp5 = add <2 x i32> %tmp3, %tmp4 51 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3> 52 %tmp5 = fadd <2 x float> %tmp3, %tmp4 64 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, i32 5, i32 21, i32 7, i32 23, i32 9, i32 25, i32 11, i32 27, i32 13, i32 29, i32 15, i32 31> 65 %tmp5 = add <16 x i8> %tmp3, %tmp4 [all...] |
arm64-vabs.ll | 10 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16> 11 ret <8 x i16> %tmp4 20 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32> 21 ret <4 x i32> %tmp4 30 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64> 31 ret <2 x i64> %tmp4 42 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16> 43 ret <8 x i16> %tmp4 54 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32> 55 ret <4 x i32> %tmp4 [all...] |
/external/llvm/test/CodeGen/Thumb/ |
rev.ll | 8 %tmp4 = shl i32 %X15, 8 10 %tmp5 = and i32 %tmp4, -16777216 12 %tmp13 = and i32 %tmp4, 65280 26 %tmp4 = shl i16 %tmp3, 8 27 %tmp5 = or i16 %tmp2, %tmp4
|
/external/llvm/test/CodeGen/Thumb2/ |
thumb2-pack.ll | 7 %tmp4 = shl i32 %Y, 16 ; <i32> [#uses=1] 8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 26 %tmp4 = and i32 %tmp3, -65536 ; <i32> [#uses=1] 27 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 54 %tmp4 = lshr i32 %tmp2, 16 ; <i32> [#uses=2] 55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1] 75 %tmp4 = and i32 %tmp38, 65535 ; <i32> [#uses=1] 76 %tmp59 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 85 %tmp4 = and i32 %tmp3, 65535 ; <i32> [#uses=1] 86 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1 [all...] |