HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 76 - 100 of 630) sorted by null

1 2 34 5 6 7 8 91011>>

  /external/llvm/test/CodeGen/ARM/
smul.ll 14 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1]
15 ret i32 %tmp4
23 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
24 ret i32 %tmp4
vbsl-constant.ll 11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
13 %tmp7 = or <8 x i8> %tmp4, %tmp6
25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3>
27 %tmp7 = or <4 x i16> %tmp4, %tmp6
39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3>
41 %tmp7 = or <2 x i32> %tmp4, %tmp6
54 %tmp4 = and <1 x i64> %tmp1, <i64 3>
56 %tmp7 = or <1 x i64> %tmp4, %tmp6
68 %tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
70 %tmp7 = or <16 x i8> %tmp4, %tmp
    [all...]
vmla.ll 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
    [all...]
vmls.ll 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = sub <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4
    [all...]
vtbl.ll 22 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4)
33 %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1
35 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5)
45 %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1
48 %tmp7 = call <8 x i8> @llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6)
58 %tmp4 = call <8 x i8> @llvm.arm.neon.vtbx1(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> %tmp3)
59 ret <8 x i8> %tmp4
68 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
70 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5
    [all...]
pack.ll 7 %tmp4 = shl i32 %Y, 16
8 %tmp5 = or i32 %tmp4, %tmp1
17 %tmp4 = and i32 %tmp3, -65536
18 %tmp57 = or i32 %tmp4, %tmp1
45 %tmp4 = lshr i32 %tmp2, 16
46 %tmp5 = or i32 %tmp4, %tmp17
66 %tmp4 = and i32 %tmp38, 65535
67 %tmp59 = or i32 %tmp4, %tmp1
76 %tmp4 = and i32 %tmp3, 65535
77 %tmp57 = or i32 %tmp4, %tmp
    [all...]
  /external/llvm/test/CodeGen/PowerPC/
2007-02-16-InlineAsmNConstraint.ll 9 %tmp4 = call i32 asm "rlwimi $0,$2,$3,$4,$5", "=r,0,r,n,n,n"( i32 0, i32 0, i32 0, i32 24, i32 31 ) ; <i32> [#uses=0]
  /external/llvm/test/CodeGen/X86/
2010-08-04-MaskedSignedCompare.ll 23 %tmp4.pre = load i32, i32* @g_38 ; <i32> [#uses=1]
31 %tmp4 = phi i32 [ %tmp4.pre, %entry.if.end_crit_edge ], [ 1, %if.then ] ; <i32> [#uses=1]
32 %call5 = tail call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([4 x i8], [4 x i8]* @.str, i64 0, i64 0), i32 %tmp4) nounwind ; <i32> [#uses=0]
or-branch.ll 17 %tmp4 = or i1 %tmp3, %tmp1
18 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock
40 %tmp4 = or i1 %tmp3, %tmp1
41 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock, !unpredictable !0
packed_struct.ll 23 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
24 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
31 %tmp4 = load i8, i8* getelementptr ([4 x <{ i32, i8 }>], [4 x <{ i32, i8 }>]* @bara, i32 0, i32 3, i32 1) ; <i8> [#uses=1]
32 %tmp5 = add i8 %tmp4, %tmp ; <i8> [#uses=1]
lea-2.ll 9 %tmp4 = add i32 %tmp3, %tmp1
10 ; The above computation of %tmp4 should match a single lea, without using
15 ret i32 %tmp4
  /external/llvm/test/Feature/
packed_struct.ll 22 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
23 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
30 %tmp4 = load i32, i32* getelementptr ([2 x <{ i32, i8 }>], [2 x <{ i32, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i32> [#uses=1]
31 %tmp5 = add i32 %tmp4, %tmp ; <i32> [#uses=1]
  /external/llvm/test/Integer/
packed_struct_bt.ll 22 %tmp4 = add i35 %tmp3, %tmp ; <i35> [#uses=1]
23 %tmp7 = add i35 %tmp4, %tmp6 ; <i35> [#uses=1]
30 %tmp4 = load i35, i35* getelementptr ([2 x <{ i35, i8 }>], [2 x <{ i35, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i35> [#uses=1]
31 %tmp5 = add i35 %tmp4, %tmp ; <i35> [#uses=1]
  /external/llvm/test/Transforms/Reassociate/
reassoc-intermediate-fnegs.ll 12 %tmp4 = fsub fast half %tmp2, %tmp1 ; 5 * a - 3 * b
13 %tmp5 = fsub fast half %tmp3, %tmp4 ; 2 * b - ( 5 * a - 3 * b)
27 %tmp4 = fadd fast half %tmp2, %tmp1 ; 5 * a + 3 * b
28 %tmp5 = fsub fast half %tmp4, %tmp3 ; (5 * a + 3 * b) - (2 * b)
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/source/arm11_asm/
h264bsd_interpolate_hor_ver_quarter.s 58 tmp4 RN 7 label
169 AND tmp4, count, #0x000F0000 ;// partHeight-1
171 ADD count, count, tmp4, LSL #8 ;// partH-1 to lower part of top byte
186 SMLAD tmp4, x_2_0, mult_20_01, plus16
191 SMLAD tmp4, x_3_1, mult_20_m5, tmp4
197 SMLABB tmp4, x_6_4, mult_20_m5, tmp4
202 SMLABB tmp4, x_7_5, mult_20_01, tmp4
    [all...]
h264bsd_interpolate_chroma_hor_ver.s 49 tmp4 RN 5 label
194 LDRB tmp4, [ptrA, width]
197 PKHBT tmp2, tmp2, tmp4, LSL #16 ;// |t4|t2|
198 PKHBT tmp4, tmp4, tmp6, LSL #16 ;// |t6|t4|
204 SMUAD tmp4, tmp4, valY ;// t4=(t4*valY + t6*yFrac)
206 MLA tmp6, tmp4, xFrac, tmp6 ;// t6=t4*xFrac+t6
227 MLA tmp6, tmp4, valX, tmp6 ;// t6=t4*valX+t6
283 LDRB tmp4, [ptrA, width
    [all...]
  /external/llvm/test/Analysis/ScalarEvolution/
2007-07-15-NegativeStride.ll 13 %i.01.0 = phi i32 [ 100, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2]
16 %tmp4 = add i32 %i.01.0, -1 ; <i32> [#uses=2]
17 %tmp7 = icmp sgt i32 %tmp4, -1 ; <i1> [#uses=1]
pr24757.ll 22 %tmp4 = xor i32 %tmp3, -1
24 %tmpf = sub nsw i32 %tmp4, %tmp5
31 store i32 %tmp4, i32* @b
  /external/llvm/test/Transforms/IndVarSimplify/
loop_evaluate_2.ll 14 %i.01.0 = phi i32 [ %tmp4, %bb ], [ 0, %bb.preheader ] ; <i32> [#uses=1]
16 %tmp4 = add i32 %i.01.0, 1 ; <i32> [#uses=2]
18 icmp slt i32 %tmp4, %x ; <i1>:1 [#uses=1]
  /external/llvm/test/Transforms/InstCombine/
bswap.ll 9 %tmp4 = and i32 %tmp3, 65280 ; <i32> [#uses=1]
10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1]
21 %tmp4 = shl i32 %arg, 8 ; <i32> [#uses=1]
22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
34 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1]
41 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1]
51 %tmp4 = and i32 %tmp, 255 ; <i32> [#uses=1]
52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1
    [all...]
  /external/llvm/test/tools/gold/X86/
vectorize.ll 19 %i.0 = phi i64 [ 0, %bb ], [ %tmp4, %bb1 ]
24 %tmp4 = add nsw i64 %i.0, 1
25 %tmp5 = icmp slt i64 %tmp4, %n
  /external/llvm/test/CodeGen/AArch64/
arm64-trn.ll 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 5, i32 13, i32 7, i32 15>
12 %tmp5 = add <8 x i8> %tmp3, %tmp4
24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7>
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
38 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3>
39 %tmp5 = add <2 x i32> %tmp3, %tmp4
51 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3>
52 %tmp5 = fadd <2 x float> %tmp3, %tmp4
64 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, i32 5, i32 21, i32 7, i32 23, i32 9, i32 25, i32 11, i32 27, i32 13, i32 29, i32 15, i32 31>
65 %tmp5 = add <16 x i8> %tmp3, %tmp4
    [all...]
arm64-vabs.ll 10 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
11 ret <8 x i16> %tmp4
20 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
21 ret <4 x i32> %tmp4
30 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
31 ret <2 x i64> %tmp4
42 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
43 ret <8 x i16> %tmp4
54 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
55 ret <4 x i32> %tmp4
    [all...]
  /external/llvm/test/CodeGen/Thumb/
rev.ll 8 %tmp4 = shl i32 %X15, 8
10 %tmp5 = and i32 %tmp4, -16777216
12 %tmp13 = and i32 %tmp4, 65280
26 %tmp4 = shl i16 %tmp3, 8
27 %tmp5 = or i16 %tmp2, %tmp4
  /external/llvm/test/CodeGen/Thumb2/
thumb2-pack.ll 7 %tmp4 = shl i32 %Y, 16 ; <i32> [#uses=1]
8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
26 %tmp4 = and i32 %tmp3, -65536 ; <i32> [#uses=1]
27 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
54 %tmp4 = lshr i32 %tmp2, 16 ; <i32> [#uses=2]
55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1]
75 %tmp4 = and i32 %tmp38, 65535 ; <i32> [#uses=1]
76 %tmp59 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
85 %tmp4 = and i32 %tmp3, 65535 ; <i32> [#uses=1]
86 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1
    [all...]

Completed in 573 milliseconds

1 2 34 5 6 7 8 91011>>