HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 26 - 50 of 630) sorted by null

12 3 4 5 6 7 8 91011>>

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/source/arm11_asm/
h264bsd_interpolate_mid_hor.s 47 tmp4 RN 11 label
96 SMULTB tmp4, x_3_1, mult_20_01
102 SMLAD tmp4, x_6_4, mult_20_m5, tmp4
107 SMLADX tmp4, x_7_5, mult_20_m5, tmp4
113 SMLABB tmp4, x_2_0, mult_20_01, tmp4
119 STR tmp4, [mb], #4
127 SMULTB tmp4, x_7_5, mult_20_01
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-vsra.ll 9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <16 x i8> %tmp1, %tmp3
40 ret <16 x i8> %tmp4
49 %tmp4 = add <8 x i16> %tmp1, %tmp3
50 ret <8 x i16> %tmp4
    [all...]
neon-compare-instructions.ll 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
8 ret <8 x i8> %tmp4
15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
16 ret <16 x i8> %tmp4
23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
24 ret <4 x i16> %tmp4
31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
32 ret <8 x i16> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
    [all...]
arm64-fmuladd.ll 10 %tmp4 = call float @llvm.fmuladd.f32(float %tmp1, float %tmp2, float %tmp3)
11 ret float %tmp4
21 %tmp4 = call <2 x float> @llvm.fmuladd.v2f32(<2 x float> %tmp1, <2 x float> %tmp2, <2 x float> %tmp3)
22 ret <2 x float> %tmp4
32 %tmp4 = call <4 x float> @llvm.fmuladd.v4f32(<4 x float> %tmp1, <4 x float> %tmp2, <4 x float> %tmp3)
33 ret <4 x float> %tmp4
44 %tmp4 = call <8 x float> @llvm.fmuladd.v8f32(<8 x float> %tmp1, <8 x float> %tmp2, <8 x float> %tmp3)
45 ret <8 x float> %tmp4
55 %tmp4 = call double @llvm.fmuladd.f64(double %tmp1, double %tmp2, double %tmp3)
56 ret double %tmp4
    [all...]
aarch64-smull.ll 9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
10 %tmp5 = mul <8 x i16> %tmp3, %tmp4
20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
21 %tmp5 = mul <4 x i32> %tmp3, %tmp4
31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
32 %tmp5 = mul <2 x i64> %tmp3, %tmp4
42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
43 %tmp5 = mul <8 x i16> %tmp3, %tmp4
53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
54 %tmp5 = mul <4 x i32> %tmp3, %tmp4
    [all...]
arm64-2011-04-21-CPSRBug.ll 11 %tmp4 = load i8, i8* undef, align 1
12 %tobool = trunc i8 %tmp4 to i1
arm64-dead-def-frame-index.ll 11 %tmp4 = zext i1 %tmp3 to i32
13 ret i32 %tmp4
arm64-mul.ll 55 %tmp4 = add i64 %c, %tmp3
56 ret i64 %tmp4
66 %tmp4 = sub i64 %c, %tmp3
67 ret i64 %tmp4
77 %tmp4 = sub i64 0, %tmp3
78 ret i64 %tmp4
88 %tmp4 = sub i64 0, %tmp3
89 ret i64 %tmp4
  /external/llvm/test/CodeGen/ARM/
vfcmp.ll 13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
14 ret <2 x i32> %tmp4
24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
25 ret <2 x i32> %tmp4
35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
36 ret <2 x i32> %tmp4
47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
48 ret <2 x i32> %tmp4
59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
60 ret <2 x i32> %tmp4
    [all...]
2007-03-07-CombinerCrash.ll 9 %tmp4.rec = add i32 0, 1 ; <i32> [#uses=1]
10 %tmp4 = getelementptr i8, i8* %p, i32 %tmp4.rec ; <i8*> [#uses=1]
20 ret i8* %tmp4
ldr_post.ll 11 %tmp4 = sub i32 %tmp1, %c ; <i32> [#uses=1]
12 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]
23 %tmp4 = sub i32 %tmp1, 16 ; <i32> [#uses=1]
24 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]
trunc_ldr.ll 9 %tmp4 = load i32, i32* %tmp23
10 %tmp512 = lshr i32 %tmp4, 24
18 %tmp4 = load i32, i32* %tmp23
19 %tmp512 = lshr i32 %tmp4, 24
vsra.ll 9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
40 ret <1 x i64> %tmp4
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
50 ret <16 x i8> %tmp4
    [all...]
vaba.ll 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3)
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
    [all...]
vld3.ll 22 %tmp4 = add <8 x i8> %tmp2, %tmp3
23 ret <8 x i8> %tmp4
33 %tmp4 = add <4 x i16> %tmp2, %tmp3
34 ret <4 x i16> %tmp4
46 %tmp4 = add <4 x i16> %tmp2, %tmp3
49 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
vld4.ll 21 %tmp4 = add <8 x i8> %tmp2, %tmp3
22 ret <8 x i8> %tmp4
33 %tmp4 = add <8 x i8> %tmp2, %tmp3
36 ret <8 x i8> %tmp4
47 %tmp4 = add <4 x i16> %tmp2, %tmp3
48 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
  /external/webrtc/webrtc/common_audio/signal_processing/
complex_fft_mips.c 33 int32_t tmp4 = 0; local
78 "lh %[tmp4], 2(%[ptr_j]) \n\t"
82 "madd %[wi], %[tmp4] \n\t"
83 "mult $ac1, %[wr], %[tmp4] \n\t"
91 "subu %[tmp4], %[tmp6], %[tmp1] \n\t"
97 "shra_r.w %[tmp4], %[tmp4], 15 \n\t"
100 "mul %[tmp2], %[wr], %[tmp4] \n\t"
102 "mul %[tmp4], %[wi], %[tmp4] \n\t
156 int32_t tmp1 = 0, tmp2 = 0, tmp3 = 0, tmp4 = 0; local
    [all...]
complex_bit_reverse_mips.c 67 int32_t tmp1, tmp2, tmp3, tmp4; local
83 "lh %[tmp4], 6(%[pcoeftable_8]) \n\t"
87 "addu %[ti], %[frfi], %[tmp4] \n\t"
91 "ulw %[tmp4], 0(%[ti]) \n\t"
94 "usw %[tmp4], 0(%[tr]) \n\t"
107 "ulw %[tmp4], 0(%[ti]) \n\t"
110 "usw %[tmp4], 0(%[tr]) \n\t"
119 [ti] "=&r" (ti), [tmp4] "=&r" (tmp4)
135 "lh %[tmp4], 6(%[pcoeftable_7]) \n\t
    [all...]
  /external/llvm/test/CodeGen/Thumb2/
thumb2-smul.ll 13 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1]
14 ret i32 %tmp4
22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
23 ret i32 %tmp4
  /external/eigen/unsupported/test/
NumericalDiff.cpp 55 double tmp1, tmp2, tmp3, tmp4; local
61 tmp4 = (x[1]*tmp2 + x[2]*tmp3); tmp4 = tmp4*tmp4;
63 fjac(i,1) = tmp1*tmp2/tmp4;
64 fjac(i,2) = tmp1*tmp3/tmp4;
  /external/llvm/test/CodeGen/X86/
bt.ll 27 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
28 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
45 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
46 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
63 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
64 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
80 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
81 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
98 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1]
99 br i1 %tmp4, label %bb, label %UnifiedReturnBloc
    [all...]
  /external/llvm/test/CodeGen/PowerPC/
vec_shuffle_p8vector_le.ll 8 %tmp4 = extractelement <4 x i32> %tmp2, i32 2
10 %tmp6 = insertelement <4 x i32> %tmp5, i32 %tmp4, i32 1
12 %tmp8 = insertelement <4 x i32> %tmp7, i32 %tmp4, i32 3
27 %tmp4 = bitcast <2 x i64> %tmp3 to <4 x i32>
30 %tmp7 = extractelement <4 x i32> %tmp4, i32 0
31 %tmp8 = extractelement <4 x i32> %tmp4, i32 2
  /external/llvm/test/Transforms/Reassociate/
repeats.ll 43 %tmp4 = mul i8 %tmp3, 3
44 ret i8 %tmp4
57 %tmp4 = mul i3 %tmp3, %x
58 ret i3 %tmp4
70 %tmp4 = mul i3 %tmp3, %x
71 %tmp5 = mul i3 %tmp4, %x
84 %tmp4 = mul i3 %tmp3, %x
85 %tmp5 = mul i3 %tmp4, %x
99 %tmp4 = mul i4 %tmp3, %x
100 %tmp5 = mul i4 %tmp4, %
    [all...]
  /external/llvm/test/Analysis/BasicAA/
2007-10-24-ArgumentsGlobals.ll 12 %tmp4 = getelementptr %struct.A, %struct.A* %b, i32 0, i32 0 ;<i32*> [#uses=1]
13 store i32 0, i32* %tmp4, align 4
  /external/llvm/test/Analysis/ScalarEvolution/
2007-09-27-LargeStepping.ll 12 %tmp4 = add i32 %i.0, 268435456 ; <i32> [#uses=1]
17 %i.0 = phi i32 [ -1879048192, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2]

Completed in 869 milliseconds

12 3 4 5 6 7 8 91011>>