/frameworks/av/media/libstagefright/codecs/on2/h264dec/source/arm11_asm/ |
h264bsd_interpolate_mid_hor.s | 47 tmp4 RN 11
label 96 SMULTB tmp4, x_3_1, mult_20_01
102 SMLAD tmp4, x_6_4, mult_20_m5, tmp4
107 SMLADX tmp4, x_7_5, mult_20_m5, tmp4
113 SMLABB tmp4, x_2_0, mult_20_01, tmp4
119 STR tmp4, [mb], #4
127 SMULTB tmp4, x_7_5, mult_20_01 [all...] |
/external/llvm/test/CodeGen/AArch64/ |
arm64-vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <16 x i8> %tmp1, %tmp3 40 ret <16 x i8> %tmp4 49 %tmp4 = add <8 x i16> %tmp1, %tmp3 50 ret <8 x i16> %tmp4 [all...] |
neon-compare-instructions.ll | 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 8 ret <8 x i8> %tmp4 15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 16 ret <16 x i8> %tmp4 23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 24 ret <4 x i16> %tmp4 31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 32 ret <8 x i16> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 [all...] |
arm64-fmuladd.ll | 10 %tmp4 = call float @llvm.fmuladd.f32(float %tmp1, float %tmp2, float %tmp3) 11 ret float %tmp4 21 %tmp4 = call <2 x float> @llvm.fmuladd.v2f32(<2 x float> %tmp1, <2 x float> %tmp2, <2 x float> %tmp3) 22 ret <2 x float> %tmp4 32 %tmp4 = call <4 x float> @llvm.fmuladd.v4f32(<4 x float> %tmp1, <4 x float> %tmp2, <4 x float> %tmp3) 33 ret <4 x float> %tmp4 44 %tmp4 = call <8 x float> @llvm.fmuladd.v8f32(<8 x float> %tmp1, <8 x float> %tmp2, <8 x float> %tmp3) 45 ret <8 x float> %tmp4 55 %tmp4 = call double @llvm.fmuladd.f64(double %tmp1, double %tmp2, double %tmp3) 56 ret double %tmp4 [all...] |
aarch64-smull.ll | 9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 10 %tmp5 = mul <8 x i16> %tmp3, %tmp4 20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 21 %tmp5 = mul <4 x i32> %tmp3, %tmp4 31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 32 %tmp5 = mul <2 x i64> %tmp3, %tmp4 42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 43 %tmp5 = mul <8 x i16> %tmp3, %tmp4 53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 54 %tmp5 = mul <4 x i32> %tmp3, %tmp4 [all...] |
arm64-2011-04-21-CPSRBug.ll | 11 %tmp4 = load i8, i8* undef, align 1 12 %tobool = trunc i8 %tmp4 to i1
|
arm64-dead-def-frame-index.ll | 11 %tmp4 = zext i1 %tmp3 to i32 13 ret i32 %tmp4
|
arm64-mul.ll | 55 %tmp4 = add i64 %c, %tmp3 56 ret i64 %tmp4 66 %tmp4 = sub i64 %c, %tmp3 67 ret i64 %tmp4 77 %tmp4 = sub i64 0, %tmp3 78 ret i64 %tmp4 88 %tmp4 = sub i64 0, %tmp3 89 ret i64 %tmp4
|
/external/llvm/test/CodeGen/ARM/ |
vfcmp.ll | 13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 14 ret <2 x i32> %tmp4 24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 25 ret <2 x i32> %tmp4 35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 36 ret <2 x i32> %tmp4 47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 48 ret <2 x i32> %tmp4 59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 60 ret <2 x i32> %tmp4 [all...] |
2007-03-07-CombinerCrash.ll | 9 %tmp4.rec = add i32 0, 1 ; <i32> [#uses=1] 10 %tmp4 = getelementptr i8, i8* %p, i32 %tmp4.rec ; <i8*> [#uses=1] 20 ret i8* %tmp4
|
ldr_post.ll | 11 %tmp4 = sub i32 %tmp1, %c ; <i32> [#uses=1] 12 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1] 23 %tmp4 = sub i32 %tmp1, 16 ; <i32> [#uses=1] 24 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]
|
trunc_ldr.ll | 9 %tmp4 = load i32, i32* %tmp23 10 %tmp512 = lshr i32 %tmp4, 24 18 %tmp4 = load i32, i32* %tmp23 19 %tmp512 = lshr i32 %tmp4, 24
|
vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 40 ret <1 x i64> %tmp4 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 50 ret <16 x i8> %tmp4 [all...] |
vaba.ll | 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3) 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 [all...] |
vld3.ll | 22 %tmp4 = add <8 x i8> %tmp2, %tmp3 23 ret <8 x i8> %tmp4 33 %tmp4 = add <4 x i16> %tmp2, %tmp3 34 ret <4 x i16> %tmp4 46 %tmp4 = add <4 x i16> %tmp2, %tmp3 49 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
vld4.ll | 21 %tmp4 = add <8 x i8> %tmp2, %tmp3 22 ret <8 x i8> %tmp4 33 %tmp4 = add <8 x i8> %tmp2, %tmp3 36 ret <8 x i8> %tmp4 47 %tmp4 = add <4 x i16> %tmp2, %tmp3 48 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
/external/webrtc/webrtc/common_audio/signal_processing/ |
complex_fft_mips.c | 33 int32_t tmp4 = 0; local 78 "lh %[tmp4], 2(%[ptr_j]) \n\t" 82 "madd %[wi], %[tmp4] \n\t" 83 "mult $ac1, %[wr], %[tmp4] \n\t" 91 "subu %[tmp4], %[tmp6], %[tmp1] \n\t" 97 "shra_r.w %[tmp4], %[tmp4], 15 \n\t" 100 "mul %[tmp2], %[wr], %[tmp4] \n\t" 102 "mul %[tmp4], %[wi], %[tmp4] \n\t 156 int32_t tmp1 = 0, tmp2 = 0, tmp3 = 0, tmp4 = 0; local [all...] |
complex_bit_reverse_mips.c | 67 int32_t tmp1, tmp2, tmp3, tmp4; local 83 "lh %[tmp4], 6(%[pcoeftable_8]) \n\t" 87 "addu %[ti], %[frfi], %[tmp4] \n\t" 91 "ulw %[tmp4], 0(%[ti]) \n\t" 94 "usw %[tmp4], 0(%[tr]) \n\t" 107 "ulw %[tmp4], 0(%[ti]) \n\t" 110 "usw %[tmp4], 0(%[tr]) \n\t" 119 [ti] "=&r" (ti), [tmp4] "=&r" (tmp4) 135 "lh %[tmp4], 6(%[pcoeftable_7]) \n\t [all...] |
/external/llvm/test/CodeGen/Thumb2/ |
thumb2-smul.ll | 13 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1] 14 ret i32 %tmp4 22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1] 23 ret i32 %tmp4
|
/external/eigen/unsupported/test/ |
NumericalDiff.cpp | 55 double tmp1, tmp2, tmp3, tmp4; local 61 tmp4 = (x[1]*tmp2 + x[2]*tmp3); tmp4 = tmp4*tmp4; 63 fjac(i,1) = tmp1*tmp2/tmp4; 64 fjac(i,2) = tmp1*tmp3/tmp4;
|
/external/llvm/test/CodeGen/X86/ |
bt.ll | 27 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 28 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 45 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 46 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 63 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 64 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 80 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 81 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 98 %tmp4 = icmp eq i32 %tmp3, 0 ; <i1> [#uses=1] 99 br i1 %tmp4, label %bb, label %UnifiedReturnBloc [all...] |
/external/llvm/test/CodeGen/PowerPC/ |
vec_shuffle_p8vector_le.ll | 8 %tmp4 = extractelement <4 x i32> %tmp2, i32 2 10 %tmp6 = insertelement <4 x i32> %tmp5, i32 %tmp4, i32 1 12 %tmp8 = insertelement <4 x i32> %tmp7, i32 %tmp4, i32 3 27 %tmp4 = bitcast <2 x i64> %tmp3 to <4 x i32> 30 %tmp7 = extractelement <4 x i32> %tmp4, i32 0 31 %tmp8 = extractelement <4 x i32> %tmp4, i32 2
|
/external/llvm/test/Transforms/Reassociate/ |
repeats.ll | 43 %tmp4 = mul i8 %tmp3, 3 44 ret i8 %tmp4 57 %tmp4 = mul i3 %tmp3, %x 58 ret i3 %tmp4 70 %tmp4 = mul i3 %tmp3, %x 71 %tmp5 = mul i3 %tmp4, %x 84 %tmp4 = mul i3 %tmp3, %x 85 %tmp5 = mul i3 %tmp4, %x 99 %tmp4 = mul i4 %tmp3, %x 100 %tmp5 = mul i4 %tmp4, % [all...] |
/external/llvm/test/Analysis/BasicAA/ |
2007-10-24-ArgumentsGlobals.ll | 12 %tmp4 = getelementptr %struct.A, %struct.A* %b, i32 0, i32 0 ;<i32*> [#uses=1] 13 store i32 0, i32* %tmp4, align 4
|
/external/llvm/test/Analysis/ScalarEvolution/ |
2007-09-27-LargeStepping.ll | 12 %tmp4 = add i32 %i.0, 268435456 ; <i32> [#uses=1] 17 %i.0 = phi i32 [ -1879048192, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2]
|