/external/llvm/test/CodeGen/ARM/ |
fpmem.ll | 13 %tmp1 = fadd float %tmp, %u ; <float> [#uses=1] 14 ret float %tmp1 22 %tmp1 = fadd float %tmp, %u 23 ret float %tmp1 31 %tmp1 = fadd float %tmp, %u 32 ret float %tmp1
|
ldr_post.ll | 8 %tmp1 = mul i32 %a, %b ; <i32> [#uses=2] 9 %tmp2 = inttoptr i32 %tmp1 to i32* ; <i32*> [#uses=1] 11 %tmp4 = sub i32 %tmp1, %c ; <i32> [#uses=1] 20 %tmp1 = mul i32 %a, %b ; <i32> [#uses=2] 21 %tmp2 = inttoptr i32 %tmp1 to i32* ; <i32*> [#uses=1] 23 %tmp4 = sub i32 %tmp1, 16 ; <i32> [#uses=1]
|
vshift.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 8 %tmp3 = shl <8 x i8> %tmp1, %tmp2 15 %tmp1 = load <4 x i16>, <4 x i16>* %A 17 %tmp3 = shl <4 x i16> %tmp1, %tmp2 24 %tmp1 = load <2 x i32>, <2 x i32>* %A 26 %tmp3 = shl <2 x i32> %tmp1, %tmp2 33 %tmp1 = load <1 x i64>, <1 x i64>* %A 35 %tmp3 = shl <1 x i64> %tmp1, %tmp2 42 %tmp1 = load <8 x i8>, <8 x i8>* %A 43 %tmp2 = shl <8 x i8> %tmp1, < i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7, i8 7 [all...] |
vshll.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 7 %sext = sext <8 x i8> %tmp1 to <8 x i16> 15 %tmp1 = load <4 x i16>, <4 x i16>* %A 16 %sext = sext <4 x i16> %tmp1 to <4 x i32> 24 %tmp1 = load <2 x i32>, <2 x i32>* %A 25 %sext = sext <2 x i32> %tmp1 to <2 x i64> 33 %tmp1 = load <8 x i8>, <8 x i8>* %A 34 %zext = zext <8 x i8> %tmp1 to <8 x i16> 42 %tmp1 = load <4 x i16>, <4 x i16>* %A 43 %zext = zext <4 x i16> %tmp1 to <4 x i32 [all...] |
vbits.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 8 %tmp3 = and <8 x i8> %tmp1, %tmp2 15 %tmp1 = load <4 x i16>, <4 x i16>* %A 17 %tmp3 = and <4 x i16> %tmp1, %tmp2 24 %tmp1 = load <2 x i32>, <2 x i32>* %A 26 %tmp3 = and <2 x i32> %tmp1, %tmp2 33 %tmp1 = load <1 x i64>, <1 x i64>* %A 35 %tmp3 = and <1 x i64> %tmp1, %tmp2 42 %tmp1 = load <16 x i8>, <16 x i8>* %A 44 %tmp3 = and <16 x i8> %tmp1, %tmp [all...] |
vget_lane.ll | 8 %tmp1 = load <8 x i8>, <8 x i8>* %A 9 %tmp2 = extractelement <8 x i8> %tmp1, i32 1 17 %tmp1 = load <4 x i16>, <4 x i16>* %A 18 %tmp2 = extractelement <4 x i16> %tmp1, i32 1 26 %tmp1 = load <8 x i8>, <8 x i8>* %A 27 %tmp2 = extractelement <8 x i8> %tmp1, i32 1 35 %tmp1 = load <4 x i16>, <4 x i16>* %A 36 %tmp2 = extractelement <4 x i16> %tmp1, i32 1 45 %tmp1 = load <2 x i32>, <2 x i32>* %A 46 %tmp2 = add <2 x i32> %tmp1, %tmp [all...] |
vst2.ll | 7 %tmp1 = load <8 x i8>, <8 x i8>* %B 8 call void @llvm.arm.neon.vst2.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 8) 17 %tmp1 = load <8 x i8>, <8 x i8>* %B 18 call void @llvm.arm.neon.vst2.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 4) 29 %tmp1 = load <4 x i16>, <4 x i16>* %B 30 call void @llvm.arm.neon.vst2.p0i8.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 32) 38 %tmp1 = load <2 x i32>, <2 x i32>* % [all...] |
vabs.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 7 %tmp2 = call <8 x i8> @llvm.arm.neon.vabs.v8i8(<8 x i8> %tmp1) 14 %tmp1 = load <4 x i16>, <4 x i16>* %A 15 %tmp2 = call <4 x i16> @llvm.arm.neon.vabs.v4i16(<4 x i16> %tmp1) 22 %tmp1 = load <2 x i32>, <2 x i32>* %A 23 %tmp2 = call <2 x i32> @llvm.arm.neon.vabs.v2i32(<2 x i32> %tmp1) 30 %tmp1 = load <2 x float>, <2 x float>* %A 31 %tmp2 = call <2 x float> @llvm.fabs.v2f32(<2 x float> %tmp1) 38 %tmp1 = load <16 x i8>, <16 x i8>* %A 39 %tmp2 = call <16 x i8> @llvm.arm.neon.vabs.v16i8(<16 x i8> %tmp1) [all...] |
vcnt.ll | 7 %tmp1 = load <8 x i8>, <8 x i8>* %A 8 %tmp2 = call <8 x i8> @llvm.ctpop.v8i8(<8 x i8> %tmp1) 15 %tmp1 = load <16 x i8>, <16 x i8>* %A 16 %tmp2 = call <16 x i8> @llvm.ctpop.v16i8(<16 x i8> %tmp1) 26 %tmp1 = load <8 x i8>, <8 x i8>* %A 27 %tmp2 = call <8 x i8> @llvm.ctlz.v8i8(<8 x i8> %tmp1, i1 0) 34 %tmp1 = load <4 x i16>, <4 x i16>* %A 35 %tmp2 = call <4 x i16> @llvm.ctlz.v4i16(<4 x i16> %tmp1, i1 0) 42 %tmp1 = load <2 x i32>, <2 x i32>* %A 43 %tmp2 = call <2 x i32> @llvm.ctlz.v2i32(<2 x i32> %tmp1, i1 0 [all...] |
vcgt.ll | 7 %tmp1 = load <8 x i8>, <8 x i8>* %A 9 %tmp3 = icmp sgt <8 x i8> %tmp1, %tmp2 17 %tmp1 = load <4 x i16>, <4 x i16>* %A 19 %tmp3 = icmp sgt <4 x i16> %tmp1, %tmp2 27 %tmp1 = load <2 x i32>, <2 x i32>* %A 29 %tmp3 = icmp sgt <2 x i32> %tmp1, %tmp2 37 %tmp1 = load <8 x i8>, <8 x i8>* %A 39 %tmp3 = icmp ugt <8 x i8> %tmp1, %tmp2 47 %tmp1 = load <4 x i16>, <4 x i16>* %A 49 %tmp3 = icmp ugt <4 x i16> %tmp1, %tmp [all...] |
vcge.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 8 %tmp3 = icmp sge <8 x i8> %tmp1, %tmp2 16 %tmp1 = load <4 x i16>, <4 x i16>* %A 18 %tmp3 = icmp sge <4 x i16> %tmp1, %tmp2 26 %tmp1 = load <2 x i32>, <2 x i32>* %A 28 %tmp3 = icmp sge <2 x i32> %tmp1, %tmp2 36 %tmp1 = load <8 x i8>, <8 x i8>* %A 38 %tmp3 = icmp uge <8 x i8> %tmp1, %tmp2 46 %tmp1 = load <4 x i16>, <4 x i16>* %A 48 %tmp3 = icmp uge <4 x i16> %tmp1, %tmp [all...] |
vcvt.ll | 6 %tmp1 = load <2 x float>, <2 x float>* %A 7 %tmp2 = fptosi <2 x float> %tmp1 to <2 x i32> 14 %tmp1 = load <2 x float>, <2 x float>* %A 15 %tmp2 = fptoui <2 x float> %tmp1 to <2 x i32> 22 %tmp1 = load <2 x i32>, <2 x i32>* %A 23 %tmp2 = sitofp <2 x i32> %tmp1 to <2 x float> 30 %tmp1 = load <2 x i32>, <2 x i32>* %A 31 %tmp2 = uitofp <2 x i32> %tmp1 to <2 x float> 38 %tmp1 = load <4 x float>, <4 x float>* %A 39 %tmp2 = fptosi <4 x float> %tmp1 to <4 x i32 [all...] |
vld3.ll | 19 %tmp1 = call %struct.__neon_int8x8x3_t @llvm.arm.neon.vld3.v8i8.p0i8(i8* %A, i32 32) 20 %tmp2 = extractvalue %struct.__neon_int8x8x3_t %tmp1, 0 21 %tmp3 = extractvalue %struct.__neon_int8x8x3_t %tmp1, 2 30 %tmp1 = call %struct.__neon_int16x4x3_t @llvm.arm.neon.vld3.v4i16.p0i8(i8* %tmp0, i32 1) 31 %tmp2 = extractvalue %struct.__neon_int16x4x3_t %tmp1, 0 32 %tmp3 = extractvalue %struct.__neon_int16x4x3_t %tmp1, 2 43 %tmp1 = call %struct.__neon_int16x4x3_t @llvm.arm.neon.vld3.v4i16.p0i8(i8* %tmp0, i32 1) 44 %tmp2 = extractvalue %struct.__neon_int16x4x3_t %tmp1, 0 45 %tmp3 = extractvalue %struct.__neon_int16x4x3_t %tmp1, 2 56 %tmp1 = call %struct.__neon_int32x2x3_t @llvm.arm.neon.vld3.v2i32.p0i8(i8* %tmp0, i32 1 [all...] |
vld4.ll | 18 %tmp1 = call %struct.__neon_int8x8x4_t @llvm.arm.neon.vld4.v8i8.p0i8(i8* %A, i32 8) 19 %tmp2 = extractvalue %struct.__neon_int8x8x4_t %tmp1, 0 20 %tmp3 = extractvalue %struct.__neon_int8x8x4_t %tmp1, 2 30 %tmp1 = call %struct.__neon_int8x8x4_t @llvm.arm.neon.vld4.v8i8.p0i8(i8* %A, i32 16) 31 %tmp2 = extractvalue %struct.__neon_int8x8x4_t %tmp1, 0 32 %tmp3 = extractvalue %struct.__neon_int8x8x4_t %tmp1, 2 44 %tmp1 = call %struct.__neon_int16x4x4_t @llvm.arm.neon.vld4.v4i16.p0i8(i8* %tmp0, i32 16) 45 %tmp2 = extractvalue %struct.__neon_int16x4x4_t %tmp1, 0 46 %tmp3 = extractvalue %struct.__neon_int16x4x4_t %tmp1, 2 56 %tmp1 = call %struct.__neon_int32x2x4_t @llvm.arm.neon.vld4.v2i32.p0i8(i8* %tmp0, i32 32 [all...] |
/external/llvm/test/CodeGen/Thumb2/ |
thumb2-ldr_pre.ll | 13 %tmp1 = sub i32 %a, 64 ; <i32> [#uses=2] 14 %tmp2 = inttoptr i32 %tmp1 to i32* ; <i32*> [#uses=1] 16 %tmp4 = sub i32 %tmp1, %b ; <i32> [#uses=1] 24 %tmp1 = getelementptr i8, i8* %X, i32 4 25 %tmp2 = load i8, i8* %tmp1 28 ret i8* %tmp1
|
thumb2-select_xform.ll | 10 %tmp1 = icmp sgt i32 %c, 10 11 %tmp2 = select i1 %tmp1, i32 0, i32 2147483647 23 %tmp1 = icmp sgt i32 %c, 10 24 %tmp2 = select i1 %tmp1, i32 0, i32 2147483648 35 %tmp1 = icmp sgt i32 %c, 10 36 %tmp2 = select i1 %tmp1, i32 0, i32 10
|
thumb2-ldrb.ll | 25 %tmp1 = add i32 %base, 4096 26 %tmp2 = inttoptr i32 %tmp1 to i8* 35 %tmp1 = sub i32 %base, 128 36 %tmp2 = inttoptr i32 %tmp1 to i8* 45 %tmp1 = add i32 %base, %offset 46 %tmp2 = inttoptr i32 %tmp1 to i8* 55 %tmp1 = shl i32 %offset, 2 56 %tmp2 = add i32 %base, %tmp1 67 %tmp1 = lshr i32 %offset, 2 68 %tmp2 = add i32 %base, %tmp1 [all...] |
/external/webrtc/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
pitch_estimator_mips.c | 34 int32_t tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, tmp8; local 41 "lh %[tmp1], 0(%[tmp_in]) \n\t" 49 "mul %[tmp5], %[tmp1], %[tmp5] \n\t" 50 "mul %[tmp1], %[tmp1], %[tmp1] \n\t" 59 "srav %[tmp1], %[tmp1], %[scaling] \n\t" 66 "addu %[ysum32], %[ysum32], %[tmp1] \n\t" 78 : [tmp1] "=&r" (tmp1), [tmp2] "=&r" (tmp2), [tmp3] "=&r" (tmp3) 105 int32_t tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, tmp8; local [all...] |
/external/llvm/test/CodeGen/AArch64/ |
neon-scalar-by-elem-fma.ll | 9 %tmp1 = extractelement <4 x float> %v, i32 3 10 %tmp2 = call float @llvm.fma.f32(float %b, float %tmp1, float %a) 17 %tmp1 = extractelement <4 x float> %v, i32 3 18 %tmp2 = call float @llvm.fma.f32(float %tmp1, float %a, float %a) 25 %tmp1 = extractelement <2 x float> %v, i32 1 26 %tmp2 = call float @llvm.fma.f32(float %b, float %tmp1, float %a) 33 %tmp1 = extractelement <1 x double> %v, i32 0 34 %tmp2 = call double @llvm.fma.f64(double %b, double %tmp1, double %a) 41 %tmp1 = extractelement <2 x double> %v, i32 1 42 %tmp2 = call double @llvm.fma.f64(double %b, double %tmp1, double %a [all...] |
/external/llvm/test/CodeGen/Thumb/ |
select.ll | 7 %tmp1.s = select i1 %tmp, i32 2, i32 3 8 ret i32 %tmp1.s 18 %tmp1.s = select i1 %tmp, i32 2, i32 3 19 ret i32 %tmp1.s 29 %tmp1.s = select i1 %tmp, i32 2, i32 3 30 ret i32 %tmp1.s 40 %tmp1.s = select i1 %tmp, i32 2, i32 3 41 ret i32 %tmp1.s 51 %tmp1.s = select i1 %tmp, i32 2, i32 3 52 ret i32 %tmp1. [all...] |
/external/valgrind/none/tests/s390x/ |
mul.h | 5 unsigned long tmp1 = m1; \ 12 : "+d" (tmp1), "+d" (tmp2) \ 15 printf(#insn " %16.16lX * %16.16lX = %16.16lX%16.16lX\n", m1, m2, tmp1, tmp2); \ 20 unsigned long tmp1 = m1; \ 27 : "+d" (tmp1), "+d" (tmp2) \ 30 printf(#insn " %16.16lX * %16.16lX = %16.16lX%16.16lX\n", m1, m2, tmp1, tmp2); \ 35 unsigned long tmp1 = m1; \ 42 : "+d" (tmp1), "+d" (tmp2) \ 44 printf(#insn " %16.16lX * %16.16lX = %16.16lX%16.16lX\n", m1, (unsigned long) m2, tmp1, tmp2); \ 49 unsigned long tmp1 = m1; [all...] |
/external/webrtc/webrtc/common_audio/signal_processing/ |
downsample_fast_mips.c | 28 int32_t tmp1, tmp2, tmp3, tmp4, factor_2; local 57 "lwl %[tmp1], 1(%[p_data_in]) \n\t" 61 "lwr %[tmp1], -2(%[p_data_in]) \n\t" 65 "packrl.ph %[tmp1], %[tmp1], %[tmp1] \n\t" 67 "dpa.w.ph $ac0, %[tmp1], %[tmp2] \n\t" 77 "lhu %[tmp1], 0(%[p_data_in]) \n\t" 81 "dpa.w.ph $ac0, %[tmp1], %[tmp2] \n\t" 94 : [tmp1] "=&r" (tmp1), [tmp2] "=&r" (tmp2), [tmp3] "=&r" (tmp3) [all...] |
/prebuilts/go/darwin-x86/misc/cgo/gmp/ |
pi.go | 49 tmp1 = big.NewInt(0) 61 tmp1.Lsh(numer, 1).Add(tmp1, numer).Add(tmp1, accum) 62 big.DivModInt(tmp1, tmp2, tmp1, denom) 67 return tmp1.Int64() 72 accum.Add(accum, tmp1.Lsh(numer, 1)) 73 accum.Mul(accum, tmp1.SetInt64(y2)) 74 numer.Mul(numer, tmp1.SetInt64(k) 48 tmp1 = big.NewInt(0) var [all...] |
/prebuilts/go/linux-x86/misc/cgo/gmp/ |
pi.go | 49 tmp1 = big.NewInt(0) 61 tmp1.Lsh(numer, 1).Add(tmp1, numer).Add(tmp1, accum) 62 big.DivModInt(tmp1, tmp2, tmp1, denom) 67 return tmp1.Int64() 72 accum.Add(accum, tmp1.Lsh(numer, 1)) 73 accum.Mul(accum, tmp1.SetInt64(y2)) 74 numer.Mul(numer, tmp1.SetInt64(k) 48 tmp1 = big.NewInt(0) var [all...] |
/external/eigen/unsupported/test/ |
NumericalDiff.cpp | 39 double tmp1, tmp2, tmp3; local 45 tmp1 = i+1; 47 tmp3 = (i>=8)? tmp2 : tmp1; 48 fvec[i] = y[i] - (x[0] + tmp1/(x[1]*tmp2 + x[2]*tmp3)); 55 double tmp1, tmp2, tmp3, tmp4; local 58 tmp1 = i+1; 60 tmp3 = (i>=8)? tmp2 : tmp1; 63 fjac(i,1) = tmp1*tmp2/tmp4; 64 fjac(i,2) = tmp1*tmp3/tmp4;
|