HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 51 - 75 of 1043) sorted by null

1 23 4 5 6 7 8 91011>>

  /external/swiftshader/third_party/LLVM/test/Transforms/SimplifyLibCalls/
2008-05-19-memcmp.ll 10 %tmp4 = load i8** %start_addr, align 4 ; <i8*> [#uses=1]
11 %tmp5 = call i32 @memcmp( i8* %tmp4, i8* getelementptr ([5 x i8]* @_2E_str, i32 0, i32 0), i32 4 ) nounwind readonly ; <i32> [#uses=1]
  /external/llvm/test/CodeGen/ARM/
vceq.ll 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
10 ret <8 x i8> %tmp4
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
20 ret <4 x i16> %tmp4
29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
30 ret <2 x i32> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
50 ret <16 x i8> %tmp4
    [all...]
vfcmp.ll 13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
14 ret <2 x i32> %tmp4
24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
25 ret <2 x i32> %tmp4
35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
36 ret <2 x i32> %tmp4
47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
48 ret <2 x i32> %tmp4
59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
60 ret <2 x i32> %tmp4
    [all...]
2007-03-07-CombinerCrash.ll 9 %tmp4.rec = add i32 0, 1 ; <i32> [#uses=1]
10 %tmp4 = getelementptr i8, i8* %p, i32 %tmp4.rec ; <i8*> [#uses=1]
20 ret i8* %tmp4
ldr_post.ll 11 %tmp4 = sub i32 %tmp1, %c ; <i32> [#uses=1]
12 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]
23 %tmp4 = sub i32 %tmp1, 16 ; <i32> [#uses=1]
24 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]
trunc_ldr.ll 9 %tmp4 = load i32, i32* %tmp23
10 %tmp512 = lshr i32 %tmp4, 24
18 %tmp4 = load i32, i32* %tmp23
19 %tmp512 = lshr i32 %tmp4, 24
vsra.ll 9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
40 ret <1 x i64> %tmp4
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
50 ret <16 x i8> %tmp4
    [all...]
vaba.ll 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3)
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
    [all...]
  /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
vceq.ll 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
10 ret <8 x i8> %tmp4
19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
20 ret <4 x i16> %tmp4
29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
30 ret <2 x i32> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
50 ret <16 x i8> %tmp4
    [all...]
2007-03-07-CombinerCrash.ll 9 %tmp4.rec = add i32 0, 1 ; <i32> [#uses=1]
10 %tmp4 = getelementptr i8* %p, i32 %tmp4.rec ; <i8*> [#uses=1]
20 ret i8* %tmp4
trunc_ldr.ll 10 %tmp4 = load i32* %tmp23
11 %tmp512 = lshr i32 %tmp4, 24
19 %tmp4 = load i32* %tmp23
20 %tmp512 = lshr i32 %tmp4, 24
vbsl.ll 9 %tmp4 = and <8 x i8> %tmp1, %tmp2
12 %tmp7 = or <8 x i8> %tmp4, %tmp6
22 %tmp4 = and <4 x i16> %tmp1, %tmp2
25 %tmp7 = or <4 x i16> %tmp4, %tmp6
35 %tmp4 = and <2 x i32> %tmp1, %tmp2
38 %tmp7 = or <2 x i32> %tmp4, %tmp6
48 %tmp4 = and <1 x i64> %tmp1, %tmp2
51 %tmp7 = or <1 x i64> %tmp4, %tmp6
61 %tmp4 = and <16 x i8> %tmp1, %tmp2
64 %tmp7 = or <16 x i8> %tmp4, %tmp
    [all...]
vsra.ll 9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <1 x i64> %tmp1, %tmp3
40 ret <1 x i64> %tmp4
49 %tmp4 = add <16 x i8> %tmp1, %tmp3
50 ret <16 x i8> %tmp4
    [all...]
pack.ll 7 %tmp4 = shl i32 %Y, 16
8 %tmp5 = or i32 %tmp4, %tmp1
17 %tmp4 = and i32 %tmp3, -65536
18 %tmp57 = or i32 %tmp4, %tmp1
45 %tmp4 = lshr i32 %tmp2, 16
46 %tmp5 = or i32 %tmp4, %tmp17
66 %tmp4 = and i32 %tmp38, 65535
67 %tmp59 = or i32 %tmp4, %tmp1
76 %tmp4 = and i32 %tmp3, 65535
77 %tmp57 = or i32 %tmp4, %tmp1
    [all...]
vtrn.ll 10 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 5, i32 13, i32 7, i32 15>
11 %tmp5 = add <8 x i8> %tmp3, %tmp4
22 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7>
23 %tmp5 = add <4 x i16> %tmp3, %tmp4
34 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3>
35 %tmp5 = add <2 x i32> %tmp3, %tmp4
46 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3>
47 %tmp5 = fadd <2 x float> %tmp3, %tmp4
58 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, i32 5, i32 21, i32 7, i32 23, i32 9, i32 25, i32 11, i32 27, i32 13, i32 29, i32 15, i32 31>
59 %tmp5 = add <16 x i8> %tmp3, %tmp4
    [all...]
vaba.ll 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3)
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3)
43 %tmp5 = add <8 x i8> %tmp1, %tmp4
53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3)
54 %tmp5 = add <4 x i16> %tmp1, %tmp4
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-neon-compare-instructions.ll 6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
7 ret <8 x i8> %tmp4
13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
14 ret <16 x i8> %tmp4
20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
21 ret <4 x i16> %tmp4
27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
28 ret <8 x i16> %tmp4
34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
35 ret <2 x i32> %tmp4
    [all...]
arm64-vsra.ll 9 %tmp4 = add <8 x i8> %tmp1, %tmp3
10 ret <8 x i8> %tmp4
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
20 ret <4 x i16> %tmp4
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
30 ret <2 x i32> %tmp4
39 %tmp4 = add <16 x i8> %tmp1, %tmp3
40 ret <16 x i8> %tmp4
49 %tmp4 = add <8 x i16> %tmp1, %tmp3
50 ret <8 x i16> %tmp4
    [all...]
neon-compare-instructions.ll 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8>
8 ret <8 x i8> %tmp4
15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8>
16 ret <16 x i8> %tmp4
23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16>
24 ret <4 x i16> %tmp4
31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16>
32 ret <8 x i16> %tmp4
39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32>
40 ret <2 x i32> %tmp4
    [all...]
  /external/webrtc/webrtc/common_audio/signal_processing/
complex_fft_mips.c 33 int32_t tmp4 = 0; local
78 "lh %[tmp4], 2(%[ptr_j]) \n\t"
82 "madd %[wi], %[tmp4] \n\t"
83 "mult $ac1, %[wr], %[tmp4] \n\t"
91 "subu %[tmp4], %[tmp6], %[tmp1] \n\t"
97 "shra_r.w %[tmp4], %[tmp4], 15 \n\t"
100 "mul %[tmp2], %[wr], %[tmp4] \n\t"
102 "mul %[tmp4], %[wi], %[tmp4] \n\t
156 int32_t tmp1 = 0, tmp2 = 0, tmp3 = 0, tmp4 = 0; local
    [all...]
  /external/llvm/test/CodeGen/Thumb2/
thumb2-smul.ll 13 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1]
14 ret i32 %tmp4
22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
23 ret i32 %tmp4
  /external/llvm/test/Transforms/InstCombine/
pr27236.ll 8 %tmp4 = icmp sgt i32 %tmp2, 0
9 %sel = select i1 %tmp4, float %tmp3, float 0.000000e+00
17 ; CHECK: %[[tmp4:.*]] = icmp sgt i32 %[[tmp2]], 0
18 ; CHECK: %[[sel:.*]] = select i1 %[[tmp4]], float %[[tmp3]], float 0.000000e+00
  /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb2/
thumb2-smul.ll 13 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1]
14 ret i32 %tmp4
22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
23 ret i32 %tmp4
  /external/swiftshader/third_party/LLVM/test/CodeGen/X86/
fold-and-shift.ll 6 %tmp4 = and i32 %tmp2, 1020 ; <i32> [#uses=1]
7 %tmp7 = getelementptr i8* %X, i32 %tmp4 ; <i8*> [#uses=1]
16 %tmp4 = and i32 %tmp2, 131070 ; <i32> [#uses=1]
17 %tmp7 = getelementptr i16* %X, i32 %tmp4 ; <i16*> [#uses=1]
  /external/eigen/unsupported/test/
NumericalDiff.cpp 55 double tmp1, tmp2, tmp3, tmp4; local
61 tmp4 = (x[1]*tmp2 + x[2]*tmp3); tmp4 = tmp4*tmp4;
63 fjac(i,1) = tmp1*tmp2/tmp4;
64 fjac(i,2) = tmp1*tmp3/tmp4;

Completed in 825 milliseconds

1 23 4 5 6 7 8 91011>>