| /external/swiftshader/third_party/LLVM/test/Transforms/SimplifyLibCalls/ |
| 2008-05-19-memcmp.ll | 10 %tmp4 = load i8** %start_addr, align 4 ; <i8*> [#uses=1] 11 %tmp5 = call i32 @memcmp( i8* %tmp4, i8* getelementptr ([5 x i8]* @_2E_str, i32 0, i32 0), i32 4 ) nounwind readonly ; <i32> [#uses=1]
|
| /external/llvm/test/CodeGen/ARM/ |
| vceq.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 [all...] |
| vfcmp.ll | 13 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 14 ret <2 x i32> %tmp4 24 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 25 ret <2 x i32> %tmp4 35 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 36 ret <2 x i32> %tmp4 47 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 48 ret <2 x i32> %tmp4 59 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 60 ret <2 x i32> %tmp4 [all...] |
| 2007-03-07-CombinerCrash.ll | 9 %tmp4.rec = add i32 0, 1 ; <i32> [#uses=1] 10 %tmp4 = getelementptr i8, i8* %p, i32 %tmp4.rec ; <i8*> [#uses=1] 20 ret i8* %tmp4
|
| ldr_post.ll | 11 %tmp4 = sub i32 %tmp1, %c ; <i32> [#uses=1] 12 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1] 23 %tmp4 = sub i32 %tmp1, 16 ; <i32> [#uses=1] 24 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]
|
| trunc_ldr.ll | 9 %tmp4 = load i32, i32* %tmp23 10 %tmp512 = lshr i32 %tmp4, 24 18 %tmp4 = load i32, i32* %tmp23 19 %tmp512 = lshr i32 %tmp4, 24
|
| vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 40 ret <1 x i64> %tmp4 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 50 ret <16 x i8> %tmp4 [all...] |
| vaba.ll | 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3) 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 [all...] |
| /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
| vceq.ll | 9 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 10 ret <8 x i8> %tmp4 19 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 20 ret <4 x i16> %tmp4 29 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 30 ret <2 x i32> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 49 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 50 ret <16 x i8> %tmp4 [all...] |
| 2007-03-07-CombinerCrash.ll | 9 %tmp4.rec = add i32 0, 1 ; <i32> [#uses=1]
10 %tmp4 = getelementptr i8* %p, i32 %tmp4.rec ; <i8*> [#uses=1]
20 ret i8* %tmp4
|
| trunc_ldr.ll | 10 %tmp4 = load i32* %tmp23
11 %tmp512 = lshr i32 %tmp4, 24
19 %tmp4 = load i32* %tmp23
20 %tmp512 = lshr i32 %tmp4, 24
|
| vbsl.ll | 9 %tmp4 = and <8 x i8> %tmp1, %tmp2 12 %tmp7 = or <8 x i8> %tmp4, %tmp6 22 %tmp4 = and <4 x i16> %tmp1, %tmp2 25 %tmp7 = or <4 x i16> %tmp4, %tmp6 35 %tmp4 = and <2 x i32> %tmp1, %tmp2 38 %tmp7 = or <2 x i32> %tmp4, %tmp6 48 %tmp4 = and <1 x i64> %tmp1, %tmp2 51 %tmp7 = or <1 x i64> %tmp4, %tmp6 61 %tmp4 = and <16 x i8> %tmp1, %tmp2 64 %tmp7 = or <16 x i8> %tmp4, %tmp [all...] |
| vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <1 x i64> %tmp1, %tmp3 40 ret <1 x i64> %tmp4 49 %tmp4 = add <16 x i8> %tmp1, %tmp3 50 ret <16 x i8> %tmp4 [all...] |
| pack.ll | 7 %tmp4 = shl i32 %Y, 16
8 %tmp5 = or i32 %tmp4, %tmp1
17 %tmp4 = and i32 %tmp3, -65536
18 %tmp57 = or i32 %tmp4, %tmp1
45 %tmp4 = lshr i32 %tmp2, 16
46 %tmp5 = or i32 %tmp4, %tmp17
66 %tmp4 = and i32 %tmp38, 65535
67 %tmp59 = or i32 %tmp4, %tmp1
76 %tmp4 = and i32 %tmp3, 65535
77 %tmp57 = or i32 %tmp4, %tmp1 [all...] |
| vtrn.ll | 10 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 5, i32 13, i32 7, i32 15> 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 22 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7> 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 34 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3> 35 %tmp5 = add <2 x i32> %tmp3, %tmp4 46 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3> 47 %tmp5 = fadd <2 x float> %tmp3, %tmp4 58 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, i32 5, i32 21, i32 7, i32 23, i32 9, i32 25, i32 11, i32 27, i32 13, i32 29, i32 15, i32 31> 59 %tmp5 = add <16 x i8> %tmp3, %tmp4 [all...] |
| vaba.ll | 9 %tmp4 = call <8 x i8> @llvm.arm.neon.vabds.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = call <4 x i16> @llvm.arm.neon.vabds.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = call <2 x i32> @llvm.arm.neon.vabds.v2i32(<2 x i32> %tmp2, <2 x i32> %tmp3) 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = call <8 x i8> @llvm.arm.neon.vabdu.v8i8(<8 x i8> %tmp2, <8 x i8> %tmp3) 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 53 %tmp4 = call <4 x i16> @llvm.arm.neon.vabdu.v4i16(<4 x i16> %tmp2, <4 x i16> %tmp3) 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 [all...] |
| /external/llvm/test/CodeGen/AArch64/ |
| arm64-neon-compare-instructions.ll | 6 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 7 ret <8 x i8> %tmp4 13 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 14 ret <16 x i8> %tmp4 20 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 21 ret <4 x i16> %tmp4 27 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 28 ret <8 x i16> %tmp4 34 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 35 ret <2 x i32> %tmp4 [all...] |
| arm64-vsra.ll | 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 10 ret <8 x i8> %tmp4 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 20 ret <4 x i16> %tmp4 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 30 ret <2 x i32> %tmp4 39 %tmp4 = add <16 x i8> %tmp1, %tmp3 40 ret <16 x i8> %tmp4 49 %tmp4 = add <8 x i16> %tmp1, %tmp3 50 ret <8 x i16> %tmp4 [all...] |
| neon-compare-instructions.ll | 7 %tmp4 = sext <8 x i1> %tmp3 to <8 x i8> 8 ret <8 x i8> %tmp4 15 %tmp4 = sext <16 x i1> %tmp3 to <16 x i8> 16 ret <16 x i8> %tmp4 23 %tmp4 = sext <4 x i1> %tmp3 to <4 x i16> 24 ret <4 x i16> %tmp4 31 %tmp4 = sext <8 x i1> %tmp3 to <8 x i16> 32 ret <8 x i16> %tmp4 39 %tmp4 = sext <2 x i1> %tmp3 to <2 x i32> 40 ret <2 x i32> %tmp4 [all...] |
| /external/webrtc/webrtc/common_audio/signal_processing/ |
| complex_fft_mips.c | 33 int32_t tmp4 = 0; local 78 "lh %[tmp4], 2(%[ptr_j]) \n\t" 82 "madd %[wi], %[tmp4] \n\t" 83 "mult $ac1, %[wr], %[tmp4] \n\t" 91 "subu %[tmp4], %[tmp6], %[tmp1] \n\t" 97 "shra_r.w %[tmp4], %[tmp4], 15 \n\t" 100 "mul %[tmp2], %[wr], %[tmp4] \n\t" 102 "mul %[tmp4], %[wi], %[tmp4] \n\t 156 int32_t tmp1 = 0, tmp2 = 0, tmp3 = 0, tmp4 = 0; local [all...] |
| /external/llvm/test/CodeGen/Thumb2/ |
| thumb2-smul.ll | 13 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1] 14 ret i32 %tmp4 22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1] 23 ret i32 %tmp4
|
| /external/llvm/test/Transforms/InstCombine/ |
| pr27236.ll | 8 %tmp4 = icmp sgt i32 %tmp2, 0 9 %sel = select i1 %tmp4, float %tmp3, float 0.000000e+00 17 ; CHECK: %[[tmp4:.*]] = icmp sgt i32 %[[tmp2]], 0 18 ; CHECK: %[[sel:.*]] = select i1 %[[tmp4]], float %[[tmp3]], float 0.000000e+00
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb2/ |
| thumb2-smul.ll | 13 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1] 14 ret i32 %tmp4 22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1] 23 ret i32 %tmp4
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
| fold-and-shift.ll | 6 %tmp4 = and i32 %tmp2, 1020 ; <i32> [#uses=1] 7 %tmp7 = getelementptr i8* %X, i32 %tmp4 ; <i8*> [#uses=1] 16 %tmp4 = and i32 %tmp2, 131070 ; <i32> [#uses=1] 17 %tmp7 = getelementptr i16* %X, i32 %tmp4 ; <i16*> [#uses=1]
|
| /external/eigen/unsupported/test/ |
| NumericalDiff.cpp | 55 double tmp1, tmp2, tmp3, tmp4; local 61 tmp4 = (x[1]*tmp2 + x[2]*tmp3); tmp4 = tmp4*tmp4; 63 fjac(i,1) = tmp1*tmp2/tmp4; 64 fjac(i,2) = tmp1*tmp3/tmp4;
|