/external/llvm/test/Transforms/InstCombine/ |
2008-02-16-SDivOverflow2.ll | 5 %tmp1 = sdiv i8 %a, -3 6 %tmp2 = sdiv i8 %tmp1, -3
|
/external/llvm/test/Transforms/Reassociate/ |
otherops.ll | 10 %tmp1 = mul i32 12, %arg 11 %tmp2 = mul i32 %tmp1, 12 20 %tmp1 = and i32 14, %arg 21 %tmp2 = and i32 %tmp1, 14 30 %tmp1 = or i32 14, %arg 31 %tmp2 = or i32 %tmp1, 14 39 %tmp1 = xor i32 12, %arg 40 %tmp2 = xor i32 %tmp1, 12
|
/external/llvm/test/CodeGen/ARM/ |
uxtb.ll | 5 %tmp1 = and i32 %x, 16711935 ; <i32> [#uses=1] 6 ret i32 %tmp1 10 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 11 %tmp2 = and i32 %tmp1, 16711935 ; <i32> [#uses=1] 16 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 17 %tmp2 = and i32 %tmp1, 16711935 ; <i32> [#uses=1] 22 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 23 %tmp6 = and i32 %tmp1, 16711935 ; <i32> [#uses=1] 28 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1] 29 %tmp2 = and i32 %tmp1, 16711935 ; <i32> [#uses=1 [all...] |
vstlane.ll | 7 %tmp1 = load <8 x i8>, <8 x i8>* %B 8 %tmp2 = extractelement <8 x i8> %tmp1, i32 3 18 %tmp1 = load <8 x i8>, <8 x i8>* %B 19 %tmp2 = extractelement <8 x i8> %tmp1, i32 3 30 %tmp1 = load <4 x i16>, <4 x i16>* %B 31 %tmp2 = extractelement <4 x i16> %tmp1, i32 2 40 %tmp1 = load <2 x i32>, <2 x i32>* %B 41 %tmp2 = extractelement <2 x i32> %tmp1, i32 1 49 %tmp1 = load <2 x float>, <2 x float>* %B 50 %tmp2 = extractelement <2 x float> %tmp1, i32 [all...] |
vneg.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 7 %tmp2 = sub <8 x i8> zeroinitializer, %tmp1 14 %tmp1 = load <4 x i16>, <4 x i16>* %A 15 %tmp2 = sub <4 x i16> zeroinitializer, %tmp1 22 %tmp1 = load <2 x i32>, <2 x i32>* %A 23 %tmp2 = sub <2 x i32> zeroinitializer, %tmp1 30 %tmp1 = load <2 x float>, <2 x float>* %A 31 %tmp2 = fsub <2 x float> < float -0.000000e+00, float -0.000000e+00 >, %tmp1 38 %tmp1 = load <16 x i8>, <16 x i8>* %A 39 %tmp2 = sub <16 x i8> zeroinitializer, %tmp1 [all...] |
vst3.ll | 8 %tmp1 = load <8 x i8>, <8 x i8>* %B 9 call void @llvm.arm.neon.vst3.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 32) 17 %tmp1 = load <4 x i16>, <4 x i16>* %B 18 call void @llvm.arm.neon.vst3.p0i8.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1) 26 %tmp1 = load <2 x i32>, <2 x i32>* %B 27 call void @llvm.arm.neon.vst3.p0i8.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32> %tmp1, i32 1 [all...] |
/external/v8/test/mjsunit/compiler/ |
regress-shift-left.js | 12 var tmp1 = tmp - (-913041544); 14 return 1 << tmp1; 32 var tmp1 = tmp - (-913041544); 33 return g(1 << tmp1, tmp1);
|
regress-shift-right-logical.js | 12 var tmp1 = tmp - (-913041544); 14 return 1 >>> tmp1; 32 var tmp1 = tmp - (-913041544); 33 return g(1 >>> tmp1, tmp1);
|
regress-shift-right.js | 12 var tmp1 = tmp - (-913041544); 14 return 1 >> tmp1; 32 var tmp1 = tmp - (-913041544); 33 return g(1 >> tmp1, tmp1);
|
/external/llvm/test/CodeGen/Thumb/ |
ldr_ext.ll | 11 %tmp1.s = zext i8 %tmp.u to i32 12 ret i32 %tmp1.s 20 %tmp1.s = zext i16 %tmp.u to i32 21 ret i32 %tmp1.s 32 %tmp1.s = sext i8 %tmp.s to i32 33 ret i32 %tmp1.s 44 %tmp1.s = sext i16 %tmp.s to i32 45 ret i32 %tmp1.s 55 %tmp1.s = sext i16 %tmp.s to i32 56 ret i32 %tmp1. [all...] |
/external/llvm/test/CodeGen/Thumb2/ |
thumb2-tst.ll | 9 %tmp1 = icmp eq i32 0, %tmp 10 ret i1 %tmp1 18 %tmp1 = icmp eq i32 %tmp, 0 19 ret i1 %tmp1 27 %tmp1 = icmp eq i32 0, %tmp 28 ret i1 %tmp1 36 %tmp1 = icmp eq i32 %tmp, 0 37 ret i1 %tmp1 45 %tmp1 = icmp eq i32 0, %tmp 46 ret i1 %tmp1 [all...] |
thumb2-teq2.ll | 10 %tmp1 = icmp eq i32 %tmp, 0 11 ret i1 %tmp1 18 %tmp1 = icmp eq i32 0, %tmp 19 ret i1 %tmp1 26 %tmp1 = xor i32 %a, %tmp 27 %tmp2 = icmp eq i32 %tmp1, 0 35 %tmp1 = xor i32 %a, %tmp 36 %tmp2 = icmp eq i32 %tmp1, 0 44 %tmp1 = xor i32 %a, %tmp 45 %tmp2 = icmp eq i32 %tmp1, [all...] |
thumb2-tst2.ll | 10 %tmp1 = icmp eq i32 %tmp, 0 11 ret i1 %tmp1 18 %tmp1 = icmp eq i32 0, %tmp 19 ret i1 %tmp1 26 %tmp1 = and i32 %a, %tmp 27 %tmp2 = icmp eq i32 %tmp1, 0 35 %tmp1 = and i32 %a, %tmp 36 %tmp2 = icmp eq i32 %tmp1, 0 44 %tmp1 = and i32 %a, %tmp 45 %tmp2 = icmp eq i32 %tmp1, [all...] |
thumb2-bic.ll | 7 %tmp1 = and i32 %a, %tmp 8 ret i32 %tmp1 15 %tmp1 = and i32 %tmp, %a 16 ret i32 %tmp1 23 %tmp1 = and i32 %a, %tmp 24 ret i32 %tmp1 31 %tmp1 = and i32 %tmp, %a 32 ret i32 %tmp1 39 %tmp1 = xor i32 4294967295, %tmp 40 %tmp2 = and i32 %a, %tmp1 [all...] |
thumb2-mls.ll | 4 %tmp1 = mul i32 %a, %b 5 %tmp2 = sub i32 %c, %tmp1 13 %tmp1 = mul i32 %a, %b 14 %tmp2 = sub i32 %tmp1, %c
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/source/arm11_asm/ |
h264bsd_interpolate_chroma_hor_ver.s | 52 tmp1 RN 6 label 100 ADD tmp1, x0, chrPW ;// tmp1 = x0+ chromaPartWidth 101 ADD tmp1, tmp1, #1 ;// tmp1 = x0+ chromaPartWidth+1 102 CMP tmp1, width ;// x0+chromaPartWidth+1 > width 109 ADD tmp1, y0, chrPH ;// tmp1 = y0 + chromaPartHeight 110 ADD tmp1, tmp1, #1 ;// tmp1 = y0 + chromaPartHeight + [all...] |
h264bsd_interpolate_hor_half.s | 54 tmp1 RN 7 label 154 AND tmp1, count, #0x000F0000 ;// partHeight-1 156 ADD count, count, tmp1, LSL #8 168 SMLAD tmp1, x_2_0, mult_20_01, plus16 173 SMLAD tmp1, x_3_1, mult_20_m5, tmp1 179 SMLABB tmp1, x_6_4, mult_20_m5, tmp1 184 SMLABB tmp1, x_7_5, mult_20_01, tmp1 [all...] |
/external/llvm/test/CodeGen/AArch64/ |
arm64-neon-scalar-by-elem-mul.ll | 6 %tmp1 = extractelement <2 x float> %v, i32 1 7 %tmp2 = fmul float %a, %tmp1; 14 %tmp1 = extractelement <2 x float> %v, i32 1 15 %tmp2 = fmul float %tmp1, %a; 23 %tmp1 = extractelement <4 x float> %v, i32 3 24 %tmp2 = fmul float %a, %tmp1; 31 %tmp1 = extractelement <4 x float> %v, i32 3 32 %tmp2 = fmul float %tmp1, %a; 40 %tmp1 = extractelement <1 x double> %v, i32 0 41 %tmp2 = fmul double %a, %tmp1; [all...] |
arm64-mul.ll | 11 %tmp1 = zext i64 %a to i128 13 %tmp3 = mul i128 %tmp1, %tmp2 22 %tmp1 = sext i64 %a to i128 24 %tmp3 = mul i128 %tmp1, %tmp2 32 %tmp1 = zext i32 %a to i64 34 %tmp3 = mul i64 %tmp1, %tmp2 42 %tmp1 = sext i32 %a to i64 44 %tmp3 = mul i64 %tmp1, %tmp2 52 %tmp1 = zext i32 %a to i64 54 %tmp3 = mul i64 %tmp1, %tmp [all...] |
/external/pdfium/core/src/fxcodec/jbig2/ |
JBig2_Image.cpp | 244 tmp1 = 0, tmp2 = 0, maskL = 0, maskR = 0, maskM = 0; local 297 tmp1 = JBIG2_GETDWORD(lineSrc) << shift; 301 tmp = (tmp2 & ~maskM) | ((tmp1 | tmp2) & maskM); 304 tmp = (tmp2 & ~maskM) | ((tmp1 & tmp2) & maskM); 307 tmp = (tmp2 & ~maskM) | ((tmp1 ^ tmp2) & maskM); 310 tmp = (tmp2 & ~maskM) | ((~(tmp1 ^ tmp2)) & maskM); 313 tmp = (tmp2 & ~maskM) | (tmp1 & maskM); 326 tmp1 = JBIG2_GETDWORD(lineSrc) >> shift; 330 tmp = (tmp2 & ~maskM) | ((tmp1 | tmp2) & maskM); 333 tmp = (tmp2 & ~maskM) | ((tmp1 & tmp2) & maskM) 670 FX_DWORD s1, d1, d2, shift, shift1, shift2, tmp, tmp1, tmp2, maskL, maskR, local [all...] |
/external/libunwind/src/dwarf/ |
Gexpr.c | 193 unw_word_t operand1 = 0, operand2 = 0, tmp1, tmp2, tmp3, end_addr; local 296 &tmp1)) < 0) 298 push (tmp1 + operand1); 305 dwarf_to_unw_regnum (operand1), &tmp1)) < 0) 307 push (tmp1 + operand2); 367 tmp1 = pop (); 368 if ((ret = dwarf_readw (as, a, &tmp1, &tmp2, arg)) < 0) 375 tmp1 = pop (); 384 if ((ret = dwarf_readu8 (as, a, &tmp1, &u8, arg)) < 0) 390 if ((ret = dwarf_readu16 (as, a, &tmp1, &u16, arg)) < 0 [all...] |
/external/llvm/test/Transforms/GlobalOpt/ |
assume.ll | 14 %tmp1 = call i32 @TheAnswerToLifeTheUniverseAndEverything() 15 store i32 %tmp1, i32* @tmp 16 %cmp = icmp eq i32 %tmp1, 42
|
/external/webrtc/webrtc/common_audio/signal_processing/ |
complex_fft_mips.c | 30 int32_t tmp1 = 0; local 72 "sll %[tmp1], %[i], 2 \n\t" 73 "addu %[ptr_i], %[frfi], %[tmp1] \n\t" 85 "mflo %[tmp1] \n\t" 89 "shra_r.w %[tmp1], %[tmp1], 1 \n\t" 91 "subu %[tmp4], %[tmp6], %[tmp1] \n\t" 92 "addu %[tmp1], %[tmp6], %[tmp1] \n\t" 95 "shra_r.w %[tmp1], %[tmp1], 15 \n\t 156 int32_t tmp1 = 0, tmp2 = 0, tmp3 = 0, tmp4 = 0; local [all...] |
/external/llvm/test/CodeGen/PowerPC/ |
2007-04-24-InlineAsm-I-Modifier.ll | 7 %tmp1 = tail call i32 asm "foo${1:I} $0, $1", "=r,rI"( i32 %X ) 8 ret i32 %tmp1 12 %tmp1 = tail call i32 asm "bar${1:I} $0, $1", "=r,rI"( i32 47 ) 13 ret i32 %tmp1
|
rotl-64.ll | 6 %tmp1 = lshr i64 %A, 57 8 %tmp3 = or i64 %tmp1, %tmp2 14 %tmp1 = lshr i64 %A, %Amt1 18 %tmp3 = or i64 %tmp1, %tmp2
|