HomeSort by relevance Sort by last modified time
    Searched full:tmp1 (Results 26 - 50 of 1311) sorted by null

12 3 4 5 6 7 8 91011>>

  /external/llvm/test/Transforms/InstCombine/
2008-02-16-SDivOverflow2.ll 5 %tmp1 = sdiv i8 %a, -3
6 %tmp2 = sdiv i8 %tmp1, -3
  /external/llvm/test/Transforms/Reassociate/
otherops.ll 10 %tmp1 = mul i32 12, %arg
11 %tmp2 = mul i32 %tmp1, 12
20 %tmp1 = and i32 14, %arg
21 %tmp2 = and i32 %tmp1, 14
30 %tmp1 = or i32 14, %arg
31 %tmp2 = or i32 %tmp1, 14
39 %tmp1 = xor i32 12, %arg
40 %tmp2 = xor i32 %tmp1, 12
  /external/llvm/test/CodeGen/ARM/
uxtb.ll 5 %tmp1 = and i32 %x, 16711935 ; <i32> [#uses=1]
6 ret i32 %tmp1
10 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1]
11 %tmp2 = and i32 %tmp1, 16711935 ; <i32> [#uses=1]
16 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1]
17 %tmp2 = and i32 %tmp1, 16711935 ; <i32> [#uses=1]
22 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1]
23 %tmp6 = and i32 %tmp1, 16711935 ; <i32> [#uses=1]
28 %tmp1 = lshr i32 %x, 8 ; <i32> [#uses=1]
29 %tmp2 = and i32 %tmp1, 16711935 ; <i32> [#uses=1
    [all...]
vstlane.ll 7 %tmp1 = load <8 x i8>, <8 x i8>* %B
8 %tmp2 = extractelement <8 x i8> %tmp1, i32 3
18 %tmp1 = load <8 x i8>, <8 x i8>* %B
19 %tmp2 = extractelement <8 x i8> %tmp1, i32 3
30 %tmp1 = load <4 x i16>, <4 x i16>* %B
31 %tmp2 = extractelement <4 x i16> %tmp1, i32 2
40 %tmp1 = load <2 x i32>, <2 x i32>* %B
41 %tmp2 = extractelement <2 x i32> %tmp1, i32 1
49 %tmp1 = load <2 x float>, <2 x float>* %B
50 %tmp2 = extractelement <2 x float> %tmp1, i32
    [all...]
vneg.ll 6 %tmp1 = load <8 x i8>, <8 x i8>* %A
7 %tmp2 = sub <8 x i8> zeroinitializer, %tmp1
14 %tmp1 = load <4 x i16>, <4 x i16>* %A
15 %tmp2 = sub <4 x i16> zeroinitializer, %tmp1
22 %tmp1 = load <2 x i32>, <2 x i32>* %A
23 %tmp2 = sub <2 x i32> zeroinitializer, %tmp1
30 %tmp1 = load <2 x float>, <2 x float>* %A
31 %tmp2 = fsub <2 x float> < float -0.000000e+00, float -0.000000e+00 >, %tmp1
38 %tmp1 = load <16 x i8>, <16 x i8>* %A
39 %tmp2 = sub <16 x i8> zeroinitializer, %tmp1
    [all...]
vst3.ll 8 %tmp1 = load <8 x i8>, <8 x i8>* %B
9 call void @llvm.arm.neon.vst3.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 32)
17 %tmp1 = load <4 x i16>, <4 x i16>* %B
18 call void @llvm.arm.neon.vst3.p0i8.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1)
26 %tmp1 = load <2 x i32>, <2 x i32>* %B
27 call void @llvm.arm.neon.vst3.p0i8.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32> %tmp1, i32 1
    [all...]
  /external/v8/test/mjsunit/compiler/
regress-shift-left.js 12 var tmp1 = tmp - (-913041544);
14 return 1 << tmp1;
32 var tmp1 = tmp - (-913041544);
33 return g(1 << tmp1, tmp1);
regress-shift-right-logical.js 12 var tmp1 = tmp - (-913041544);
14 return 1 >>> tmp1;
32 var tmp1 = tmp - (-913041544);
33 return g(1 >>> tmp1, tmp1);
regress-shift-right.js 12 var tmp1 = tmp - (-913041544);
14 return 1 >> tmp1;
32 var tmp1 = tmp - (-913041544);
33 return g(1 >> tmp1, tmp1);
  /external/llvm/test/CodeGen/Thumb/
ldr_ext.ll 11 %tmp1.s = zext i8 %tmp.u to i32
12 ret i32 %tmp1.s
20 %tmp1.s = zext i16 %tmp.u to i32
21 ret i32 %tmp1.s
32 %tmp1.s = sext i8 %tmp.s to i32
33 ret i32 %tmp1.s
44 %tmp1.s = sext i16 %tmp.s to i32
45 ret i32 %tmp1.s
55 %tmp1.s = sext i16 %tmp.s to i32
56 ret i32 %tmp1.
    [all...]
  /external/llvm/test/CodeGen/Thumb2/
thumb2-tst.ll 9 %tmp1 = icmp eq i32 0, %tmp
10 ret i1 %tmp1
18 %tmp1 = icmp eq i32 %tmp, 0
19 ret i1 %tmp1
27 %tmp1 = icmp eq i32 0, %tmp
28 ret i1 %tmp1
36 %tmp1 = icmp eq i32 %tmp, 0
37 ret i1 %tmp1
45 %tmp1 = icmp eq i32 0, %tmp
46 ret i1 %tmp1
    [all...]
thumb2-teq2.ll 10 %tmp1 = icmp eq i32 %tmp, 0
11 ret i1 %tmp1
18 %tmp1 = icmp eq i32 0, %tmp
19 ret i1 %tmp1
26 %tmp1 = xor i32 %a, %tmp
27 %tmp2 = icmp eq i32 %tmp1, 0
35 %tmp1 = xor i32 %a, %tmp
36 %tmp2 = icmp eq i32 %tmp1, 0
44 %tmp1 = xor i32 %a, %tmp
45 %tmp2 = icmp eq i32 %tmp1,
    [all...]
thumb2-tst2.ll 10 %tmp1 = icmp eq i32 %tmp, 0
11 ret i1 %tmp1
18 %tmp1 = icmp eq i32 0, %tmp
19 ret i1 %tmp1
26 %tmp1 = and i32 %a, %tmp
27 %tmp2 = icmp eq i32 %tmp1, 0
35 %tmp1 = and i32 %a, %tmp
36 %tmp2 = icmp eq i32 %tmp1, 0
44 %tmp1 = and i32 %a, %tmp
45 %tmp2 = icmp eq i32 %tmp1,
    [all...]
thumb2-bic.ll 7 %tmp1 = and i32 %a, %tmp
8 ret i32 %tmp1
15 %tmp1 = and i32 %tmp, %a
16 ret i32 %tmp1
23 %tmp1 = and i32 %a, %tmp
24 ret i32 %tmp1
31 %tmp1 = and i32 %tmp, %a
32 ret i32 %tmp1
39 %tmp1 = xor i32 4294967295, %tmp
40 %tmp2 = and i32 %a, %tmp1
    [all...]
thumb2-mls.ll 4 %tmp1 = mul i32 %a, %b
5 %tmp2 = sub i32 %c, %tmp1
13 %tmp1 = mul i32 %a, %b
14 %tmp2 = sub i32 %tmp1, %c
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/source/arm11_asm/
h264bsd_interpolate_chroma_hor_ver.s 52 tmp1 RN 6 label
100 ADD tmp1, x0, chrPW ;// tmp1 = x0+ chromaPartWidth
101 ADD tmp1, tmp1, #1 ;// tmp1 = x0+ chromaPartWidth+1
102 CMP tmp1, width ;// x0+chromaPartWidth+1 > width
109 ADD tmp1, y0, chrPH ;// tmp1 = y0 + chromaPartHeight
110 ADD tmp1, tmp1, #1 ;// tmp1 = y0 + chromaPartHeight +
    [all...]
h264bsd_interpolate_hor_half.s 54 tmp1 RN 7 label
154 AND tmp1, count, #0x000F0000 ;// partHeight-1
156 ADD count, count, tmp1, LSL #8
168 SMLAD tmp1, x_2_0, mult_20_01, plus16
173 SMLAD tmp1, x_3_1, mult_20_m5, tmp1
179 SMLABB tmp1, x_6_4, mult_20_m5, tmp1
184 SMLABB tmp1, x_7_5, mult_20_01, tmp1
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-neon-scalar-by-elem-mul.ll 6 %tmp1 = extractelement <2 x float> %v, i32 1
7 %tmp2 = fmul float %a, %tmp1;
14 %tmp1 = extractelement <2 x float> %v, i32 1
15 %tmp2 = fmul float %tmp1, %a;
23 %tmp1 = extractelement <4 x float> %v, i32 3
24 %tmp2 = fmul float %a, %tmp1;
31 %tmp1 = extractelement <4 x float> %v, i32 3
32 %tmp2 = fmul float %tmp1, %a;
40 %tmp1 = extractelement <1 x double> %v, i32 0
41 %tmp2 = fmul double %a, %tmp1;
    [all...]
arm64-mul.ll 11 %tmp1 = zext i64 %a to i128
13 %tmp3 = mul i128 %tmp1, %tmp2
22 %tmp1 = sext i64 %a to i128
24 %tmp3 = mul i128 %tmp1, %tmp2
32 %tmp1 = zext i32 %a to i64
34 %tmp3 = mul i64 %tmp1, %tmp2
42 %tmp1 = sext i32 %a to i64
44 %tmp3 = mul i64 %tmp1, %tmp2
52 %tmp1 = zext i32 %a to i64
54 %tmp3 = mul i64 %tmp1, %tmp
    [all...]
  /external/pdfium/core/src/fxcodec/jbig2/
JBig2_Image.cpp 244 tmp1 = 0, tmp2 = 0, maskL = 0, maskR = 0, maskM = 0; local
297 tmp1 = JBIG2_GETDWORD(lineSrc) << shift;
301 tmp = (tmp2 & ~maskM) | ((tmp1 | tmp2) & maskM);
304 tmp = (tmp2 & ~maskM) | ((tmp1 & tmp2) & maskM);
307 tmp = (tmp2 & ~maskM) | ((tmp1 ^ tmp2) & maskM);
310 tmp = (tmp2 & ~maskM) | ((~(tmp1 ^ tmp2)) & maskM);
313 tmp = (tmp2 & ~maskM) | (tmp1 & maskM);
326 tmp1 = JBIG2_GETDWORD(lineSrc) >> shift;
330 tmp = (tmp2 & ~maskM) | ((tmp1 | tmp2) & maskM);
333 tmp = (tmp2 & ~maskM) | ((tmp1 & tmp2) & maskM)
670 FX_DWORD s1, d1, d2, shift, shift1, shift2, tmp, tmp1, tmp2, maskL, maskR, local
    [all...]
  /external/libunwind/src/dwarf/
Gexpr.c 193 unw_word_t operand1 = 0, operand2 = 0, tmp1, tmp2, tmp3, end_addr; local
296 &tmp1)) < 0)
298 push (tmp1 + operand1);
305 dwarf_to_unw_regnum (operand1), &tmp1)) < 0)
307 push (tmp1 + operand2);
367 tmp1 = pop ();
368 if ((ret = dwarf_readw (as, a, &tmp1, &tmp2, arg)) < 0)
375 tmp1 = pop ();
384 if ((ret = dwarf_readu8 (as, a, &tmp1, &u8, arg)) < 0)
390 if ((ret = dwarf_readu16 (as, a, &tmp1, &u16, arg)) < 0
    [all...]
  /external/llvm/test/Transforms/GlobalOpt/
assume.ll 14 %tmp1 = call i32 @TheAnswerToLifeTheUniverseAndEverything()
15 store i32 %tmp1, i32* @tmp
16 %cmp = icmp eq i32 %tmp1, 42
  /external/webrtc/webrtc/common_audio/signal_processing/
complex_fft_mips.c 30 int32_t tmp1 = 0; local
72 "sll %[tmp1], %[i], 2 \n\t"
73 "addu %[ptr_i], %[frfi], %[tmp1] \n\t"
85 "mflo %[tmp1] \n\t"
89 "shra_r.w %[tmp1], %[tmp1], 1 \n\t"
91 "subu %[tmp4], %[tmp6], %[tmp1] \n\t"
92 "addu %[tmp1], %[tmp6], %[tmp1] \n\t"
95 "shra_r.w %[tmp1], %[tmp1], 15 \n\t
156 int32_t tmp1 = 0, tmp2 = 0, tmp3 = 0, tmp4 = 0; local
    [all...]
  /external/llvm/test/CodeGen/PowerPC/
2007-04-24-InlineAsm-I-Modifier.ll 7 %tmp1 = tail call i32 asm "foo${1:I} $0, $1", "=r,rI"( i32 %X )
8 ret i32 %tmp1
12 %tmp1 = tail call i32 asm "bar${1:I} $0, $1", "=r,rI"( i32 47 )
13 ret i32 %tmp1
rotl-64.ll 6 %tmp1 = lshr i64 %A, 57
8 %tmp3 = or i64 %tmp1, %tmp2
14 %tmp1 = lshr i64 %A, %Amt1
18 %tmp3 = or i64 %tmp1, %tmp2

Completed in 286 milliseconds

12 3 4 5 6 7 8 91011>>