HomeSort by relevance Sort by last modified time
    Searched full:tmp1 (Results 201 - 225 of 1307) sorted by null

1 2 3 4 5 6 7 891011>>

  /external/llvm/test/CodeGen/PowerPC/
and_sext.ll 14 %tmp1 = sext i16 %x to i32
15 %tmp2 = add i32 %tmp, %tmp1
24 %tmp1 = lshr i32 %X, 16
25 %tmp2 = trunc i32 %tmp1 to i16
rlwinm2.ll 13 %tmp1 = shl i32 %X, %Y ; <i32> [#uses=1]
16 %tmp4 = or i32 %tmp1, %tmp3 ; <i32> [#uses=1]
23 %tmp1 = lshr i32 %X, 27 ; <i32> [#uses=1]
26 %tmp5 = or i32 %tmp1, %tmp2.masked ; <i32> [#uses=1]
  /external/llvm/test/CodeGen/SPARC/
rem.ll 10 %tmp1 = srem i64 %X, %Y
11 ret i64 %tmp1
21 %tmp1 = urem i64 %X, %Y
22 ret i64 %tmp1
  /external/llvm/test/CodeGen/Thumb2/
thumb2-mla.ll 6 %tmp1 = mul i32 %a, %b
7 %tmp2 = add i32 %c, %tmp1
17 %tmp1 = mul i32 %a, %b
18 %tmp2 = add i32 %tmp1, %c
thumb2-mulhi.ll 7 %tmp1 = sext i32 %y to i64 ; <i64> [#uses=1]
8 %tmp2 = mul i64 %tmp1, %tmp ; <i64> [#uses=1]
18 %tmp1 = zext i32 %y to i64 ; <i64> [#uses=1]
19 %tmp2 = mul i64 %tmp1, %tmp ; <i64> [#uses=1]
thumb2-rev.ll 15 %tmp1 = lshr i32 %X, 8
16 %tmp1.upgrd.1 = trunc i32 %tmp1 to i16
18 %tmp2 = and i16 %tmp1.upgrd.1, 255
thumb2-smul.ll 10 %tmp1 = add i16 %tmp, 2 ; <i16> [#uses=1]
11 %tmp2 = sext i16 %tmp1 to i32 ; <i32> [#uses=1]
20 %tmp1 = ashr i32 %x, 16 ; <i32> [#uses=1]
22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
thumb2-str_post.ll 7 %tmp1 = trunc i32 %Y to i16 ; <i16> [#uses=1]
8 store i16 %tmp1, i16* %A
19 %tmp1 = ptrtoint i32* %A to i32 ; <i32> [#uses=1]
20 %tmp2 = sub i32 %tmp1, 4 ; <i32> [#uses=1]
  /external/llvm/test/CodeGen/X86/
2006-07-20-InlineAsm.ll 11 %tmp1 = load i32, i32* %X_addr ; <i32> [#uses=1]
12 ret i32 %tmp1
20 %tmp1 = load i32, i32* %X_addr ; <i32> [#uses=1]
21 ret i32 %tmp1
and-or-fold.ll 8 %tmp1 = zext i16 %y to i32
9 %tmp2 = and i32 %tmp1, 127
21 %tmp1 = and i64 %x, 123127
22 %tmp2 = or i64 %tmp1, 3
umul-with-overflow.ll 19 %tmp1 = call { i32, i1 } @llvm.umul.with.overflow.i32(i32 %tmp0, i32 2)
20 %tmp2 = extractvalue { i32, i1 } %tmp1, 0
31 %tmp1 = call { i32, i1 } @llvm.umul.with.overflow.i32(i32 %tmp0, i32 4)
32 %tmp2 = extractvalue { i32, i1 } %tmp1, 0
vec_shift2.ll 4 %tmp1 = bitcast <2 x i64> %b1 to <8 x i16>
5 %tmp2 = tail call <8 x i16> @llvm.x86.sse2.psrl.w( <8 x i16> %tmp1, <8 x i16> bitcast (<4 x i32> < i32 14, i32 undef, i32 undef, i32 undef > to <8 x i16>) ) nounwind readnone
11 %tmp1 = bitcast <2 x i64> %b1 to <4 x i32>
12 %tmp2 = tail call <4 x i32> @llvm.x86.sse2.psll.d( <4 x i32> %tmp1, <4 x i32> < i32 14, i32 undef, i32 undef, i32 undef > ) nounwind readnone
x86-64-asm.ll 9 %tmp1 = tail call void (i8*)* (void (i8*)*) asm "", "=r,0,~{dirflag},~{fpsr},~{flags}"( void (i8*)* null ) ; <void (i8*)*> [#uses=0]
  /external/llvm/test/Transforms/ArgumentPromotion/
attrs.ll 8 %tmp1 = load i32, i32* %tmp, align 4
9 %tmp2 = add i32 %tmp1, 1
19 %tmp1 = getelementptr %struct.ss, %struct.ss* %S, i32 0, i32 0 ; <i32*> [#uses=1]
20 store i32 1, i32* %tmp1, align 8
byval-2.ll 12 %tmp1 = load i32, i32* %tmp, align 4
13 %tmp2 = add i32 %tmp1, 1
24 %tmp1 = getelementptr %struct.ss, %struct.ss* %S, i32 0, i32 0
25 store i32 1, i32* %tmp1, align 8
  /external/llvm/test/Transforms/InstCombine/
known_align.ll 12 %tmp1 = alloca i32, align 4 ; <i32*> [#uses=3]
15 store i32 %tmp3, i32* %tmp1, align 4
16 %tmp5 = load i32, i32* %tmp1, align 4 ; <i32> [#uses=1]
18 %tmp6 = load i32, i32* %tmp1, align 4 ; <i32> [#uses=1]
loadstore-alignment.ll 13 %tmp1 = load <2 x i64>, <2 x i64>* %t, align 1
14 ret <2 x i64> %tmp1
22 %tmp1 = load <2 x i64>, <2 x i64> addrspace(1)* %t.asc, align 1
23 ret <2 x i64> %tmp1
31 %tmp1 = load <2 x i64>, <2 x i64> addrspace(2)* %t.asc, align 1
32 ret <2 x i64> %tmp1
40 %tmp1 = load <2 x i64>, <2 x i64> addrspace(1)* %t.asc, align 1
41 ret <2 x i64> %tmp1
48 %tmp1 = load <2 x i64>, <2 x i64>* %t, align 1
49 ret <2 x i64> %tmp1
    [all...]
onehot_merge.ll 9 %tmp1 = and i32 4, %k
10 %tmp2 = icmp eq i32 %tmp1, 0
28 %tmp1 = and i32 %tmp, %k
29 %tmp2 = icmp eq i32 %tmp1, 0
  /external/llvm/test/Transforms/LoopStrengthReduce/
pr12691.ll 19 ; CHECK: %tmp1 = load i32, i32* @d, align 4
21 ; CHECK-NEXT: %0 = sub i32 %tmp1, %tmp2
23 %tmp1 = load i32, i32* @d, align 4
24 %add = add nsw i32 %tmp1, %g.0
  /external/sonivox/arm-wt-22k/lib_src/
ARM-E_interpolate_noloop_gnu.s 50 tmp1 .req r8 label
78 LDRSB tmp1, [pPhaseAccum, #1] @ tmp1 = x1
81 LDRSH tmp1, [pPhaseAccum, #2] @ tmp1 = x1
86 SUB tmp1, tmp1, tmp0 @ tmp1 = x1 - x0
87 SMULBB tmp1, phaseFrac, tmp1 @ tmp1 = phaseFrac * tmp2
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-vqsub.ll 6 %tmp1 = load <8 x i8>, <8 x i8>* %A
8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.sqsub.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
15 %tmp1 = load <4 x i16>, <4 x i16>* %A
17 %tmp3 = call <4 x i16> @llvm.aarch64.neon.sqsub.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
24 %tmp1 = load <2 x i32>, <2 x i32>* %A
26 %tmp3 = call <2 x i32> @llvm.aarch64.neon.sqsub.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
33 %tmp1 = load <8 x i8>, <8 x i8>* %A
35 %tmp3 = call <8 x i8> @llvm.aarch64.neon.uqsub.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
42 %tmp1 = load <4 x i16>, <4 x i16>* %A
44 %tmp3 = call <4 x i16> @llvm.aarch64.neon.uqsub.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2
    [all...]
arm64-vsra.ll 6 %tmp1 = load <8 x i8>, <8 x i8>* %A
9 %tmp4 = add <8 x i8> %tmp1, %tmp3
16 %tmp1 = load <4 x i16>, <4 x i16>* %A
19 %tmp4 = add <4 x i16> %tmp1, %tmp3
26 %tmp1 = load <2 x i32>, <2 x i32>* %A
29 %tmp4 = add <2 x i32> %tmp1, %tmp3
36 %tmp1 = load <16 x i8>, <16 x i8>* %A
39 %tmp4 = add <16 x i8> %tmp1, %tmp3
46 %tmp1 = load <8 x i16>, <8 x i16>* %A
49 %tmp4 = add <8 x i16> %tmp1, %tmp
    [all...]
  /external/llvm/test/CodeGen/ARM/
vld1.ll 10 %tmp1 = call <8 x i8> @llvm.arm.neon.vld1.v8i8.p0i8(i8* %A, i32 16)
11 ret <8 x i8> %tmp1
18 %tmp1 = call <4 x i16> @llvm.arm.neon.vld1.v4i16.p0i8(i8* %tmp0, i32 1)
19 ret <4 x i16> %tmp1
28 %tmp1 = call <4 x i16> @llvm.arm.neon.vld1.v4i16.p0i8(i8* %tmp0, i32 1)
31 ret <4 x i16> %tmp1
38 %tmp1 = call <2 x i32> @llvm.arm.neon.vld1.v2i32.p0i8(i8* %tmp0, i32 1)
39 ret <2 x i32> %tmp1
48 %tmp1 = call <2 x i32> @llvm.arm.neon.vld1.v2i32.p0i8(i8* %tmp0, i32 1)
51 ret <2 x i32> %tmp1
    [all...]
vpminmax.ll 6 %tmp1 = load <8 x i8>, <8 x i8>* %A
8 %tmp3 = call <8 x i8> @llvm.arm.neon.vpmins.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
15 %tmp1 = load <4 x i16>, <4 x i16>* %A
17 %tmp3 = call <4 x i16> @llvm.arm.neon.vpmins.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
24 %tmp1 = load <2 x i32>, <2 x i32>* %A
26 %tmp3 = call <2 x i32> @llvm.arm.neon.vpmins.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
33 %tmp1 = load <8 x i8>, <8 x i8>* %A
35 %tmp3 = call <8 x i8> @llvm.arm.neon.vpminu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
42 %tmp1 = load <4 x i16>, <4 x i16>* %A
44 %tmp3 = call <4 x i16> @llvm.arm.neon.vpminu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2
    [all...]
vqshl.ll 6 %tmp1 = load <8 x i8>, <8 x i8>* %A
8 %tmp3 = call <8 x i8> @llvm.arm.neon.vqshifts.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2)
15 %tmp1 = load <4 x i16>, <4 x i16>* %A
17 %tmp3 = call <4 x i16> @llvm.arm.neon.vqshifts.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2)
24 %tmp1 = load <2 x i32>, <2 x i32>* %A
26 %tmp3 = call <2 x i32> @llvm.arm.neon.vqshifts.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2)
33 %tmp1 = load <1 x i64>, <1 x i64>* %A
35 %tmp3 = call <1 x i64> @llvm.arm.neon.vqshifts.v1i64(<1 x i64> %tmp1, <1 x i64> %tmp2)
42 %tmp1 = load <8 x i8>, <8 x i8>* %A
44 %tmp3 = call <8 x i8> @llvm.arm.neon.vqshiftu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2
    [all...]

Completed in 313 milliseconds

1 2 3 4 5 6 7 891011>>