/external/llvm/test/CodeGen/PowerPC/ |
and_sext.ll | 14 %tmp1 = sext i16 %x to i32 15 %tmp2 = add i32 %tmp, %tmp1 24 %tmp1 = lshr i32 %X, 16 25 %tmp2 = trunc i32 %tmp1 to i16
|
rlwinm2.ll | 13 %tmp1 = shl i32 %X, %Y ; <i32> [#uses=1] 16 %tmp4 = or i32 %tmp1, %tmp3 ; <i32> [#uses=1] 23 %tmp1 = lshr i32 %X, 27 ; <i32> [#uses=1] 26 %tmp5 = or i32 %tmp1, %tmp2.masked ; <i32> [#uses=1]
|
/external/llvm/test/CodeGen/SPARC/ |
rem.ll | 10 %tmp1 = srem i64 %X, %Y 11 ret i64 %tmp1 21 %tmp1 = urem i64 %X, %Y 22 ret i64 %tmp1
|
/external/llvm/test/CodeGen/Thumb2/ |
thumb2-mla.ll | 6 %tmp1 = mul i32 %a, %b 7 %tmp2 = add i32 %c, %tmp1 17 %tmp1 = mul i32 %a, %b 18 %tmp2 = add i32 %tmp1, %c
|
thumb2-mulhi.ll | 7 %tmp1 = sext i32 %y to i64 ; <i64> [#uses=1] 8 %tmp2 = mul i64 %tmp1, %tmp ; <i64> [#uses=1] 18 %tmp1 = zext i32 %y to i64 ; <i64> [#uses=1] 19 %tmp2 = mul i64 %tmp1, %tmp ; <i64> [#uses=1]
|
thumb2-rev.ll | 15 %tmp1 = lshr i32 %X, 8 16 %tmp1.upgrd.1 = trunc i32 %tmp1 to i16 18 %tmp2 = and i16 %tmp1.upgrd.1, 255
|
thumb2-smul.ll | 10 %tmp1 = add i16 %tmp, 2 ; <i16> [#uses=1] 11 %tmp2 = sext i16 %tmp1 to i32 ; <i32> [#uses=1] 20 %tmp1 = ashr i32 %x, 16 ; <i32> [#uses=1] 22 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
|
thumb2-str_post.ll | 7 %tmp1 = trunc i32 %Y to i16 ; <i16> [#uses=1] 8 store i16 %tmp1, i16* %A 19 %tmp1 = ptrtoint i32* %A to i32 ; <i32> [#uses=1] 20 %tmp2 = sub i32 %tmp1, 4 ; <i32> [#uses=1]
|
/external/llvm/test/CodeGen/X86/ |
2006-07-20-InlineAsm.ll | 11 %tmp1 = load i32, i32* %X_addr ; <i32> [#uses=1] 12 ret i32 %tmp1 20 %tmp1 = load i32, i32* %X_addr ; <i32> [#uses=1] 21 ret i32 %tmp1
|
and-or-fold.ll | 8 %tmp1 = zext i16 %y to i32 9 %tmp2 = and i32 %tmp1, 127 21 %tmp1 = and i64 %x, 123127 22 %tmp2 = or i64 %tmp1, 3
|
umul-with-overflow.ll | 19 %tmp1 = call { i32, i1 } @llvm.umul.with.overflow.i32(i32 %tmp0, i32 2) 20 %tmp2 = extractvalue { i32, i1 } %tmp1, 0 31 %tmp1 = call { i32, i1 } @llvm.umul.with.overflow.i32(i32 %tmp0, i32 4) 32 %tmp2 = extractvalue { i32, i1 } %tmp1, 0
|
vec_shift2.ll | 4 %tmp1 = bitcast <2 x i64> %b1 to <8 x i16> 5 %tmp2 = tail call <8 x i16> @llvm.x86.sse2.psrl.w( <8 x i16> %tmp1, <8 x i16> bitcast (<4 x i32> < i32 14, i32 undef, i32 undef, i32 undef > to <8 x i16>) ) nounwind readnone 11 %tmp1 = bitcast <2 x i64> %b1 to <4 x i32> 12 %tmp2 = tail call <4 x i32> @llvm.x86.sse2.psll.d( <4 x i32> %tmp1, <4 x i32> < i32 14, i32 undef, i32 undef, i32 undef > ) nounwind readnone
|
x86-64-asm.ll | 9 %tmp1 = tail call void (i8*)* (void (i8*)*) asm "", "=r,0,~{dirflag},~{fpsr},~{flags}"( void (i8*)* null ) ; <void (i8*)*> [#uses=0]
|
/external/llvm/test/Transforms/ArgumentPromotion/ |
attrs.ll | 8 %tmp1 = load i32, i32* %tmp, align 4 9 %tmp2 = add i32 %tmp1, 1 19 %tmp1 = getelementptr %struct.ss, %struct.ss* %S, i32 0, i32 0 ; <i32*> [#uses=1] 20 store i32 1, i32* %tmp1, align 8
|
byval-2.ll | 12 %tmp1 = load i32, i32* %tmp, align 4 13 %tmp2 = add i32 %tmp1, 1 24 %tmp1 = getelementptr %struct.ss, %struct.ss* %S, i32 0, i32 0 25 store i32 1, i32* %tmp1, align 8
|
/external/llvm/test/Transforms/InstCombine/ |
known_align.ll | 12 %tmp1 = alloca i32, align 4 ; <i32*> [#uses=3] 15 store i32 %tmp3, i32* %tmp1, align 4 16 %tmp5 = load i32, i32* %tmp1, align 4 ; <i32> [#uses=1] 18 %tmp6 = load i32, i32* %tmp1, align 4 ; <i32> [#uses=1]
|
loadstore-alignment.ll | 13 %tmp1 = load <2 x i64>, <2 x i64>* %t, align 1 14 ret <2 x i64> %tmp1 22 %tmp1 = load <2 x i64>, <2 x i64> addrspace(1)* %t.asc, align 1 23 ret <2 x i64> %tmp1 31 %tmp1 = load <2 x i64>, <2 x i64> addrspace(2)* %t.asc, align 1 32 ret <2 x i64> %tmp1 40 %tmp1 = load <2 x i64>, <2 x i64> addrspace(1)* %t.asc, align 1 41 ret <2 x i64> %tmp1 48 %tmp1 = load <2 x i64>, <2 x i64>* %t, align 1 49 ret <2 x i64> %tmp1 [all...] |
onehot_merge.ll | 9 %tmp1 = and i32 4, %k 10 %tmp2 = icmp eq i32 %tmp1, 0 28 %tmp1 = and i32 %tmp, %k 29 %tmp2 = icmp eq i32 %tmp1, 0
|
/external/llvm/test/Transforms/LoopStrengthReduce/ |
pr12691.ll | 19 ; CHECK: %tmp1 = load i32, i32* @d, align 4 21 ; CHECK-NEXT: %0 = sub i32 %tmp1, %tmp2 23 %tmp1 = load i32, i32* @d, align 4 24 %add = add nsw i32 %tmp1, %g.0
|
/external/sonivox/arm-wt-22k/lib_src/ |
ARM-E_interpolate_noloop_gnu.s | 50 tmp1 .req r8
label 78 LDRSB tmp1, [pPhaseAccum, #1] @ tmp1 = x1
81 LDRSH tmp1, [pPhaseAccum, #2] @ tmp1 = x1
86 SUB tmp1, tmp1, tmp0 @ tmp1 = x1 - x0
87 SMULBB tmp1, phaseFrac, tmp1 @ tmp1 = phaseFrac * tmp2 [all...] |
/external/llvm/test/CodeGen/AArch64/ |
arm64-vqsub.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 8 %tmp3 = call <8 x i8> @llvm.aarch64.neon.sqsub.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 15 %tmp1 = load <4 x i16>, <4 x i16>* %A 17 %tmp3 = call <4 x i16> @llvm.aarch64.neon.sqsub.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 24 %tmp1 = load <2 x i32>, <2 x i32>* %A 26 %tmp3 = call <2 x i32> @llvm.aarch64.neon.sqsub.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 33 %tmp1 = load <8 x i8>, <8 x i8>* %A 35 %tmp3 = call <8 x i8> @llvm.aarch64.neon.uqsub.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 42 %tmp1 = load <4 x i16>, <4 x i16>* %A 44 %tmp3 = call <4 x i16> @llvm.aarch64.neon.uqsub.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2 [all...] |
arm64-vsra.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 9 %tmp4 = add <8 x i8> %tmp1, %tmp3 16 %tmp1 = load <4 x i16>, <4 x i16>* %A 19 %tmp4 = add <4 x i16> %tmp1, %tmp3 26 %tmp1 = load <2 x i32>, <2 x i32>* %A 29 %tmp4 = add <2 x i32> %tmp1, %tmp3 36 %tmp1 = load <16 x i8>, <16 x i8>* %A 39 %tmp4 = add <16 x i8> %tmp1, %tmp3 46 %tmp1 = load <8 x i16>, <8 x i16>* %A 49 %tmp4 = add <8 x i16> %tmp1, %tmp [all...] |
/external/llvm/test/CodeGen/ARM/ |
vld1.ll | 10 %tmp1 = call <8 x i8> @llvm.arm.neon.vld1.v8i8.p0i8(i8* %A, i32 16) 11 ret <8 x i8> %tmp1 18 %tmp1 = call <4 x i16> @llvm.arm.neon.vld1.v4i16.p0i8(i8* %tmp0, i32 1) 19 ret <4 x i16> %tmp1 28 %tmp1 = call <4 x i16> @llvm.arm.neon.vld1.v4i16.p0i8(i8* %tmp0, i32 1) 31 ret <4 x i16> %tmp1 38 %tmp1 = call <2 x i32> @llvm.arm.neon.vld1.v2i32.p0i8(i8* %tmp0, i32 1) 39 ret <2 x i32> %tmp1 48 %tmp1 = call <2 x i32> @llvm.arm.neon.vld1.v2i32.p0i8(i8* %tmp0, i32 1) 51 ret <2 x i32> %tmp1 [all...] |
vpminmax.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vpmins.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 15 %tmp1 = load <4 x i16>, <4 x i16>* %A 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vpmins.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 24 %tmp1 = load <2 x i32>, <2 x i32>* %A 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vpmins.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 33 %tmp1 = load <8 x i8>, <8 x i8>* %A 35 %tmp3 = call <8 x i8> @llvm.arm.neon.vpminu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 42 %tmp1 = load <4 x i16>, <4 x i16>* %A 44 %tmp3 = call <4 x i16> @llvm.arm.neon.vpminu.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2 [all...] |
vqshl.ll | 6 %tmp1 = load <8 x i8>, <8 x i8>* %A 8 %tmp3 = call <8 x i8> @llvm.arm.neon.vqshifts.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2) 15 %tmp1 = load <4 x i16>, <4 x i16>* %A 17 %tmp3 = call <4 x i16> @llvm.arm.neon.vqshifts.v4i16(<4 x i16> %tmp1, <4 x i16> %tmp2) 24 %tmp1 = load <2 x i32>, <2 x i32>* %A 26 %tmp3 = call <2 x i32> @llvm.arm.neon.vqshifts.v2i32(<2 x i32> %tmp1, <2 x i32> %tmp2) 33 %tmp1 = load <1 x i64>, <1 x i64>* %A 35 %tmp3 = call <1 x i64> @llvm.arm.neon.vqshifts.v1i64(<1 x i64> %tmp1, <1 x i64> %tmp2) 42 %tmp1 = load <8 x i8>, <8 x i8>* %A 44 %tmp3 = call <8 x i8> @llvm.arm.neon.vqshiftu.v8i8(<8 x i8> %tmp1, <8 x i8> %tmp2 [all...] |