/external/sonivox/arm-wt-22k/lib_src/ |
ARM-E_interpolate_loop_gnu.s | 46 tmp1 .req r5
label 86 LDRSB tmp1, [pPhaseAccum, #1] @ tmp1 = x1
89 LDRSH tmp1, [pPhaseAccum, #2] @ tmp1 = x1
94 SUB tmp1, tmp1, tmp0 @ tmp1 = x1 - x0
95 SMULBB tmp1, phaseFrac, tmp1 @ tmp1 = phaseFrac * tmp2 [all...] |
/external/llvm/test/CodeGen/ARM/ |
2011-11-09-IllegalVectorFPIntConvert.ll | 7 %tmp1 = load <2 x double>, <2 x double>* %A 8 %tmp2 = fptosi <2 x double> %tmp1 to <2 x i32> 16 %tmp1 = load <2 x double>, <2 x double>* %A 17 %tmp2 = fptoui <2 x double> %tmp1 to <2 x i32> 25 %tmp1 = load <2 x i32>, <2 x i32>* %A 26 %tmp2 = sitofp <2 x i32> %tmp1 to <2 x double> 34 %tmp1 = load <2 x i32>, <2 x i32>* %A 35 %tmp2 = uitofp <2 x i32> %tmp1 to <2 x double>
|
/external/llvm/test/CodeGen/Generic/ |
i128-arith.ll | 5 %tmp1 = sext i64 %y to i128 6 %tmp2 = or i128 %tmp0, %tmp1
|
/external/llvm/test/CodeGen/PowerPC/ |
2007-01-04-ArgExtension.ll | 7 %tmp1 = sext i16 %s to i32 ; <i32> [#uses=1] 8 %tmp2 = add i32 %tmp1, %tmp ; <i32> [#uses=1]
|
cmp-cmp.ll | 4 %tmp1 = and i64 %X, 3 ; <i64> [#uses=1] 5 %tmp = icmp sgt i64 %tmp1, 2 ; <i1> [#uses=1]
|
unsafe-math.ll | 6 %tmp1 = fmul double %X, 1.23 7 %tmp2 = fmul double %tmp1, 4.124
|
/external/llvm/test/CodeGen/Thumb2/ |
thumb2-add5.ll | 14 %tmp1 = add i32 %a, %tmp 15 ret i32 %tmp1 22 %tmp1 = add i32 %a, %tmp 23 ret i32 %tmp1 30 %tmp1 = add i32 %a, %tmp 31 ret i32 %tmp1 40 %tmp1 = add i32 %a, %tmp 41 ret i32 %tmp1
|
thumb2-and.ll | 14 %tmp1 = and i32 %a, %tmp 15 ret i32 %tmp1 22 %tmp1 = and i32 %a, %tmp 23 ret i32 %tmp1 30 %tmp1 = and i32 %a, %tmp 31 ret i32 %tmp1 40 %tmp1 = and i32 %a, %tmp 41 ret i32 %tmp1
|
thumb2-cmp2.ll | 24 %tmp1 = icmp eq i32 %tmp, %a 25 ret i1 %tmp1 32 %tmp1 = icmp ne i32 %tmp, %a 33 ret i1 %tmp1 40 %tmp1 = icmp eq i32 %a, %tmp 41 ret i1 %tmp1 50 %tmp1 = icmp ne i32 %a, %tmp 51 ret i1 %tmp1
|
thumb2-mvn2.ll | 21 %tmp1 = xor i32 %tmp, 4294967295 22 ret i32 %tmp1 29 %tmp1 = xor i32 %tmp, 4294967295 30 ret i32 %tmp1 37 %tmp1 = xor i32 %tmp, 4294967295 38 ret i32 %tmp1 47 %tmp1 = xor i32 %tmp, 4294967295 48 ret i32 %tmp1
|
thumb2-sub4.ll | 14 %tmp1 = sub i32 %a, %tmp 15 ret i32 %tmp1 22 %tmp1 = sub i32 %a, %tmp 23 ret i32 %tmp1 30 %tmp1 = sub i32 %a, %tmp 31 ret i32 %tmp1 40 %tmp1 = sub i32 %a, %tmp 41 ret i32 %tmp1
|
/external/llvm/test/CodeGen/X86/ |
2008-02-05-ISelCrash.ll | 8 %tmp1 = load i64, i64* @nodes, align 8 ; <i64> [#uses=1] 9 %tmp2 = add i64 %tmp1, 1 ; <i64> [#uses=1]
|
2009-04-24.ll | 11 %tmp1 = load i32, i32* @i 12 ret i32 %tmp1
|
vec_insert-2.ll | 9 %tmp1 = insertelement <4 x float> %tmp, float %s, i32 3 10 ret <4 x float> %tmp1 18 %tmp1 = insertelement <4 x i32> %tmp, i32 %s, i32 3 19 ret <4 x i32> %tmp1 31 %tmp1 = insertelement <2 x double> %tmp, double %s, i32 1 32 ret <2 x double> %tmp1 40 %tmp1 = insertelement <8 x i16> %tmp, i16 %s, i32 5 41 ret <8 x i16> %tmp1
|
vec_insert-3.ll | 8 %tmp1 = insertelement <2 x i64> %tmp, i64 %s, i32 1 9 ret <2 x i64> %tmp1
|
vec_set-D.ll | 6 %tmp1 = insertelement <4 x i32> zeroinitializer, i32 %x, i32 0 7 %tmp2 = insertelement <4 x i32> %tmp1, i32 %y, i32 1
|
x86-64-extend-shift.ll | 6 %tmp1 = shl i32 %A, 17 7 %tmp2 = zext i32 %tmp1 to i64
|
x86-64-pic-5.ll | 9 %tmp1 = load i32, i32* @a, align 4 10 ret i32 %tmp1
|
x86-64-pic-6.ll | 9 %tmp1 = load i32, i32* @a, align 4 10 ret i32 %tmp1
|
/external/llvm/test/Instrumentation/ThreadSanitizer/ |
no_sanitize_thread.ll | 9 %tmp1 = load i32, i32* %a, align 4 10 ret i32 %tmp1 15 ; CHECK-NEXT: %tmp1 = load i32, i32* %a, align 4 16 ; CHECK: ret i32 %tmp1 22 %tmp1 = load i32, i32* %a, align 4 23 ret i32 %tmp1 31 ; CHECK-NEXT: %tmp1 = load i32, i32* %a, align 4 33 ; CHECK-NEXT: ret i32 %tmp1
|
/external/llvm/test/Transforms/GlobalOpt/ |
constantexpr-dangle.ll | 9 %tmp1 = call float (...) bitcast (float ()* @foo to float (...)*)( ) 10 %tmp2 = fmul float %tmp1, 1.000000e+01 ; <float> [#uses=1]
|
/external/llvm/test/Transforms/InstCombine/ |
2007-09-17-AliasConstFold2.ll | 13 %tmp1 = icmp ne void ()* @A, null ; <i1> [#uses=1] 14 %tmp12 = zext i1 %tmp1 to i32 ; <i32> [#uses=1]
|
/external/llvm/test/Transforms/Reassociate/ |
absorption.ll | 6 %tmp1 = or i8 %x, 127 7 %tmp2 = or i8 %tmp1, 128
|
reassoc-intermediate-fnegs.ll | 3 ; CHECK: [[TMP1:%tmp.*]] = fmul fast half %a, 0xH4500 5 ; CHECK: fsub fast half [[TMP2]], [[TMP1]] 9 %tmp1 = fmul fast half %b, 0xH4200 ; 3*b 12 %tmp4 = fsub fast half %tmp2, %tmp1 ; 5 * a - 3 * b 18 ; CHECK: [[TMP1:%tmp.*]] = fmul fast half %a, 0xH4500 20 ; CHECK: fadd fast half [[TMP2]], [[TMP1]] 24 %tmp1 = fmul fast half %b, 0xH4200 ; 3*b 27 %tmp4 = fadd fast half %tmp2, %tmp1 ; 5 * a + 3 * b
|
/external/llvm/test/CodeGen/AArch64/ |
neon-mla-mls.ll | 6 %tmp1 = mul <8 x i8> %A, %B; 7 %tmp2 = add <8 x i8> %C, %tmp1; 13 %tmp1 = mul <16 x i8> %A, %B; 14 %tmp2 = add <16 x i8> %C, %tmp1; 20 %tmp1 = mul <4 x i16> %A, %B; 21 %tmp2 = add <4 x i16> %C, %tmp1; 27 %tmp1 = mul <8 x i16> %A, %B; 28 %tmp2 = add <8 x i16> %C, %tmp1; 34 %tmp1 = mul <2 x i32> %A, %B; 35 %tmp2 = add <2 x i32> %C, %tmp1; [all...] |