| /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
| vuzp.ll | 10 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15> 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 22 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7> 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 36 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15, i32 17, i32 19, i32 21, i32 23, i32 25, i32 27, i32 29, i32 31> 37 %tmp5 = add <16 x i8> %tmp3, %tmp4 48 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15> 49 %tmp5 = add <8 x i16> %tmp3, %tmp4 60 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7> 61 %tmp5 = add <4 x i32> %tmp3, %tmp4 [all...] |
| vzip.ll | 10 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15> 11 %tmp5 = add <8 x i8> %tmp3, %tmp4 22 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7> 23 %tmp5 = add <4 x i16> %tmp3, %tmp4 36 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 8, i32 24, i32 9, i32 25, i32 10, i32 26, i32 11, i32 27, i32 12, i32 28, i32 13, i32 29, i32 14, i32 30, i32 15, i32 31> 37 %tmp5 = add <16 x i8> %tmp3, %tmp4 48 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15> 49 %tmp5 = add <8 x i16> %tmp3, %tmp4 60 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7> 61 %tmp5 = add <4 x i32> %tmp3, %tmp4 [all...] |
| vmla.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 [all...] |
| vmls.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 [all...] |
| /external/swiftshader/third_party/LLVM/test/CodeGen/PowerPC/ |
| 2007-02-16-InlineAsmNConstraint.ll | 9 %tmp4 = call i32 asm "rlwimi $0,$2,$3,$4,$5", "=r,0,r,n,n,n"( i32 0, i32 0, i32 0, i32 24, i32 31 ) ; <i32> [#uses=0]
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
| 2010-08-04-MaskedSignedCompare.ll | 23 %tmp4.pre = load i32* @g_38 ; <i32> [#uses=1] 31 %tmp4 = phi i32 [ %tmp4.pre, %entry.if.end_crit_edge ], [ 1, %if.then ] ; <i32> [#uses=1] 32 %call5 = tail call i32 (i8*, ...)* @printf(i8* getelementptr inbounds ([4 x i8]* @.str, i64 0, i64 0), i32 %tmp4) nounwind ; <i32> [#uses=0]
|
| packed_struct.ll | 23 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
24 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
31 %tmp4 = load i8* getelementptr ([4 x <{ i32, i8 }>]* @bara, i32 0, i32 3, i32 1) ; <i8> [#uses=1]
32 %tmp5 = add i8 %tmp4, %tmp ; <i8> [#uses=1]
|
| vec_splat.ll | 7 %tmp4 = insertelement <4 x float> %tmp2, float %X, i32 2 ; <<4 x float>> [#uses=1]
8 %tmp6 = insertelement <4 x float> %tmp4, float %X, i32 3 ; <<4 x float>> [#uses=1]
18 %tmp4 = load <2 x double>* %Q ; <<2 x double>> [#uses=1]
19 %tmp6 = fmul <2 x double> %tmp4, %tmp2 ; <<2 x double>> [#uses=1]
|
| /external/swiftshader/third_party/LLVM/test/Feature/ |
| packed_struct.ll | 22 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
23 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
30 %tmp4 = load i32* getelementptr ([2 x <{ i32, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i32> [#uses=1]
31 %tmp5 = add i32 %tmp4, %tmp ; <i32> [#uses=1]
|
| /external/swiftshader/third_party/LLVM/test/Integer/ |
| packed_struct_bt.ll | 22 %tmp4 = add i35 %tmp3, %tmp ; <i35> [#uses=1]
23 %tmp7 = add i35 %tmp4, %tmp6 ; <i35> [#uses=1]
30 %tmp4 = load i35* getelementptr ([2 x <{ i35, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i35> [#uses=1]
31 %tmp5 = add i35 %tmp4, %tmp ; <i35> [#uses=1]
|
| /external/llvm/test/Analysis/ScalarEvolution/ |
| 2007-07-15-NegativeStride.ll | 13 %i.01.0 = phi i32 [ 100, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2] 16 %tmp4 = add i32 %i.01.0, -1 ; <i32> [#uses=2] 17 %tmp7 = icmp sgt i32 %tmp4, -1 ; <i1> [#uses=1]
|
| pr24757.ll | 22 %tmp4 = xor i32 %tmp3, -1 24 %tmpf = sub nsw i32 %tmp4, %tmp5 31 store i32 %tmp4, i32* @b
|
| /external/llvm/test/CodeGen/X86/ |
| lea-2.ll | 9 %tmp4 = add i32 %tmp3, %tmp1 10 ; The above computation of %tmp4 should match a single lea, without using 15 ret i32 %tmp4
|
| /external/llvm/test/Transforms/IndVarSimplify/ |
| loop_evaluate_2.ll | 14 %i.01.0 = phi i32 [ %tmp4, %bb ], [ 0, %bb.preheader ] ; <i32> [#uses=1] 16 %tmp4 = add i32 %i.01.0, 1 ; <i32> [#uses=2] 18 icmp slt i32 %tmp4, %x ; <i1>:1 [#uses=1]
|
| /external/llvm/test/tools/gold/X86/ |
| vectorize.ll | 19 %i.0 = phi i64 [ 0, %bb ], [ %tmp4, %bb1 ] 24 %tmp4 = add nsw i64 %i.0, 1 25 %tmp5 = icmp slt i64 %tmp4, %n
|
| /external/swiftshader/third_party/LLVM/test/Analysis/BasicAA/ |
| no-escape-call.ll | 10 %tmp4 = getelementptr [10 x i8*]* %arr, i32 0, i32 %i ; <i8**> [#uses=2] 11 store i8* %tmp2, i8** %tmp4, align 4 14 %tmp14 = load i8** %tmp4, align 4 ; <i8*> [#uses=1]
|
| /external/swiftshader/third_party/LLVM/test/Analysis/ScalarEvolution/ |
| 2007-07-15-NegativeStride.ll | 12 %i.01.0 = phi i32 [ 100, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2] 15 %tmp4 = add i32 %i.01.0, -1 ; <i32> [#uses=2] 16 %tmp7 = icmp sgt i32 %tmp4, -1 ; <i1> [#uses=1]
|
| /external/swiftshader/third_party/LLVM/test/Transforms/IndVarSimplify/ |
| loop_evaluate_2.ll | 14 %i.01.0 = phi i32 [ %tmp4, %bb ], [ 0, %bb.preheader ] ; <i32> [#uses=1]
16 %tmp4 = add i32 %i.01.0, 1 ; <i32> [#uses=2]
18 icmp slt i32 %tmp4, %x ; <i1>:1 [#uses=1]
|
| /external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/ |
| bswap.ll | 9 %tmp4 = and i32 %tmp3, 65280 ; <i32> [#uses=1]
10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1]
21 %tmp4 = shl i32 %arg, 8 ; <i32> [#uses=1]
22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
34 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1]
41 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1]
51 %tmp4 = and i32 %tmp, 255 ; <i32> [#uses=1]
52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1] [all...] |
| /external/llvm/test/CodeGen/AArch64/ |
| arm64-trn.ll | 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 5, i32 13, i32 7, i32 15> 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7> 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 38 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3> 39 %tmp5 = add <2 x i32> %tmp3, %tmp4 51 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3> 52 %tmp5 = fadd <2 x float> %tmp3, %tmp4 64 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, i32 5, i32 21, i32 7, i32 23, i32 9, i32 25, i32 11, i32 27, i32 13, i32 29, i32 15, i32 31> 65 %tmp5 = add <16 x i8> %tmp3, %tmp4 [all...] |
| /external/llvm/test/CodeGen/Thumb/ |
| rev.ll | 8 %tmp4 = shl i32 %X15, 8 10 %tmp5 = and i32 %tmp4, -16777216 12 %tmp13 = and i32 %tmp4, 65280 26 %tmp4 = shl i16 %tmp3, 8 27 %tmp5 = or i16 %tmp2, %tmp4
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb/ |
| rev.ll | 8 %tmp4 = shl i32 %X15, 8 10 %tmp5 = and i32 %tmp4, -16777216 12 %tmp13 = and i32 %tmp4, 65280 26 %tmp4 = shl i16 %tmp3, 8 27 %tmp5 = or i16 %tmp2, %tmp4
|
| /external/llvm/test/CodeGen/ARM/ |
| vmla.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 [all...] |
| vmls.ll | 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 20 %tmp4 = mul <4 x i16> %tmp2, %tmp3 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 31 %tmp4 = mul <2 x i32> %tmp2, %tmp3 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 42 %tmp4 = fmul <2 x float> %tmp2, %tmp3 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 53 %tmp4 = mul <16 x i8> %tmp2, %tmp3 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 [all...] |
| /external/libjpeg-turbo/simd/ |
| jfdctint-altivec.c | 77 z3 = vec_add(tmp4, tmp6); \ 99 * z1 = tmp4 + tmp7; z2 = tmp5 + tmp6; \ 100 * tmp4 = tmp4 * 0.298631336; tmp5 = tmp5 * 2.053119869; \ 103 * data7 = tmp4 + z1 + z3; data5 = tmp5 + z2 + z4; \ 107 * tmp4 = tmp4 * (0.298631336 - 0.899976223) + tmp7 * -0.899976223; \ 110 * tmp7 = tmp4 * -0.899976223 + tmp7 * (1.501321110 - 0.899976223); \ 111 * data7 = tmp4 + z3; data5 = tmp5 + z4; \ 115 tmp47l = vec_mergeh(tmp4, tmp7); 190 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, tmp10, tmp11, tmp12, tmp13, local [all...] |