HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 151 - 175 of 1043) sorted by null

1 2 3 4 5 67 8 91011>>

  /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
vuzp.ll 10 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15>
11 %tmp5 = add <8 x i8> %tmp3, %tmp4
22 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7>
23 %tmp5 = add <4 x i16> %tmp3, %tmp4
36 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15, i32 17, i32 19, i32 21, i32 23, i32 25, i32 27, i32 29, i32 31>
37 %tmp5 = add <16 x i8> %tmp3, %tmp4
48 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15>
49 %tmp5 = add <8 x i16> %tmp3, %tmp4
60 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7>
61 %tmp5 = add <4 x i32> %tmp3, %tmp4
    [all...]
vzip.ll 10 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15>
11 %tmp5 = add <8 x i8> %tmp3, %tmp4
22 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7>
23 %tmp5 = add <4 x i16> %tmp3, %tmp4
36 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 8, i32 24, i32 9, i32 25, i32 10, i32 26, i32 11, i32 27, i32 12, i32 28, i32 13, i32 29, i32 14, i32 30, i32 15, i32 31>
37 %tmp5 = add <16 x i8> %tmp3, %tmp4
48 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15>
49 %tmp5 = add <8 x i16> %tmp3, %tmp4
60 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7>
61 %tmp5 = add <4 x i32> %tmp3, %tmp4
    [all...]
vmla.ll 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
    [all...]
vmls.ll 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = sub <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4
    [all...]
  /external/swiftshader/third_party/LLVM/test/CodeGen/PowerPC/
2007-02-16-InlineAsmNConstraint.ll 9 %tmp4 = call i32 asm "rlwimi $0,$2,$3,$4,$5", "=r,0,r,n,n,n"( i32 0, i32 0, i32 0, i32 24, i32 31 ) ; <i32> [#uses=0]
  /external/swiftshader/third_party/LLVM/test/CodeGen/X86/
2010-08-04-MaskedSignedCompare.ll 23 %tmp4.pre = load i32* @g_38 ; <i32> [#uses=1]
31 %tmp4 = phi i32 [ %tmp4.pre, %entry.if.end_crit_edge ], [ 1, %if.then ] ; <i32> [#uses=1]
32 %call5 = tail call i32 (i8*, ...)* @printf(i8* getelementptr inbounds ([4 x i8]* @.str, i64 0, i64 0), i32 %tmp4) nounwind ; <i32> [#uses=0]
packed_struct.ll 23 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
24 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
31 %tmp4 = load i8* getelementptr ([4 x <{ i32, i8 }>]* @bara, i32 0, i32 3, i32 1) ; <i8> [#uses=1]
32 %tmp5 = add i8 %tmp4, %tmp ; <i8> [#uses=1]
vec_splat.ll 7 %tmp4 = insertelement <4 x float> %tmp2, float %X, i32 2 ; <<4 x float>> [#uses=1]
8 %tmp6 = insertelement <4 x float> %tmp4, float %X, i32 3 ; <<4 x float>> [#uses=1]
18 %tmp4 = load <2 x double>* %Q ; <<2 x double>> [#uses=1]
19 %tmp6 = fmul <2 x double> %tmp4, %tmp2 ; <<2 x double>> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/Feature/
packed_struct.ll 22 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
23 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
30 %tmp4 = load i32* getelementptr ([2 x <{ i32, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i32> [#uses=1]
31 %tmp5 = add i32 %tmp4, %tmp ; <i32> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/Integer/
packed_struct_bt.ll 22 %tmp4 = add i35 %tmp3, %tmp ; <i35> [#uses=1]
23 %tmp7 = add i35 %tmp4, %tmp6 ; <i35> [#uses=1]
30 %tmp4 = load i35* getelementptr ([2 x <{ i35, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i35> [#uses=1]
31 %tmp5 = add i35 %tmp4, %tmp ; <i35> [#uses=1]
  /external/llvm/test/Analysis/ScalarEvolution/
2007-07-15-NegativeStride.ll 13 %i.01.0 = phi i32 [ 100, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2]
16 %tmp4 = add i32 %i.01.0, -1 ; <i32> [#uses=2]
17 %tmp7 = icmp sgt i32 %tmp4, -1 ; <i1> [#uses=1]
pr24757.ll 22 %tmp4 = xor i32 %tmp3, -1
24 %tmpf = sub nsw i32 %tmp4, %tmp5
31 store i32 %tmp4, i32* @b
  /external/llvm/test/CodeGen/X86/
lea-2.ll 9 %tmp4 = add i32 %tmp3, %tmp1
10 ; The above computation of %tmp4 should match a single lea, without using
15 ret i32 %tmp4
  /external/llvm/test/Transforms/IndVarSimplify/
loop_evaluate_2.ll 14 %i.01.0 = phi i32 [ %tmp4, %bb ], [ 0, %bb.preheader ] ; <i32> [#uses=1]
16 %tmp4 = add i32 %i.01.0, 1 ; <i32> [#uses=2]
18 icmp slt i32 %tmp4, %x ; <i1>:1 [#uses=1]
  /external/llvm/test/tools/gold/X86/
vectorize.ll 19 %i.0 = phi i64 [ 0, %bb ], [ %tmp4, %bb1 ]
24 %tmp4 = add nsw i64 %i.0, 1
25 %tmp5 = icmp slt i64 %tmp4, %n
  /external/swiftshader/third_party/LLVM/test/Analysis/BasicAA/
no-escape-call.ll 10 %tmp4 = getelementptr [10 x i8*]* %arr, i32 0, i32 %i ; <i8**> [#uses=2]
11 store i8* %tmp2, i8** %tmp4, align 4
14 %tmp14 = load i8** %tmp4, align 4 ; <i8*> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/Analysis/ScalarEvolution/
2007-07-15-NegativeStride.ll 12 %i.01.0 = phi i32 [ 100, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2]
15 %tmp4 = add i32 %i.01.0, -1 ; <i32> [#uses=2]
16 %tmp7 = icmp sgt i32 %tmp4, -1 ; <i1> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/Transforms/IndVarSimplify/
loop_evaluate_2.ll 14 %i.01.0 = phi i32 [ %tmp4, %bb ], [ 0, %bb.preheader ] ; <i32> [#uses=1]
16 %tmp4 = add i32 %i.01.0, 1 ; <i32> [#uses=2]
18 icmp slt i32 %tmp4, %x ; <i1>:1 [#uses=1]
  /external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/
bswap.ll 9 %tmp4 = and i32 %tmp3, 65280 ; <i32> [#uses=1]
10 %tmp5 = or i32 %tmp1, %tmp4 ; <i32> [#uses=1]
21 %tmp4 = shl i32 %arg, 8 ; <i32> [#uses=1]
22 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
34 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
35 %tmp5 = or i16 %tmp2, %tmp4 ; <i16> [#uses=1]
41 %tmp4 = shl i16 %s, 8 ; <i16> [#uses=1]
42 %tmp5 = or i16 %tmp4, %tmp2 ; <i16> [#uses=1]
51 %tmp4 = and i32 %tmp, 255 ; <i32> [#uses=1]
52 %tmp5 = shl i32 %tmp4, 8 ; <i32> [#uses=1]
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-trn.ll 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 9, i32 3, i32 11, i32 5, i32 13, i32 7, i32 15>
12 %tmp5 = add <8 x i8> %tmp3, %tmp4
24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 5, i32 3, i32 7>
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
38 %tmp4 = shufflevector <2 x i32> %tmp1, <2 x i32> %tmp2, <2 x i32> <i32 1, i32 3>
39 %tmp5 = add <2 x i32> %tmp3, %tmp4
51 %tmp4 = shufflevector <2 x float> %tmp1, <2 x float> %tmp2, <2 x i32> <i32 1, i32 3>
52 %tmp5 = fadd <2 x float> %tmp3, %tmp4
64 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 17, i32 3, i32 19, i32 5, i32 21, i32 7, i32 23, i32 9, i32 25, i32 11, i32 27, i32 13, i32 29, i32 15, i32 31>
65 %tmp5 = add <16 x i8> %tmp3, %tmp4
    [all...]
  /external/llvm/test/CodeGen/Thumb/
rev.ll 8 %tmp4 = shl i32 %X15, 8
10 %tmp5 = and i32 %tmp4, -16777216
12 %tmp13 = and i32 %tmp4, 65280
26 %tmp4 = shl i16 %tmp3, 8
27 %tmp5 = or i16 %tmp2, %tmp4
  /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb/
rev.ll 8 %tmp4 = shl i32 %X15, 8
10 %tmp5 = and i32 %tmp4, -16777216
12 %tmp13 = and i32 %tmp4, 65280
26 %tmp4 = shl i16 %tmp3, 8
27 %tmp5 = or i16 %tmp2, %tmp4
  /external/llvm/test/CodeGen/ARM/
vmla.ll 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
    [all...]
vmls.ll 9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = sub <8 x i8> %tmp1, %tmp4
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = sub <4 x i16> %tmp1, %tmp4
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = sub <2 x i32> %tmp1, %tmp4
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fsub <2 x float> %tmp1, %tmp4
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = sub <16 x i8> %tmp1, %tmp4
    [all...]
  /external/libjpeg-turbo/simd/
jfdctint-altivec.c 77 z3 = vec_add(tmp4, tmp6); \
99 * z1 = tmp4 + tmp7; z2 = tmp5 + tmp6; \
100 * tmp4 = tmp4 * 0.298631336; tmp5 = tmp5 * 2.053119869; \
103 * data7 = tmp4 + z1 + z3; data5 = tmp5 + z2 + z4; \
107 * tmp4 = tmp4 * (0.298631336 - 0.899976223) + tmp7 * -0.899976223; \
110 * tmp7 = tmp4 * -0.899976223 + tmp7 * (1.501321110 - 0.899976223); \
111 * data7 = tmp4 + z3; data5 = tmp5 + z4; \
115 tmp47l = vec_mergeh(tmp4, tmp7);
190 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, tmp10, tmp11, tmp12, tmp13, local
    [all...]

Completed in 914 milliseconds

1 2 3 4 5 67 8 91011>>