HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 126 - 150 of 1043) sorted by null

1 2 3 4 56 7 8 91011>>

  /external/swiftshader/third_party/LLVM/test/CodeGen/X86/
sret.ll 18 %tmp4 = getelementptr %struct.foo* %memtmp, i32 0, i32 0
19 %tmp5 = getelementptr [4 x i32]* %tmp4, i32 0, i32 0
tailcallbyval.ll 16 %tmp4 = tail call fastcc i32 @tailcallee(%struct.s* byval %a )
17 ret i32 %tmp4
x86-64-gv-offset.ll 9 %tmp4 = load double* getelementptr (%struct.x* @X, i32 0, i32 1), align 8 ; <double> [#uses=1]
10 tail call void @t( float %tmp2, double %tmp4 ) nounwind
  /external/swiftshader/third_party/LLVM/test/Transforms/GVN/
2008-02-12-UndefLoad.ll 13 %tmp4 = and i32 %tmp3, -21 ; <i32> [#uses=1]
14 store i32 %tmp4, i32* %tmp1, align 4
  /external/swiftshader/third_party/LLVM/test/Transforms/Reassociate/
secondary.ll 17 %tmp4 = add i32 %tmp3, 2014710503
19 %tmp6 = sub i32 %tmp4, %tmp5
  /external/swiftshader/third_party/LLVM/test/Transforms/SimplifyCFG/
SpeculativeExec.ll 18 %tmp4 = phi i32 [ %b, %entry ], [ %a, %bb1 ], [ %tmp3, %bb2 ]
19 %tmp5 = sub i32 %tmp4, 1
  /external/llvm/test/CodeGen/ARM/
vld2.ll 21 %tmp4 = add <8 x i8> %tmp2, %tmp3
22 ret <8 x i8> %tmp4
33 %tmp4 = add <4 x i16> %tmp2, %tmp3
34 ret <4 x i16> %tmp4
44 %tmp4 = add <2 x i32> %tmp2, %tmp3
45 ret <2 x i32> %tmp4
55 %tmp4 = fadd <2 x float> %tmp2, %tmp3
56 ret <2 x float> %tmp4
68 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
vbsl-constant.ll 11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
13 %tmp7 = or <8 x i8> %tmp4, %tmp6
25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3>
27 %tmp7 = or <4 x i16> %tmp4, %tmp6
39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3>
41 %tmp7 = or <2 x i32> %tmp4, %tmp6
54 %tmp4 = and <1 x i64> %tmp1, <i64 3>
56 %tmp7 = or <1 x i64> %tmp4, %tmp6
68 %tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
70 %tmp7 = or <16 x i8> %tmp4, %tmp
    [all...]
  /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
vld2.ll 21 %tmp4 = add <8 x i8> %tmp2, %tmp3
22 ret <8 x i8> %tmp4
33 %tmp4 = add <4 x i16> %tmp2, %tmp3
34 ret <4 x i16> %tmp4
44 %tmp4 = add <2 x i32> %tmp2, %tmp3
45 ret <2 x i32> %tmp4
55 %tmp4 = fadd <2 x float> %tmp2, %tmp3
56 ret <2 x float> %tmp4
68 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
vld3.ll 22 %tmp4 = add <8 x i8> %tmp2, %tmp3
23 ret <8 x i8> %tmp4
33 %tmp4 = add <4 x i16> %tmp2, %tmp3
34 ret <4 x i16> %tmp4
46 %tmp4 = add <4 x i16> %tmp2, %tmp3
49 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
vld4.ll 21 %tmp4 = add <8 x i8> %tmp2, %tmp3
22 ret <8 x i8> %tmp4
33 %tmp4 = add <8 x i8> %tmp2, %tmp3
36 ret <8 x i8> %tmp4
47 %tmp4 = add <4 x i16> %tmp2, %tmp3
48 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
smul.ll 14 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1]
15 ret i32 %tmp4
23 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
24 ret i32 %tmp4
vbsl-constant.ll 11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
13 %tmp7 = or <8 x i8> %tmp4, %tmp6
25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3>
27 %tmp7 = or <4 x i16> %tmp4, %tmp6
39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3>
41 %tmp7 = or <2 x i32> %tmp4, %tmp6
54 %tmp4 = and <1 x i64> %tmp1, <i64 3>
56 %tmp7 = or <1 x i64> %tmp4, %tmp6
68 %tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
70 %tmp7 = or <16 x i8> %tmp4, %tmp
    [all...]
  /external/llvm/test/CodeGen/AArch64/
aarch64-DAGCombine-findBetterNeighborChains-crash.ll 20 %tmp4 = bitcast i8* %tmp to <4 x float>*
21 store volatile <4 x float> zeroinitializer, <4 x float>* %tmp4
35 %tmp4 = bitcast i8* %tmp to <4 x float>*
36 store <4 x float> zeroinitializer, <4 x float>* %tmp4
arm64-mul.ll 55 %tmp4 = add i64 %c, %tmp3
56 ret i64 %tmp4
66 %tmp4 = sub i64 %c, %tmp3
67 ret i64 %tmp4
77 %tmp4 = sub i64 0, %tmp3
78 ret i64 %tmp4
88 %tmp4 = sub i64 0, %tmp3
89 ret i64 %tmp4
119 %tmp4 = sub i64 0, %tmp3
120 ret i64 %tmp4
    [all...]
arm64-uzp.ll 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15>
12 %tmp5 = add <8 x i8> %tmp3, %tmp4
24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7>
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
37 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15, i32 17, i32 19, i32 21, i32 23, i32 25, i32 27, i32 29, i32 31>
38 %tmp5 = add <16 x i8> %tmp3, %tmp4
50 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15>
51 %tmp5 = add <8 x i16> %tmp3, %tmp4
63 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7>
64 %tmp5 = add <4 x i32> %tmp3, %tmp4
    [all...]
arm64-zip.ll 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15>
12 %tmp5 = add <8 x i8> %tmp3, %tmp4
24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7>
25 %tmp5 = add <4 x i16> %tmp3, %tmp4
37 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 8, i32 24, i32 9, i32 25, i32 10, i32 26, i32 11, i32 27, i32 12, i32 28, i32 13, i32 29, i32 14, i32 30, i32 15, i32 31>
38 %tmp5 = add <16 x i8> %tmp3, %tmp4
50 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15>
51 %tmp5 = add <8 x i16> %tmp3, %tmp4
63 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7>
64 %tmp5 = add <4 x i32> %tmp3, %tmp4
    [all...]
  /external/llvm/test/CodeGen/AMDGPU/
private-memory-atomics.ll 15 %tmp4 = atomicrmw add i32* %tmp3, i32 7 acq_rel
16 store i32 %tmp4, i32 addrspace(1)* %out
28 %tmp4 = cmpxchg i32* %tmp3, i32 0, i32 1 acq_rel monotonic
29 %val = extractvalue { i32, i1 } %tmp4, 0
  /external/llvm/test/CodeGen/PowerPC/
2007-02-16-InlineAsmNConstraint.ll 9 %tmp4 = call i32 asm "rlwimi $0,$2,$3,$4,$5", "=r,0,r,n,n,n"( i32 0, i32 0, i32 0, i32 24, i32 31 ) ; <i32> [#uses=0]
  /external/llvm/test/CodeGen/X86/
2010-08-04-MaskedSignedCompare.ll 23 %tmp4.pre = load i32, i32* @g_38 ; <i32> [#uses=1]
31 %tmp4 = phi i32 [ %tmp4.pre, %entry.if.end_crit_edge ], [ 1, %if.then ] ; <i32> [#uses=1]
32 %call5 = tail call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([4 x i8], [4 x i8]* @.str, i64 0, i64 0), i32 %tmp4) nounwind ; <i32> [#uses=0]
or-branch.ll 17 %tmp4 = or i1 %tmp3, %tmp1
18 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock
40 %tmp4 = or i1 %tmp3, %tmp1
41 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock, !unpredictable !0
packed_struct.ll 23 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
24 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
31 %tmp4 = load i8, i8* getelementptr ([4 x <{ i32, i8 }>], [4 x <{ i32, i8 }>]* @bara, i32 0, i32 3, i32 1) ; <i8> [#uses=1]
32 %tmp5 = add i8 %tmp4, %tmp ; <i8> [#uses=1]
  /external/llvm/test/Feature/
packed_struct.ll 22 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1]
23 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1]
30 %tmp4 = load i32, i32* getelementptr ([2 x <{ i32, i8 }>], [2 x <{ i32, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i32> [#uses=1]
31 %tmp5 = add i32 %tmp4, %tmp ; <i32> [#uses=1]
  /external/llvm/test/Integer/
packed_struct_bt.ll 22 %tmp4 = add i35 %tmp3, %tmp ; <i35> [#uses=1]
23 %tmp7 = add i35 %tmp4, %tmp6 ; <i35> [#uses=1]
30 %tmp4 = load i35, i35* getelementptr ([2 x <{ i35, i8 }>], [2 x <{ i35, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i35> [#uses=1]
31 %tmp5 = add i35 %tmp4, %tmp ; <i35> [#uses=1]
  /external/llvm/test/Transforms/Reassociate/
reassoc-intermediate-fnegs.ll 12 %tmp4 = fsub fast half %tmp2, %tmp1 ; 5 * a - 3 * b
13 %tmp5 = fsub fast half %tmp3, %tmp4 ; 2 * b - ( 5 * a - 3 * b)
27 %tmp4 = fadd fast half %tmp2, %tmp1 ; 5 * a + 3 * b
28 %tmp5 = fsub fast half %tmp4, %tmp3 ; (5 * a + 3 * b) - (2 * b)

Completed in 1669 milliseconds

1 2 3 4 56 7 8 91011>>