| /external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
| sret.ll | 18 %tmp4 = getelementptr %struct.foo* %memtmp, i32 0, i32 0 19 %tmp5 = getelementptr [4 x i32]* %tmp4, i32 0, i32 0
|
| tailcallbyval.ll | 16 %tmp4 = tail call fastcc i32 @tailcallee(%struct.s* byval %a ) 17 ret i32 %tmp4
|
| x86-64-gv-offset.ll | 9 %tmp4 = load double* getelementptr (%struct.x* @X, i32 0, i32 1), align 8 ; <double> [#uses=1] 10 tail call void @t( float %tmp2, double %tmp4 ) nounwind
|
| /external/swiftshader/third_party/LLVM/test/Transforms/GVN/ |
| 2008-02-12-UndefLoad.ll | 13 %tmp4 = and i32 %tmp3, -21 ; <i32> [#uses=1] 14 store i32 %tmp4, i32* %tmp1, align 4
|
| /external/swiftshader/third_party/LLVM/test/Transforms/Reassociate/ |
| secondary.ll | 17 %tmp4 = add i32 %tmp3, 2014710503 19 %tmp6 = sub i32 %tmp4, %tmp5
|
| /external/swiftshader/third_party/LLVM/test/Transforms/SimplifyCFG/ |
| SpeculativeExec.ll | 18 %tmp4 = phi i32 [ %b, %entry ], [ %a, %bb1 ], [ %tmp3, %bb2 ] 19 %tmp5 = sub i32 %tmp4, 1
|
| /external/llvm/test/CodeGen/ARM/ |
| vld2.ll | 21 %tmp4 = add <8 x i8> %tmp2, %tmp3 22 ret <8 x i8> %tmp4 33 %tmp4 = add <4 x i16> %tmp2, %tmp3 34 ret <4 x i16> %tmp4 44 %tmp4 = add <2 x i32> %tmp2, %tmp3 45 ret <2 x i32> %tmp4 55 %tmp4 = fadd <2 x float> %tmp2, %tmp3 56 ret <2 x float> %tmp4 68 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
| vbsl-constant.ll | 11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3> 13 %tmp7 = or <8 x i8> %tmp4, %tmp6 25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3> 27 %tmp7 = or <4 x i16> %tmp4, %tmp6 39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3> 41 %tmp7 = or <2 x i32> %tmp4, %tmp6 54 %tmp4 = and <1 x i64> %tmp1, <i64 3> 56 %tmp7 = or <1 x i64> %tmp4, %tmp6 68 %tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3> 70 %tmp7 = or <16 x i8> %tmp4, %tmp [all...] |
| /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
| vld2.ll | 21 %tmp4 = add <8 x i8> %tmp2, %tmp3 22 ret <8 x i8> %tmp4 33 %tmp4 = add <4 x i16> %tmp2, %tmp3 34 ret <4 x i16> %tmp4 44 %tmp4 = add <2 x i32> %tmp2, %tmp3 45 ret <2 x i32> %tmp4 55 %tmp4 = fadd <2 x float> %tmp2, %tmp3 56 ret <2 x float> %tmp4 68 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
| vld3.ll | 22 %tmp4 = add <8 x i8> %tmp2, %tmp3 23 ret <8 x i8> %tmp4 33 %tmp4 = add <4 x i16> %tmp2, %tmp3 34 ret <4 x i16> %tmp4 46 %tmp4 = add <4 x i16> %tmp2, %tmp3 49 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
| vld4.ll | 21 %tmp4 = add <8 x i8> %tmp2, %tmp3 22 ret <8 x i8> %tmp4 33 %tmp4 = add <8 x i8> %tmp2, %tmp3 36 ret <8 x i8> %tmp4 47 %tmp4 = add <4 x i16> %tmp2, %tmp3 48 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
| smul.ll | 14 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1]
15 ret i32 %tmp4
23 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
24 ret i32 %tmp4
|
| vbsl-constant.ll | 11 %tmp4 = and <8 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3> 13 %tmp7 = or <8 x i8> %tmp4, %tmp6 25 %tmp4 = and <4 x i16> %tmp1, <i16 3, i16 3, i16 3, i16 3> 27 %tmp7 = or <4 x i16> %tmp4, %tmp6 39 %tmp4 = and <2 x i32> %tmp1, <i32 3, i32 3> 41 %tmp7 = or <2 x i32> %tmp4, %tmp6 54 %tmp4 = and <1 x i64> %tmp1, <i64 3> 56 %tmp7 = or <1 x i64> %tmp4, %tmp6 68 %tmp4 = and <16 x i8> %tmp1, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3> 70 %tmp7 = or <16 x i8> %tmp4, %tmp [all...] |
| /external/llvm/test/CodeGen/AArch64/ |
| aarch64-DAGCombine-findBetterNeighborChains-crash.ll | 20 %tmp4 = bitcast i8* %tmp to <4 x float>* 21 store volatile <4 x float> zeroinitializer, <4 x float>* %tmp4 35 %tmp4 = bitcast i8* %tmp to <4 x float>* 36 store <4 x float> zeroinitializer, <4 x float>* %tmp4
|
| arm64-mul.ll | 55 %tmp4 = add i64 %c, %tmp3 56 ret i64 %tmp4 66 %tmp4 = sub i64 %c, %tmp3 67 ret i64 %tmp4 77 %tmp4 = sub i64 0, %tmp3 78 ret i64 %tmp4 88 %tmp4 = sub i64 0, %tmp3 89 ret i64 %tmp4 119 %tmp4 = sub i64 0, %tmp3 120 ret i64 %tmp4 [all...] |
| arm64-uzp.ll | 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15> 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7> 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 37 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15, i32 17, i32 19, i32 21, i32 23, i32 25, i32 27, i32 29, i32 31> 38 %tmp5 = add <16 x i8> %tmp3, %tmp4 50 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 1, i32 3, i32 5, i32 7, i32 9, i32 11, i32 13, i32 15> 51 %tmp5 = add <8 x i16> %tmp3, %tmp4 63 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 1, i32 3, i32 5, i32 7> 64 %tmp5 = add <4 x i32> %tmp3, %tmp4 [all...] |
| arm64-zip.ll | 11 %tmp4 = shufflevector <8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15> 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 24 %tmp4 = shufflevector <4 x i16> %tmp1, <4 x i16> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7> 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 37 %tmp4 = shufflevector <16 x i8> %tmp1, <16 x i8> %tmp2, <16 x i32> <i32 8, i32 24, i32 9, i32 25, i32 10, i32 26, i32 11, i32 27, i32 12, i32 28, i32 13, i32 29, i32 14, i32 30, i32 15, i32 31> 38 %tmp5 = add <16 x i8> %tmp3, %tmp4 50 %tmp4 = shufflevector <8 x i16> %tmp1, <8 x i16> %tmp2, <8 x i32> <i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15> 51 %tmp5 = add <8 x i16> %tmp3, %tmp4 63 %tmp4 = shufflevector <4 x i32> %tmp1, <4 x i32> %tmp2, <4 x i32> <i32 2, i32 6, i32 3, i32 7> 64 %tmp5 = add <4 x i32> %tmp3, %tmp4 [all...] |
| /external/llvm/test/CodeGen/AMDGPU/ |
| private-memory-atomics.ll | 15 %tmp4 = atomicrmw add i32* %tmp3, i32 7 acq_rel 16 store i32 %tmp4, i32 addrspace(1)* %out 28 %tmp4 = cmpxchg i32* %tmp3, i32 0, i32 1 acq_rel monotonic 29 %val = extractvalue { i32, i1 } %tmp4, 0
|
| /external/llvm/test/CodeGen/PowerPC/ |
| 2007-02-16-InlineAsmNConstraint.ll | 9 %tmp4 = call i32 asm "rlwimi $0,$2,$3,$4,$5", "=r,0,r,n,n,n"( i32 0, i32 0, i32 0, i32 24, i32 31 ) ; <i32> [#uses=0]
|
| /external/llvm/test/CodeGen/X86/ |
| 2010-08-04-MaskedSignedCompare.ll | 23 %tmp4.pre = load i32, i32* @g_38 ; <i32> [#uses=1] 31 %tmp4 = phi i32 [ %tmp4.pre, %entry.if.end_crit_edge ], [ 1, %if.then ] ; <i32> [#uses=1] 32 %call5 = tail call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([4 x i8], [4 x i8]* @.str, i64 0, i64 0), i32 %tmp4) nounwind ; <i32> [#uses=0]
|
| or-branch.ll | 17 %tmp4 = or i1 %tmp3, %tmp1 18 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock 40 %tmp4 = or i1 %tmp3, %tmp1 41 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock, !unpredictable !0
|
| packed_struct.ll | 23 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1] 24 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1] 31 %tmp4 = load i8, i8* getelementptr ([4 x <{ i32, i8 }>], [4 x <{ i32, i8 }>]* @bara, i32 0, i32 3, i32 1) ; <i8> [#uses=1] 32 %tmp5 = add i8 %tmp4, %tmp ; <i8> [#uses=1]
|
| /external/llvm/test/Feature/ |
| packed_struct.ll | 22 %tmp4 = add i32 %tmp3, %tmp ; <i32> [#uses=1] 23 %tmp7 = add i32 %tmp4, %tmp6 ; <i32> [#uses=1] 30 %tmp4 = load i32, i32* getelementptr ([2 x <{ i32, i8 }>], [2 x <{ i32, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i32> [#uses=1] 31 %tmp5 = add i32 %tmp4, %tmp ; <i32> [#uses=1]
|
| /external/llvm/test/Integer/ |
| packed_struct_bt.ll | 22 %tmp4 = add i35 %tmp3, %tmp ; <i35> [#uses=1] 23 %tmp7 = add i35 %tmp4, %tmp6 ; <i35> [#uses=1] 30 %tmp4 = load i35, i35* getelementptr ([2 x <{ i35, i8 }>], [2 x <{ i35, i8 }>]* @bara, i32 0, i32 1, i32 0) ; <i35> [#uses=1] 31 %tmp5 = add i35 %tmp4, %tmp ; <i35> [#uses=1]
|
| /external/llvm/test/Transforms/Reassociate/ |
| reassoc-intermediate-fnegs.ll | 12 %tmp4 = fsub fast half %tmp2, %tmp1 ; 5 * a - 3 * b 13 %tmp5 = fsub fast half %tmp3, %tmp4 ; 2 * b - ( 5 * a - 3 * b) 27 %tmp4 = fadd fast half %tmp2, %tmp1 ; 5 * a + 3 * b 28 %tmp5 = fsub fast half %tmp4, %tmp3 ; (5 * a + 3 * b) - (2 * b)
|