| /external/llvm/test/CodeGen/Thumb2/ |
| thumb2-ldr.ll | 57 %tmp4 = load i32, i32* %tmp3 58 ret i32 %tmp4 70 %tmp4 = load i32, i32* %tmp3 71 ret i32 %tmp4
|
| thumb2-ldrb.ll | 58 %tmp4 = load i8, i8* %tmp3 59 ret i8 %tmp4 70 %tmp4 = load i8, i8* %tmp3 71 ret i8 %tmp4
|
| thumb2-ldrh.ll | 57 %tmp4 = load i16, i16* %tmp3 58 ret i16 %tmp4 69 %tmp4 = load i16, i16* %tmp3 70 ret i16 %tmp4
|
| /external/llvm/test/CodeGen/X86/ |
| vec_align.ll | 13 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2 14 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3 31 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2 32 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
| ldr.ll | 58 %tmp4 = load i32* %tmp3
59 ret i32 %tmp4
69 %tmp4 = load i32* %tmp3
70 ret i32 %tmp4
|
| vbits.ll | 81 %tmp4 = and <8 x i8> %tmp1, %tmp3 82 ret <8 x i8> %tmp4 91 %tmp4 = and <4 x i16> %tmp1, %tmp3 92 ret <4 x i16> %tmp4 101 %tmp4 = and <2 x i32> %tmp1, %tmp3 102 ret <2 x i32> %tmp4 111 %tmp4 = and <1 x i64> %tmp1, %tmp3 112 ret <1 x i64> %tmp4 121 %tmp4 = and <16 x i8> %tmp1, %tmp3 122 ret <16 x i8> %tmp4 [all...] |
| /external/swiftshader/third_party/LLVM/test/CodeGen/Blackfin/ |
| addsub-i128.ll | 10 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1] 11 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1] 29 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1] 30 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/Generic/ |
| i128-addsub.ll | 7 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
8 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
26 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
27 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb2/ |
| thumb2-ldr.ll | 57 %tmp4 = load i32* %tmp3 58 ret i32 %tmp4 70 %tmp4 = load i32* %tmp3 71 ret i32 %tmp4
|
| thumb2-ldrb.ll | 58 %tmp4 = load i8* %tmp3 59 ret i8 %tmp4 70 %tmp4 = load i8* %tmp3 71 ret i8 %tmp4
|
| thumb2-ldrh.ll | 57 %tmp4 = load i16* %tmp3 58 ret i16 %tmp4 69 %tmp4 = load i16* %tmp3 70 ret i16 %tmp4
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
| vec_align.ll | 13 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2 14 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3 31 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2 32 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3
|
| /external/swiftshader/third_party/LLVM/test/Transforms/Inline/ |
| 2007-06-06-NoInline.ll | 17 %tmp4 = load i32* %tmp ; <i32> [#uses=1]
18 store i32 %tmp4, i32* %retval
39 %tmp4 = load i32* %tmp ; <i32> [#uses=1]
40 store i32 %tmp4, i32* %retval
|
| inline_cleanup.ll | 24 %tmp4 = and i32 %X, 2 ; <i32> [#uses=1]
25 %tmp4.upgrd.2 = icmp eq i32 %tmp4, 0 ; <i1> [#uses=1]
26 br i1 %tmp4.upgrd.2, label %cond_next7, label %cond_true5
|
| /external/llvm/test/CodeGen/ARM/ |
| vbits.ll | 81 %tmp4 = and <8 x i8> %tmp1, %tmp3 82 ret <8 x i8> %tmp4 91 %tmp4 = and <4 x i16> %tmp1, %tmp3 92 ret <4 x i16> %tmp4 101 %tmp4 = and <2 x i32> %tmp1, %tmp3 102 ret <2 x i32> %tmp4 111 %tmp4 = and <1 x i64> %tmp1, %tmp3 112 ret <1 x i64> %tmp4 121 %tmp4 = and <16 x i8> %tmp1, %tmp3 122 ret <16 x i8> %tmp4 [all...] |
| 2011-04-11-MachineLICMBug.ll | 22 %tmp4 = load i32, i32* %arrayidx, align 4 23 %cmp6 = icmp eq i32 %tmp4, %value
|
| /bionic/libc/arch-arm64/generic/bionic/ |
| strnlen.S | 50 #define tmp4 x11 define 96 orr tmp4, data2, #REP8_7f 98 bic has_nul2, tmp3, tmp4 148 neg tmp4, tmp1 156 lsl tmp4, tmp4, #3 /* Bytes beyond alignment -> bits. */ 161 lsl tmp2, tmp2, tmp4 /* Shift (tmp1 & 63). */ 164 lsr tmp2, tmp2, tmp4 /* Shift (tmp1 & 63). */
|
| /external/llvm/test/Analysis/BasicAA/ |
| byval.ll | 13 %tmp4 = load i32, i32* %tmp2, align 4 ; <i32> [#uses=1] 14 ret i32 %tmp4
|
| noalias-wraparound-bug.ll | 14 %tmp4 = getelementptr i8, i8* %buffer, i32 128 15 %tmp5 = bitcast i8* %tmp4 to i32*
|
| /external/llvm/test/Analysis/ScalarEvolution/ |
| 2008-05-25-NegativeStepToZero.ll | 12 %tmp4 = add i8 %x.0, -4 ; <i8> [#uses=1] 16 %x.0 = phi i8 [ 0, %entry ], [ %tmp4, %bb ] ; <i8> [#uses=2]
|
| trip-count2.ll | 15 %tmp4 = mul i32 %i.0, 4 ; <i32> [#uses=1] 16 %tmp5 = or i32 %tmp4, 1
|
| /external/llvm/test/CodeGen/AArch64/ |
| arm64-alloca-frame-pointer-offset.ll | 23 %tmp4 = load i32, i32* %a.addr, align 4 24 store i32 %tmp4, i32* %j, align 4
|
| arm64-misched-forwarding-A53.ll | 19 %tmp4 = mul i64 %tmp2, %tmp3 21 ret i64 %tmp4
|
| /external/llvm/test/CodeGen/AMDGPU/ |
| llvm.amdgcn.s.barrier.ll | 15 %tmp4 = sub i32 %tmp3, %tmp 16 %tmp5 = getelementptr i32, i32 addrspace(1)* %out, i32 %tmp4
|
| promote-alloca-invariant-markers.ll | 17 %tmp4 = call {}* @llvm.invariant.start(i64 4, i8* %tmp1) #0 18 call void @llvm.invariant.end({}* %tmp4, i64 4, i8* %tmp1) #0
|