HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 201 - 225 of 1043) sorted by null

1 2 3 4 5 6 7 891011>>

  /external/llvm/test/CodeGen/Thumb2/
thumb2-ldr.ll 57 %tmp4 = load i32, i32* %tmp3
58 ret i32 %tmp4
70 %tmp4 = load i32, i32* %tmp3
71 ret i32 %tmp4
thumb2-ldrb.ll 58 %tmp4 = load i8, i8* %tmp3
59 ret i8 %tmp4
70 %tmp4 = load i8, i8* %tmp3
71 ret i8 %tmp4
thumb2-ldrh.ll 57 %tmp4 = load i16, i16* %tmp3
58 ret i16 %tmp4
69 %tmp4 = load i16, i16* %tmp3
70 ret i16 %tmp4
  /external/llvm/test/CodeGen/X86/
vec_align.ll 13 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2
14 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3
31 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2
32 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3
  /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
ldr.ll 58 %tmp4 = load i32* %tmp3
59 ret i32 %tmp4
69 %tmp4 = load i32* %tmp3
70 ret i32 %tmp4
vbits.ll 81 %tmp4 = and <8 x i8> %tmp1, %tmp3
82 ret <8 x i8> %tmp4
91 %tmp4 = and <4 x i16> %tmp1, %tmp3
92 ret <4 x i16> %tmp4
101 %tmp4 = and <2 x i32> %tmp1, %tmp3
102 ret <2 x i32> %tmp4
111 %tmp4 = and <1 x i64> %tmp1, %tmp3
112 ret <1 x i64> %tmp4
121 %tmp4 = and <16 x i8> %tmp1, %tmp3
122 ret <16 x i8> %tmp4
    [all...]
  /external/swiftshader/third_party/LLVM/test/CodeGen/Blackfin/
addsub-i128.ll 10 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
11 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
29 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
30 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/CodeGen/Generic/
i128-addsub.ll 7 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
8 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
26 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
27 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb2/
thumb2-ldr.ll 57 %tmp4 = load i32* %tmp3
58 ret i32 %tmp4
70 %tmp4 = load i32* %tmp3
71 ret i32 %tmp4
thumb2-ldrb.ll 58 %tmp4 = load i8* %tmp3
59 ret i8 %tmp4
70 %tmp4 = load i8* %tmp3
71 ret i8 %tmp4
thumb2-ldrh.ll 57 %tmp4 = load i16* %tmp3
58 ret i16 %tmp4
69 %tmp4 = load i16* %tmp3
70 ret i16 %tmp4
  /external/swiftshader/third_party/LLVM/test/CodeGen/X86/
vec_align.ll 13 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2
14 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3
31 %tmp4 = insertelement %f4 %tmp2, float %Y, i32 2
32 %tmp6 = insertelement %f4 %tmp4, float %Z, i32 3
  /external/swiftshader/third_party/LLVM/test/Transforms/Inline/
2007-06-06-NoInline.ll 17 %tmp4 = load i32* %tmp ; <i32> [#uses=1]
18 store i32 %tmp4, i32* %retval
39 %tmp4 = load i32* %tmp ; <i32> [#uses=1]
40 store i32 %tmp4, i32* %retval
inline_cleanup.ll 24 %tmp4 = and i32 %X, 2 ; <i32> [#uses=1]
25 %tmp4.upgrd.2 = icmp eq i32 %tmp4, 0 ; <i1> [#uses=1]
26 br i1 %tmp4.upgrd.2, label %cond_next7, label %cond_true5
  /external/llvm/test/CodeGen/ARM/
vbits.ll 81 %tmp4 = and <8 x i8> %tmp1, %tmp3
82 ret <8 x i8> %tmp4
91 %tmp4 = and <4 x i16> %tmp1, %tmp3
92 ret <4 x i16> %tmp4
101 %tmp4 = and <2 x i32> %tmp1, %tmp3
102 ret <2 x i32> %tmp4
111 %tmp4 = and <1 x i64> %tmp1, %tmp3
112 ret <1 x i64> %tmp4
121 %tmp4 = and <16 x i8> %tmp1, %tmp3
122 ret <16 x i8> %tmp4
    [all...]
2011-04-11-MachineLICMBug.ll 22 %tmp4 = load i32, i32* %arrayidx, align 4
23 %cmp6 = icmp eq i32 %tmp4, %value
  /bionic/libc/arch-arm64/generic/bionic/
strnlen.S 50 #define tmp4 x11 define
96 orr tmp4, data2, #REP8_7f
98 bic has_nul2, tmp3, tmp4
148 neg tmp4, tmp1
156 lsl tmp4, tmp4, #3 /* Bytes beyond alignment -> bits. */
161 lsl tmp2, tmp2, tmp4 /* Shift (tmp1 & 63). */
164 lsr tmp2, tmp2, tmp4 /* Shift (tmp1 & 63). */
  /external/llvm/test/Analysis/BasicAA/
byval.ll 13 %tmp4 = load i32, i32* %tmp2, align 4 ; <i32> [#uses=1]
14 ret i32 %tmp4
noalias-wraparound-bug.ll 14 %tmp4 = getelementptr i8, i8* %buffer, i32 128
15 %tmp5 = bitcast i8* %tmp4 to i32*
  /external/llvm/test/Analysis/ScalarEvolution/
2008-05-25-NegativeStepToZero.ll 12 %tmp4 = add i8 %x.0, -4 ; <i8> [#uses=1]
16 %x.0 = phi i8 [ 0, %entry ], [ %tmp4, %bb ] ; <i8> [#uses=2]
trip-count2.ll 15 %tmp4 = mul i32 %i.0, 4 ; <i32> [#uses=1]
16 %tmp5 = or i32 %tmp4, 1
  /external/llvm/test/CodeGen/AArch64/
arm64-alloca-frame-pointer-offset.ll 23 %tmp4 = load i32, i32* %a.addr, align 4
24 store i32 %tmp4, i32* %j, align 4
arm64-misched-forwarding-A53.ll 19 %tmp4 = mul i64 %tmp2, %tmp3
21 ret i64 %tmp4
  /external/llvm/test/CodeGen/AMDGPU/
llvm.amdgcn.s.barrier.ll 15 %tmp4 = sub i32 %tmp3, %tmp
16 %tmp5 = getelementptr i32, i32 addrspace(1)* %out, i32 %tmp4
promote-alloca-invariant-markers.ll 17 %tmp4 = call {}* @llvm.invariant.start(i64 4, i8* %tmp1) #0
18 call void @llvm.invariant.end({}* %tmp4, i64 4, i8* %tmp1) #0

Completed in 1244 milliseconds

1 2 3 4 5 6 7 891011>>