HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 76 - 100 of 1043) sorted by null

1 2 34 5 6 7 8 91011>>

  /external/clang/test/CodeGen/
builtins-arm-exclusive.c 38 // CHECK: [[TMP4:%.*]] = bitcast i8* %addr to i64*
39 // CHECK: [[TMP5:%.*]] = bitcast i64* [[TMP4]] to i8*
62 // CHECK: [[TMP4:%.*]] = bitcast i8* %addr to double*
63 // CHECK: [[TMP5:%.*]] = bitcast double* [[TMP4]] to i8*
73 // CHECK-ARM64: [[TMP4:%.*]] = bitcast i8* %addr to double*
74 // CHECK-ARM64: [[TMP5:%.*]] = bitcast double* [[TMP4]] to i64*
79 // CHECK: [[TMP4:%.*]] = bitcast i8* %addr to i32**
80 // CHECK: [[TMP5:%.*]] = bitcast i32** [[TMP4]] to i32*
84 // CHECK-ARM64: [[TMP4:%.*]] = bitcast i8* %addr to i32**
85 // CHECK-ARM64: [[TMP5:%.*]] = bitcast i32** [[TMP4]] to i64
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-fmuladd.ll 10 %tmp4 = call float @llvm.fmuladd.f32(float %tmp1, float %tmp2, float %tmp3)
11 ret float %tmp4
21 %tmp4 = call <2 x float> @llvm.fmuladd.v2f32(<2 x float> %tmp1, <2 x float> %tmp2, <2 x float> %tmp3)
22 ret <2 x float> %tmp4
32 %tmp4 = call <4 x float> @llvm.fmuladd.v4f32(<4 x float> %tmp1, <4 x float> %tmp2, <4 x float> %tmp3)
33 ret <4 x float> %tmp4
44 %tmp4 = call <8 x float> @llvm.fmuladd.v8f32(<8 x float> %tmp1, <8 x float> %tmp2, <8 x float> %tmp3)
45 ret <8 x float> %tmp4
55 %tmp4 = call double @llvm.fmuladd.f64(double %tmp1, double %tmp2, double %tmp3)
56 ret double %tmp4
    [all...]
aarch64-smull.ll 9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
10 %tmp5 = mul <8 x i16> %tmp3, %tmp4
20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
21 %tmp5 = mul <4 x i32> %tmp3, %tmp4
31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
32 %tmp5 = mul <2 x i64> %tmp3, %tmp4
42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
43 %tmp5 = mul <8 x i16> %tmp3, %tmp4
53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
54 %tmp5 = mul <4 x i32> %tmp3, %tmp4
    [all...]
arm64-2011-04-21-CPSRBug.ll 11 %tmp4 = load i8, i8* undef, align 1
12 %tobool = trunc i8 %tmp4 to i1
arm64-dead-def-frame-index.ll 11 %tmp4 = zext i1 %tmp3 to i32
13 ret i32 %tmp4
  /external/llvm/test/CodeGen/X86/
bt.ll 30 %tmp4 = icmp eq i32 %tmp3, 0
31 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
50 %tmp4 = icmp eq i32 %tmp3, 0
51 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
70 %tmp4 = icmp eq i32 %tmp3, 0
71 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
90 %tmp4 = icmp eq i32 %tmp3, 0
91 br i1 %tmp4, label %bb, label %UnifiedReturnBlock
110 %tmp4 = icmp eq i32 %tmp3, 0
111 br i1 %tmp4, label %bb, label %UnifiedReturnBloc
    [all...]
2006-05-17-VectorArg.ll 9 %tmp4 = fdiv float 1.000000e+00, %tmp3 ; <float> [#uses=1]
10 %tmp11 = insertelement <4 x float> zeroinitializer, float %tmp4, i32 3 ; <<4 x float>> [#uses=1]
  /external/llvm/test/CodeGen/ARM/
vld3.ll 22 %tmp4 = add <8 x i8> %tmp2, %tmp3
23 ret <8 x i8> %tmp4
33 %tmp4 = add <4 x i16> %tmp2, %tmp3
34 ret <4 x i16> %tmp4
46 %tmp4 = add <4 x i16> %tmp2, %tmp3
49 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
vld4.ll 21 %tmp4 = add <8 x i8> %tmp2, %tmp3
22 ret <8 x i8> %tmp4
33 %tmp4 = add <8 x i8> %tmp2, %tmp3
36 ret <8 x i8> %tmp4
47 %tmp4 = add <4 x i16> %tmp2, %tmp3
48 ret <4 x i16> %tmp4
59 %tmp4 = add <2 x i32> %tmp2, %tmp3
60 ret <2 x i32> %tmp4
70 %tmp4 = fadd <2 x float> %tmp2, %tmp3
71 ret <2 x float> %tmp4
    [all...]
2008-03-05-SxtInRegBug.ll 8 %tmp4.i.i = icmp slt i8 %tmp3.i.i, 0 ; <i1> [#uses=1]
9 br i1 %tmp4.i.i, label %bb2, label %bb3
fnmul.ll 11 %tmp4 = fmul double %tmp2, %b ; <double> [#uses=1]
12 ret double %tmp4
ifcvt6.ll 8 %tmp4 = icmp eq i32 %Y, 0 ; <i1> [#uses=1]
9 %tmp7 = or i1 %tmp4, %tmp1 ; <i1> [#uses=1]
uxtb.ll 36 %tmp4 = shl i32 %x, 16 ; <i32> [#uses=1]
37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
45 %tmp4 = shl i32 %x, 16 ; <i32> [#uses=1]
46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
61 %tmp4 = shl i32 %x, 8 ; <i32> [#uses=1]
62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1]
70 %tmp4 = lshr i32 %tmp2, 5 ; <i32> [#uses=1]
71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1]
v1-constant-fold.ll 12 %tmp4 = add <4 x i32> %tmp3, <i32 -1, i32 -1, i32 -1, i32 -1>
14 call void @bar(<4 x i32> %tmp4)
  /external/llvm/test/CodeGen/PowerPC/
vec_shuffle_p8vector_le.ll 8 %tmp4 = extractelement <4 x i32> %tmp2, i32 2
10 %tmp6 = insertelement <4 x i32> %tmp5, i32 %tmp4, i32 1
12 %tmp8 = insertelement <4 x i32> %tmp7, i32 %tmp4, i32 3
27 %tmp4 = bitcast <2 x i64> %tmp3 to <4 x i32>
30 %tmp7 = extractelement <4 x i32> %tmp4, i32 0
31 %tmp8 = extractelement <4 x i32> %tmp4, i32 2
2007-05-30-dagcombine-miscomp.ll 10 %tmp4 = shl i8 %tmp23, 1 ; <i8> [#uses=1]
11 %tmp5 = and i8 %tmp4, 2 ; <i8> [#uses=1]
and-branch.ll 7 %tmp4 = and i1 %tmp3, %tmp ; <i1> [#uses=1]
8 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock
  /external/llvm/test/Transforms/Reassociate/
repeats.ll 43 %tmp4 = mul i8 %tmp3, 3
44 ret i8 %tmp4
57 %tmp4 = mul i3 %tmp3, %x
58 ret i3 %tmp4
70 %tmp4 = mul i3 %tmp3, %x
71 %tmp5 = mul i3 %tmp4, %x
84 %tmp4 = mul i3 %tmp3, %x
85 %tmp5 = mul i3 %tmp4, %x
99 %tmp4 = mul i4 %tmp3, %x
100 %tmp5 = mul i4 %tmp4, %
    [all...]
  /external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/
bswap-fold.ll 32 %tmp4 = lshr i32 %tmp2, 24
33 ret i32 %tmp4
40 %tmp4 = tail call i32 @llvm.bswap.i32( i32 %tmp2 )
41 ret i32 %tmp4
48 %tmp4 = and i32 %tmp2, 255
49 ret i32 %tmp4
  /external/webrtc/webrtc/common_audio/signal_processing/
complex_bit_reverse_mips.c 67 int32_t tmp1, tmp2, tmp3, tmp4; local
83 "lh %[tmp4], 6(%[pcoeftable_8]) \n\t"
87 "addu %[ti], %[frfi], %[tmp4] \n\t"
91 "ulw %[tmp4], 0(%[ti]) \n\t"
94 "usw %[tmp4], 0(%[tr]) \n\t"
107 "ulw %[tmp4], 0(%[ti]) \n\t"
110 "usw %[tmp4], 0(%[tr]) \n\t"
119 [ti] "=&r" (ti), [tmp4] "=&r" (tmp4)
135 "lh %[tmp4], 6(%[pcoeftable_7]) \n\t
    [all...]
  /external/llvm/test/Analysis/BasicAA/
2007-10-24-ArgumentsGlobals.ll 12 %tmp4 = getelementptr %struct.A, %struct.A* %b, i32 0, i32 0 ;<i32*> [#uses=1]
13 store i32 0, i32* %tmp4, align 4
  /external/llvm/test/Analysis/ScalarEvolution/
2007-09-27-LargeStepping.ll 12 %tmp4 = add i32 %i.0, 268435456 ; <i32> [#uses=1]
17 %i.0 = phi i32 [ -1879048192, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2]
  /external/llvm/test/CodeGen/AMDGPU/
reorder-stores.ll 12 %tmp4 = load <2 x double>, <2 x double> addrspace(1)* %y, align 16
13 store <2 x double> %tmp4, <2 x double> addrspace(1)* %x, align 16
24 %tmp4 = load <2 x double>, <2 x double> addrspace(3)* %y, align 16
25 store <2 x double> %tmp4, <2 x double> addrspace(3)* %x, align 16
44 %tmp4 = load <8 x i32>, <8 x i32> addrspace(1)* %y, align 32
45 store <8 x i32> %tmp4, <8 x i32> addrspace(1)* %x, align 32
59 %tmp4 = load <2 x i32>, <2 x i32> addrspace(3)* %y, align 8
61 %tmp4ext = zext <2 x i32> %tmp4 to <2 x i64>
  /external/llvm/test/CodeGen/NVPTX/
vector-select.ll 9 %tmp4 = load <2 x i32>, <2 x i32> addrspace(1)* %def_a
12 %0 = icmp sge <2 x i32> %tmp4, zeroinitializer
  /external/llvm/test/CodeGen/Thumb2/
thumb2-ldr_post.ll 7 %tmp4 = sub i32 %tmp1, 8 ; <i32> [#uses=1]
8 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]

Completed in 510 milliseconds

1 2 34 5 6 7 8 91011>>