| /external/clang/test/CodeGen/ |
| builtins-arm-exclusive.c | 38 // CHECK: [[TMP4:%.*]] = bitcast i8* %addr to i64* 39 // CHECK: [[TMP5:%.*]] = bitcast i64* [[TMP4]] to i8* 62 // CHECK: [[TMP4:%.*]] = bitcast i8* %addr to double* 63 // CHECK: [[TMP5:%.*]] = bitcast double* [[TMP4]] to i8* 73 // CHECK-ARM64: [[TMP4:%.*]] = bitcast i8* %addr to double* 74 // CHECK-ARM64: [[TMP5:%.*]] = bitcast double* [[TMP4]] to i64* 79 // CHECK: [[TMP4:%.*]] = bitcast i8* %addr to i32** 80 // CHECK: [[TMP5:%.*]] = bitcast i32** [[TMP4]] to i32* 84 // CHECK-ARM64: [[TMP4:%.*]] = bitcast i8* %addr to i32** 85 // CHECK-ARM64: [[TMP5:%.*]] = bitcast i32** [[TMP4]] to i64 [all...] |
| /external/llvm/test/CodeGen/AArch64/ |
| arm64-fmuladd.ll | 10 %tmp4 = call float @llvm.fmuladd.f32(float %tmp1, float %tmp2, float %tmp3) 11 ret float %tmp4 21 %tmp4 = call <2 x float> @llvm.fmuladd.v2f32(<2 x float> %tmp1, <2 x float> %tmp2, <2 x float> %tmp3) 22 ret <2 x float> %tmp4 32 %tmp4 = call <4 x float> @llvm.fmuladd.v4f32(<4 x float> %tmp1, <4 x float> %tmp2, <4 x float> %tmp3) 33 ret <4 x float> %tmp4 44 %tmp4 = call <8 x float> @llvm.fmuladd.v8f32(<8 x float> %tmp1, <8 x float> %tmp2, <8 x float> %tmp3) 45 ret <8 x float> %tmp4 55 %tmp4 = call double @llvm.fmuladd.f64(double %tmp1, double %tmp2, double %tmp3) 56 ret double %tmp4 [all...] |
| aarch64-smull.ll | 9 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 10 %tmp5 = mul <8 x i16> %tmp3, %tmp4 20 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 21 %tmp5 = mul <4 x i32> %tmp3, %tmp4 31 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 32 %tmp5 = mul <2 x i64> %tmp3, %tmp4 42 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 43 %tmp5 = mul <8 x i16> %tmp3, %tmp4 53 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 54 %tmp5 = mul <4 x i32> %tmp3, %tmp4 [all...] |
| arm64-2011-04-21-CPSRBug.ll | 11 %tmp4 = load i8, i8* undef, align 1 12 %tobool = trunc i8 %tmp4 to i1
|
| arm64-dead-def-frame-index.ll | 11 %tmp4 = zext i1 %tmp3 to i32 13 ret i32 %tmp4
|
| /external/llvm/test/CodeGen/X86/ |
| bt.ll | 30 %tmp4 = icmp eq i32 %tmp3, 0 31 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 50 %tmp4 = icmp eq i32 %tmp3, 0 51 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 70 %tmp4 = icmp eq i32 %tmp3, 0 71 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 90 %tmp4 = icmp eq i32 %tmp3, 0 91 br i1 %tmp4, label %bb, label %UnifiedReturnBlock 110 %tmp4 = icmp eq i32 %tmp3, 0 111 br i1 %tmp4, label %bb, label %UnifiedReturnBloc [all...] |
| 2006-05-17-VectorArg.ll | 9 %tmp4 = fdiv float 1.000000e+00, %tmp3 ; <float> [#uses=1] 10 %tmp11 = insertelement <4 x float> zeroinitializer, float %tmp4, i32 3 ; <<4 x float>> [#uses=1]
|
| /external/llvm/test/CodeGen/ARM/ |
| vld3.ll | 22 %tmp4 = add <8 x i8> %tmp2, %tmp3 23 ret <8 x i8> %tmp4 33 %tmp4 = add <4 x i16> %tmp2, %tmp3 34 ret <4 x i16> %tmp4 46 %tmp4 = add <4 x i16> %tmp2, %tmp3 49 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
| vld4.ll | 21 %tmp4 = add <8 x i8> %tmp2, %tmp3 22 ret <8 x i8> %tmp4 33 %tmp4 = add <8 x i8> %tmp2, %tmp3 36 ret <8 x i8> %tmp4 47 %tmp4 = add <4 x i16> %tmp2, %tmp3 48 ret <4 x i16> %tmp4 59 %tmp4 = add <2 x i32> %tmp2, %tmp3 60 ret <2 x i32> %tmp4 70 %tmp4 = fadd <2 x float> %tmp2, %tmp3 71 ret <2 x float> %tmp4 [all...] |
| 2008-03-05-SxtInRegBug.ll | 8 %tmp4.i.i = icmp slt i8 %tmp3.i.i, 0 ; <i1> [#uses=1] 9 br i1 %tmp4.i.i, label %bb2, label %bb3
|
| fnmul.ll | 11 %tmp4 = fmul double %tmp2, %b ; <double> [#uses=1] 12 ret double %tmp4
|
| ifcvt6.ll | 8 %tmp4 = icmp eq i32 %Y, 0 ; <i1> [#uses=1] 9 %tmp7 = or i1 %tmp4, %tmp1 ; <i1> [#uses=1]
|
| uxtb.ll | 36 %tmp4 = shl i32 %x, 16 ; <i32> [#uses=1] 37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 45 %tmp4 = shl i32 %x, 16 ; <i32> [#uses=1] 46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 61 %tmp4 = shl i32 %x, 8 ; <i32> [#uses=1] 62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 70 %tmp4 = lshr i32 %tmp2, 5 ; <i32> [#uses=1] 71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1]
|
| v1-constant-fold.ll | 12 %tmp4 = add <4 x i32> %tmp3, <i32 -1, i32 -1, i32 -1, i32 -1> 14 call void @bar(<4 x i32> %tmp4)
|
| /external/llvm/test/CodeGen/PowerPC/ |
| vec_shuffle_p8vector_le.ll | 8 %tmp4 = extractelement <4 x i32> %tmp2, i32 2 10 %tmp6 = insertelement <4 x i32> %tmp5, i32 %tmp4, i32 1 12 %tmp8 = insertelement <4 x i32> %tmp7, i32 %tmp4, i32 3 27 %tmp4 = bitcast <2 x i64> %tmp3 to <4 x i32> 30 %tmp7 = extractelement <4 x i32> %tmp4, i32 0 31 %tmp8 = extractelement <4 x i32> %tmp4, i32 2
|
| 2007-05-30-dagcombine-miscomp.ll | 10 %tmp4 = shl i8 %tmp23, 1 ; <i8> [#uses=1] 11 %tmp5 = and i8 %tmp4, 2 ; <i8> [#uses=1]
|
| and-branch.ll | 7 %tmp4 = and i1 %tmp3, %tmp ; <i1> [#uses=1] 8 br i1 %tmp4, label %cond_true, label %UnifiedReturnBlock
|
| /external/llvm/test/Transforms/Reassociate/ |
| repeats.ll | 43 %tmp4 = mul i8 %tmp3, 3 44 ret i8 %tmp4 57 %tmp4 = mul i3 %tmp3, %x 58 ret i3 %tmp4 70 %tmp4 = mul i3 %tmp3, %x 71 %tmp5 = mul i3 %tmp4, %x 84 %tmp4 = mul i3 %tmp3, %x 85 %tmp5 = mul i3 %tmp4, %x 99 %tmp4 = mul i4 %tmp3, %x 100 %tmp5 = mul i4 %tmp4, % [all...] |
| /external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/ |
| bswap-fold.ll | 32 %tmp4 = lshr i32 %tmp2, 24
33 ret i32 %tmp4
40 %tmp4 = tail call i32 @llvm.bswap.i32( i32 %tmp2 )
41 ret i32 %tmp4
48 %tmp4 = and i32 %tmp2, 255
49 ret i32 %tmp4
|
| /external/webrtc/webrtc/common_audio/signal_processing/ |
| complex_bit_reverse_mips.c | 67 int32_t tmp1, tmp2, tmp3, tmp4; local 83 "lh %[tmp4], 6(%[pcoeftable_8]) \n\t" 87 "addu %[ti], %[frfi], %[tmp4] \n\t" 91 "ulw %[tmp4], 0(%[ti]) \n\t" 94 "usw %[tmp4], 0(%[tr]) \n\t" 107 "ulw %[tmp4], 0(%[ti]) \n\t" 110 "usw %[tmp4], 0(%[tr]) \n\t" 119 [ti] "=&r" (ti), [tmp4] "=&r" (tmp4) 135 "lh %[tmp4], 6(%[pcoeftable_7]) \n\t [all...] |
| /external/llvm/test/Analysis/BasicAA/ |
| 2007-10-24-ArgumentsGlobals.ll | 12 %tmp4 = getelementptr %struct.A, %struct.A* %b, i32 0, i32 0 ;<i32*> [#uses=1] 13 store i32 0, i32* %tmp4, align 4
|
| /external/llvm/test/Analysis/ScalarEvolution/ |
| 2007-09-27-LargeStepping.ll | 12 %tmp4 = add i32 %i.0, 268435456 ; <i32> [#uses=1] 17 %i.0 = phi i32 [ -1879048192, %entry ], [ %tmp4, %bb ] ; <i32> [#uses=2]
|
| /external/llvm/test/CodeGen/AMDGPU/ |
| reorder-stores.ll | 12 %tmp4 = load <2 x double>, <2 x double> addrspace(1)* %y, align 16 13 store <2 x double> %tmp4, <2 x double> addrspace(1)* %x, align 16 24 %tmp4 = load <2 x double>, <2 x double> addrspace(3)* %y, align 16 25 store <2 x double> %tmp4, <2 x double> addrspace(3)* %x, align 16 44 %tmp4 = load <8 x i32>, <8 x i32> addrspace(1)* %y, align 32 45 store <8 x i32> %tmp4, <8 x i32> addrspace(1)* %x, align 32 59 %tmp4 = load <2 x i32>, <2 x i32> addrspace(3)* %y, align 8 61 %tmp4ext = zext <2 x i32> %tmp4 to <2 x i64>
|
| /external/llvm/test/CodeGen/NVPTX/ |
| vector-select.ll | 9 %tmp4 = load <2 x i32>, <2 x i32> addrspace(1)* %def_a 12 %0 = icmp sge <2 x i32> %tmp4, zeroinitializer
|
| /external/llvm/test/CodeGen/Thumb2/ |
| thumb2-ldr_post.ll | 7 %tmp4 = sub i32 %tmp1, 8 ; <i32> [#uses=1] 8 %tmp5 = mul i32 %tmp4, %tmp3 ; <i32> [#uses=1]
|