HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 176 - 200 of 1043) sorted by null

1 2 3 4 5 6 78 91011>>

  /external/llvm/test/CodeGen/ARM/
vtbl.ll 22 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4)
33 %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1
35 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5)
45 %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1
48 %tmp7 = call <8 x i8> @llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6)
58 %tmp4 = call <8 x i8> @llvm.arm.neon.vtbx1(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> %tmp3)
59 ret <8 x i8> %tmp4
68 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
70 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5
    [all...]
pack.ll 7 %tmp4 = shl i32 %Y, 16
8 %tmp5 = or i32 %tmp4, %tmp1
17 %tmp4 = and i32 %tmp3, -65536
18 %tmp57 = or i32 %tmp4, %tmp1
45 %tmp4 = lshr i32 %tmp2, 16
46 %tmp5 = or i32 %tmp4, %tmp17
66 %tmp4 = and i32 %tmp38, 65535
67 %tmp59 = or i32 %tmp4, %tmp1
76 %tmp4 = and i32 %tmp3, 65535
77 %tmp57 = or i32 %tmp4, %tmp
    [all...]
smul.ll 15 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1]
16 ret i32 %tmp4
24 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1]
25 ret i32 %tmp4
43 %tmp4 = mul i32 %tmp3, %tmp1
44 %tmp5 = add i32 %tmp4, %a
53 %tmp4 = mul i32 %tmp3, %tmp1
54 %tmp5 = add i32 %tmp4, %a
63 %tmp4 = mul i32 %tmp3, %tmp1
64 %tmp5 = add i32 %tmp4, %
    [all...]
vadd.ll 157 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
158 %tmp5 = add <8 x i16> %tmp3, %tmp4
168 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
169 %tmp5 = add <4 x i32> %tmp3, %tmp4
179 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
180 %tmp5 = add <2 x i64> %tmp3, %tmp4
190 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
191 %tmp5 = add <8 x i16> %tmp3, %tmp4
201 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
202 %tmp5 = add <4 x i32> %tmp3, %tmp4
    [all...]
vsub.ll 157 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
158 %tmp5 = sub <8 x i16> %tmp3, %tmp4
168 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
169 %tmp5 = sub <4 x i32> %tmp3, %tmp4
179 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
180 %tmp5 = sub <2 x i64> %tmp3, %tmp4
190 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
191 %tmp5 = sub <8 x i16> %tmp3, %tmp4
201 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
202 %tmp5 = sub <4 x i32> %tmp3, %tmp4
    [all...]
ldr.ll 58 %tmp4 = load i32, i32* %tmp3
59 ret i32 %tmp4
69 %tmp4 = load i32, i32* %tmp3
70 ret i32 %tmp4
  /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
vtbl.ll 22 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4)
33 %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1
35 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5)
45 %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1
48 %tmp7 = call <8 x i8> @llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6)
58 %tmp4 = call <8 x i8> @llvm.arm.neon.vtbx1(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> %tmp3)
59 ret <8 x i8> %tmp4
68 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1
70 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5
    [all...]
vadd.ll 161 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
162 %tmp5 = add <8 x i16> %tmp3, %tmp4
172 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
173 %tmp5 = add <4 x i32> %tmp3, %tmp4
183 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
184 %tmp5 = add <2 x i64> %tmp3, %tmp4
194 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
195 %tmp5 = add <8 x i16> %tmp3, %tmp4
205 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
206 %tmp5 = add <4 x i32> %tmp3, %tmp4
    [all...]
vsub.ll 161 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
162 %tmp5 = sub <8 x i16> %tmp3, %tmp4
172 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
173 %tmp5 = sub <4 x i32> %tmp3, %tmp4
183 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
184 %tmp5 = sub <2 x i64> %tmp3, %tmp4
194 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
195 %tmp5 = sub <8 x i16> %tmp3, %tmp4
205 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
206 %tmp5 = sub <4 x i32> %tmp3, %tmp4
    [all...]
  /external/llvm/test/CodeGen/Thumb2/
thumb2-pack.ll 7 %tmp4 = shl i32 %Y, 16 ; <i32> [#uses=1]
8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
26 %tmp4 = and i32 %tmp3, -65536 ; <i32> [#uses=1]
27 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
54 %tmp4 = lshr i32 %tmp2, 16 ; <i32> [#uses=2]
55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1]
75 %tmp4 = and i32 %tmp38, 65535 ; <i32> [#uses=1]
76 %tmp59 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
85 %tmp4 = and i32 %tmp3, 65535 ; <i32> [#uses=1]
86 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1
    [all...]
  /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb2/
thumb2-pack.ll 7 %tmp4 = shl i32 %Y, 16 ; <i32> [#uses=1]
8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
26 %tmp4 = and i32 %tmp3, -65536 ; <i32> [#uses=1]
27 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
54 %tmp4 = lshr i32 %tmp2, 16 ; <i32> [#uses=2]
55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1]
75 %tmp4 = and i32 %tmp38, 65535 ; <i32> [#uses=1]
76 %tmp59 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1]
85 %tmp4 = and i32 %tmp3, 65535 ; <i32> [#uses=1]
86 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1
    [all...]
  /bionic/libc/arch-arm64/generic/bionic/
strlen.S 51 #define tmp4 x7 define
114 orr tmp4, data2, REP8_7f
116 bic has_nul2, tmp3, tmp4
154 orr tmp4, data2, REP8_7f
156 bic has_nul2, tmp3, tmp4
188 orr tmp4, data2, REP8_7f
190 bic has_nul2, tmp3, tmp4
197 orr tmp4, data2, REP8_7f
199 bic has_nul2, tmp3, tmp4
211 mov tmp4, -
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-vabs.ll 10 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
11 ret <8 x i16> %tmp4
20 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
21 ret <4 x i32> %tmp4
30 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
31 ret <2 x i64> %tmp4
42 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
43 ret <8 x i16> %tmp4
54 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
55 ret <4 x i32> %tmp4
    [all...]
  /external/libvpx/libvpx/vpx_dsp/mips/
avg_msa.c 62 v8i16 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; local
65 BUTTERFLY_8(src0, src2, src4, src6, src7, src5, src3, src1, tmp0, tmp2, tmp4,
67 BUTTERFLY_8(tmp0, tmp1, tmp4, tmp5, tmp7, tmp6, tmp3, tmp2, src0, src1, src4,
70 tmp4, tmp5, tmp1, tmp6, tmp2);
71 TRANSPOSE8x8_SH_SH(tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, src0, src1,
73 BUTTERFLY_8(src0, src2, src4, src6, src7, src5, src3, src1, tmp0, tmp2, tmp4,
75 BUTTERFLY_8(tmp0, tmp1, tmp4, tmp5, tmp7, tmp6, tmp3, tmp2, src0, src1, src4,
78 tmp4, tmp5, tmp1, tmp6, tmp2);
79 TRANSPOSE8x8_SH_SH(tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, src0, src1,
87 v8i16 src11, src12, src13, src14, src15, tmp0, tmp1, tmp2, tmp3, tmp4, tmp5 local
    [all...]
  /external/llvm/test/CodeGen/PowerPC/
vec_shuffle_p8vector.ll 9 %tmp4 = extractelement <4 x i32> %tmp2, i32 3
11 %tmp6 = insertelement <4 x i32> %tmp5, i32 %tmp4, i32 1
13 %tmp8 = insertelement <4 x i32> %tmp7, i32 %tmp4, i32 3
33 %tmp4 = bitcast <2 x i64> %tmp3 to <4 x i32>
36 %tmp7 = extractelement <4 x i32> %tmp4, i32 1
37 %tmp8 = extractelement <4 x i32> %tmp4, i32 3
  /external/llvm/test/CodeGen/X86/
zext-sext.ll 25 %tmp4 = mul i32 %tmp3, 2122487257
26 %tmp5 = icmp sge i32 %tmp4, 2138875574
27 %tmp6 = icmp slt i32 %tmp4, -8608074
30 %tmp8 = icmp slt i32 %tmp4, 0
33 %tmp11 = sext i32 %tmp4 to i64
45 %tmp14 = zext i32 %tmp4 to i64
  /external/swiftshader/third_party/LLVM/test/CodeGen/X86/
zext-sext.ll 23 %tmp4 = mul i32 %tmp3, 2122487257
24 %tmp5 = icmp sge i32 %tmp4, 2138875574
25 %tmp6 = icmp slt i32 %tmp4, -8608074
28 %tmp8 = icmp slt i32 %tmp4, 0
31 %tmp11 = sext i32 %tmp4 to i64
40 %tmp14 = zext i32 %tmp4 to i64
  /external/llvm/test/Analysis/BasicAA/
no-escape-call.ll 11 %tmp4 = getelementptr [10 x i8*], [10 x i8*]* %arr, i32 0, i32 %i ; <i8**> [#uses=2]
12 store i8* %tmp2, i8** %tmp4, align 4
15 %tmp14 = load i8*, i8** %tmp4, align 4 ; <i8*> [#uses=1]
  /external/llvm/test/CodeGen/NVPTX/
bug26185-2.ll 16 %tmp4 = bitcast i8 addrspace(1)* %arg1 to i64 addrspace(1)*
24 %tmp10 = load i64, i64 addrspace(1)* %tmp4, align 8
26 store i64 %tmp11, i64 addrspace(1)* %tmp4, align 8
  /external/llvm/test/Transforms/InstCombine/
bswap.ll 10 %tmp4 = and i32 %tmp3, 65280
11 %tmp5 = or i32 %tmp1, %tmp4
24 %tmp4 = shl i32 %arg, 8
25 %tmp5 = and i32 %tmp4, 16711680
39 %tmp4 = shl i16 %s, 8
40 %tmp5 = or i16 %tmp2, %tmp4
48 %tmp4 = shl i16 %s, 8
49 %tmp5 = or i16 %tmp4, %tmp2
60 %tmp4 = and i32 %tmp, 255
61 %tmp5 = shl i32 %tmp4,
    [all...]
  /external/llvm/test/Transforms/StructurizeCFG/
one-loop-multiple-backedges.ll 13 %tmp4 = fcmp ult float %arg1, 3.500000e+00
14 ; CHECK: %0 = xor i1 %tmp4, true
16 br i1 %tmp4, label %bb7, label %bb5
  /external/clang/test/CodeGen/
arm-neon-fma.c 15 // CHECK: [[TMP4:%.*]] = bitcast <8 x i8> [[TMP1]] to <2 x float>
17 // CHECK: [[TMP6:%.*]] = call <2 x float> @llvm.fma.v2f32(<2 x float> [[TMP4]], <2 x float> [[TMP5]], <2 x float> [[TMP3]]) #2
28 // CHECK: [[TMP4:%.*]] = bitcast <16 x i8> [[TMP1]] to <4 x float>
30 // CHECK: [[TMP6:%.*]] = call <4 x float> @llvm.fma.v4f32(<4 x float> [[TMP4]], <4 x float> [[TMP5]], <4 x float> [[TMP3]]) #2
  /external/libopus/silk/fixed/mips/
prefilter_FIX_mipsr1.h 51 opus_int32 acc_Q11, acc_Q22, tmp1, tmp2, tmp3, tmp4; local
74 tmp4 = silk_SMLAWB( state_cur, state_next, lambda_Q16 );
77 tmp3 = silk_SMLAWB( state_next, tmp1 - tmp4, lambda_Q16 );
78 state[ 1 ] = tmp4;
80 acc_Q22 = silk_SMLAWB( acc_Q22, tmp4, coef_Q13[ 0 ] );
95 tmp4 = silk_SMLAWB( state_cur, state_next - tmp3, lambda_Q16 );
99 tmp3 = silk_SMLAWB( state_next, tmp1 - tmp4, lambda_Q16 );
100 state[ i + 1 ] = tmp4;
101 acc_Q22 = silk_SMLAWB( acc_Q22, tmp4, coef_Q13[ i ] );
  /external/llvm/test/CodeGen/AMDGPU/
cndmask-no-def-vcc.ll 15 %tmp4 = select i1 %c, float %arg, float 1.000000e+00
18 %tmp7 = fcmp olt float %arg, %tmp4
42 %tmp4 = select i1 %undef, float %arg, float 1.000000e+00
45 %tmp7 = fcmp olt float %arg, %tmp4
  /external/llvm/test/CodeGen/Generic/
i128-addsub.ll 7 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
8 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
26 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1]
27 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]

Completed in 785 milliseconds

1 2 3 4 5 6 78 91011>>