HomeSort by relevance Sort by last modified time
    Searched full:tmp4 (Results 451 - 475 of 1043) sorted by null

<<11121314151617181920>>

  /external/libjpeg-turbo/simd/
jfdctint-sse2.asm 207 psubw xmm2,xmm4 ; xmm2=data3-data4=tmp4
269 movdqa xmm6,xmm2 ; xmm2=tmp4
298 ; z1 = tmp4 + tmp7; z2 = tmp5 + tmp6;
299 ; tmp4 = tmp4 * 0.298631336; tmp5 = tmp5 * 2.053119869;
302 ; data7 = tmp4 + z1 + z3; data5 = tmp5 + z2 + z4;
306 ; tmp4 = tmp4 * (0.298631336 - 0.899976223) + tmp7 * -0.899976223;
309 ; tmp7 = tmp4 * -0.899976223 + tmp7 * (1.501321110 - 0.899976223);
310 ; data7 = tmp4 + z3; data5 = tmp5 + z4
    [all...]
  /external/llvm/test/CodeGen/ARM/
rev.ll 8 %tmp4 = shl i32 %X15, 8
10 %tmp5 = and i32 %tmp4, -16777216
12 %tmp13 = and i32 %tmp4, 65280
26 %tmp4 = shl i16 %tmp3, 8
27 %tmp5 = or i16 %tmp2, %tmp4
vabd.ll 155 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
156 ret <8 x i16> %tmp4
165 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
166 ret <4 x i32> %tmp4
175 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
176 ret <2 x i64> %tmp4
185 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
186 ret <8 x i16> %tmp4
195 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
196 ret <4 x i32> %tmp4
    [all...]
  /external/llvm/test/Transforms/DeadStoreElimination/
cs-cs-aliasing.ll 26 %tmp4 = bitcast %union.anon* %tmp3 to i8*
29 %tmp7 = getelementptr inbounds i8, i8* %tmp4, i64 1
41 store i8* %tmp4, i8** %tmp5, align 8
42 store i8 62, i8* %tmp4, align 8
66 call void @llvm.memset.p0i8.i64(i8* %tmp4, i8 -51, i64 16, i32 8, i1 false) #0
  /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/
rev.ll 8 %tmp4 = shl i32 %X15, 8
10 %tmp5 = and i32 %tmp4, -16777216
12 %tmp13 = and i32 %tmp4, 65280
26 %tmp4 = shl i16 %tmp3, 8
27 %tmp5 = or i16 %tmp2, %tmp4
vabd.ll 155 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
156 ret <8 x i16> %tmp4
165 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
166 ret <4 x i32> %tmp4
175 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64>
176 ret <2 x i64> %tmp4
185 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16>
186 ret <8 x i16> %tmp4
195 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32>
196 ret <4 x i32> %tmp4
    [all...]
vdup.ll 9 %tmp4 = insertelement <8 x i8> %tmp3, i8 %A, i32 3
10 %tmp5 = insertelement <8 x i8> %tmp4, i8 %A, i32 4
23 %tmp4 = insertelement <4 x i16> %tmp3, i16 %A, i32 3
24 ret <4 x i16> %tmp4
49 %tmp4 = insertelement <16 x i8> %tmp3, i8 %A, i32 3
50 %tmp5 = insertelement <16 x i8> %tmp4, i8 %A, i32 4
71 %tmp4 = insertelement <8 x i16> %tmp3, i16 %A, i32 3
72 %tmp5 = insertelement <8 x i16> %tmp4, i16 %A, i32 4
85 %tmp4 = insertelement <4 x i32> %tmp3, i32 %A, i32 3
86 ret <4 x i32> %tmp4
    [all...]
  /external/libvpx/libvpx/vp8/common/mips/msa/
loopfilter_filters_msa.c 252 v8i16 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5; local
279 ILVRL_H2_SH(tmp1, tmp0, tmp4, tmp5);
284 ST4x8_UB(tmp4, tmp5, src, pitch);
372 v8i16 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; local
389 ILVRL_H2_SH(tmp1, tmp0, tmp3, tmp4);
403 VP8_ST6x1_UB(tmp4, 0, tmp2, 4, temp_src, 4);
405 VP8_ST6x1_UB(tmp4, 1, tmp2, 5, temp_src, 4);
407 VP8_ST6x1_UB(tmp4, 2, tmp2, 6, temp_src, 4);
409 VP8_ST6x1_UB(tmp4, 3, tmp2, 7, temp_src, 4);
437 v8i16 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7 local
592 v4i32 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5; local
    [all...]
  /external/llvm/test/Analysis/ScalarEvolution/
sext-iv-2.ll 5 ; CHECK: %tmp4 = mul i32 %tmp3, %i.02
32 %tmp4 = mul i32 %tmp3, %i.02 ; <i32> [#uses=1]
36 store i32 %tmp4, i32* %tmp7, align 4
  /external/llvm/test/CodeGen/AArch64/
merge-store.ll 12 %tmp4 = getelementptr inbounds <3 x float>, <3 x float>* @g1, i64 0, i64 0
15 store float %tmp6, float* %tmp4
16 %tmp7 = getelementptr inbounds float, float* %tmp4, i64 1
arm64-vsub.ll 131 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
132 %tmp5 = sub <8 x i16> %tmp3, %tmp4
142 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
143 %tmp5 = sub <4 x i32> %tmp3, %tmp4
153 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
154 %tmp5 = sub <2 x i64> %tmp3, %tmp4
209 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
210 %tmp5 = sub <8 x i16> %tmp3, %tmp4
220 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
221 %tmp5 = sub <4 x i32> %tmp3, %tmp4
    [all...]
  /external/llvm/test/CodeGen/AMDGPU/
r600-infinite-loop-bug-while-reorganizing-vector.ll 8 %tmp4 = extractelement <4 x float> %arg, i32 3
12 %tmp8 = insertelement <4 x float> %tmp7, float %tmp4, i32 3
27 %tmp23 = insertelement <4 x float> %tmp22, float %tmp4, i32 3
  /external/llvm/test/CodeGen/Mips/Fast-ISel/
bswap1.ll 25 ; 32R1: andi $[[TMP4:[0-9]+]], $[[TMP3]], 65535
44 ; 32R1: or $[[TMP4:[0-9]+]], $[[TMP2]], $[[TMP3]]
48 ; 32R1: or $[[TMP8:[0-9]+]], $[[TMP4]], $[[TMP6]]
  /external/llvm/test/CodeGen/X86/
vec_ins_extract.ll 27 %tmp4 = load <4 x float>, <4 x float>* %G ; <<4 x float>> [#uses=2]
28 %tmp6 = fadd <4 x float> %tmp4, %tmp4 ; <<4 x float>> [#uses=1]
vector.ll 120 %tmp4 = add %i4 %tmp3, < i32 1, i32 2, i32 3, i32 4 > ; <%i4> [#uses=1]
121 store %i4 %tmp4, %i4* %a
138 %tmp4 = insertelement %f4 %tmp2, float %X, i32 2 ; <%f4> [#uses=1]
139 %tmp6 = insertelement %f4 %tmp4, float %X, i32 3 ; <%f4> [#uses=1]
149 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1]
150 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1]
  /external/llvm/test/Transforms/InstCombine/
shift-sra.ll 16 %tmp4 = add i32 %tmp3, 7 ; <i32> [#uses=1]
17 %tmp5 = ashr i32 %tmp4, 3 ; <i32> [#uses=1]
20 ; CHECK: lshr i32 %tmp4, 3
  /external/llvm/test/Transforms/SafeStack/
phi-cycle.ll 21 %tmp4 = trunc i64 %tmp3 to i32
22 %tmp5 = icmp sgt i32 %tmp4, 0
35 %tmp16 = icmp eq i32 %tmp15, %tmp4
  /external/swiftshader/third_party/LLVM/test/Analysis/ScalarEvolution/
sext-iv-2.ll 5 ; CHECK: %tmp4 = mul i32 %tmp3, %i.02
32 %tmp4 = mul i32 %tmp3, %i.02 ; <i32> [#uses=1]
36 store i32 %tmp4, i32* %tmp7, align 4
  /external/swiftshader/third_party/LLVM/test/CodeGen/X86/
vec_ins_extract.ll 26 %tmp4 = load <4 x float>* %G ; <<4 x float>> [#uses=2]
27 %tmp6 = fadd <4 x float> %tmp4, %tmp4 ; <<4 x float>> [#uses=1]
vector.ll 120 %tmp4 = add %i4 %tmp3, < i32 1, i32 2, i32 3, i32 4 > ; <%i4> [#uses=1]
121 store %i4 %tmp4, %i4* %a
138 %tmp4 = insertelement %f4 %tmp2, float %X, i32 2 ; <%f4> [#uses=1]
139 %tmp6 = insertelement %f4 %tmp4, float %X, i32 3 ; <%f4> [#uses=1]
149 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1]
150 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/Transforms/InstCombine/
shift-sra.ll 16 %tmp4 = add i32 %tmp3, 7 ; <i32> [#uses=1]
17 %tmp5 = ashr i32 %tmp4, 3 ; <i32> [#uses=1]
20 ; CHECK: lshr i32 %tmp4, 3
  /external/llvm/test/CodeGen/PowerPC/
vector.ll 130 %tmp4 = add %i4 %tmp3, < i32 1, i32 2, i32 3, i32 4 >
131 store %i4 %tmp4, %i4* %a
148 %tmp4 = insertelement %f4 %tmp2, float %X, i32 2
149 %tmp6 = insertelement %f4 %tmp4, float %X, i32 3
159 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2
160 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3
  /external/swiftshader/third_party/LLVM/test/CodeGen/Generic/
vector.ll 120 %tmp4 = add %i4 %tmp3, < i32 1, i32 2, i32 3, i32 4 > ; <%i4> [#uses=1]
121 store %i4 %tmp4, %i4* %a
137 %tmp4 = insertelement %f4 %tmp2, float %X, i32 2 ; <%f4> [#uses=1]
138 %tmp6 = insertelement %f4 %tmp4, float %X, i32 3 ; <%f4> [#uses=1]
148 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2 ; <%i4> [#uses=1]
149 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3 ; <%i4> [#uses=1]
  /external/swiftshader/third_party/LLVM/test/CodeGen/PowerPC/
vector.ll 122 %tmp4 = add %i4 %tmp3, < i32 1, i32 2, i32 3, i32 4 >
123 store %i4 %tmp4, %i4* %a
140 %tmp4 = insertelement %f4 %tmp2, float %X, i32 2
141 %tmp6 = insertelement %f4 %tmp4, float %X, i32 3
151 %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2
152 %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3
  /external/swiftshader/third_party/LLVM/test/Transforms/ScalarRepl/
vector_promote.ll 13 %tmp4 = load <4 x float>* %G ; <<4 x float>> [#uses=2]
14 %tmp6 = fadd <4 x float> %tmp4, %tmp4 ; <<4 x float>> [#uses=1]
32 %tmp4 = load <4 x float>* %G ; <<4 x float>> [#uses=2]
33 %tmp6 = fadd <4 x float> %tmp4, %tmp4 ; <<4 x float>> [#uses=1]

Completed in 1211 milliseconds

<<11121314151617181920>>