HomeSort by relevance Sort by last modified time
    Searched full:add2 (Results 51 - 75 of 304) sorted by null

1 23 4 5 6 7 8 91011>>

  /external/libvpx/libvpx/vpx_dsp/mips/
fwd_dct32x32_msa.c 89 ADD2(vec4, vec5, vec7, vec6, vec0, vec1);
105 ADD2(in0, in1, in2, in3, vec0, vec7);
125 ADD2(in3, in2, in0, in1, vec3, vec4);
186 ADD2(in27, in26, in25, in24, in23, in20);
206 ADD2(in26, in27, in24, in25, in22, in21);
220 ADD2(in28, in29, in31, in30, in16, in19);
239 ADD2(in29, in28, in30, in31, in17, in18);
347 ADD2(vec4, vec5, vec7, vec6, vec0, vec1);
364 ADD2(in0, in1, in2, in3, vec0, vec7);
384 ADD2(in3, in2, in0, in1, vec3, vec4)
    [all...]
  /external/llvm/test/CodeGen/SystemZ/
int-add-02.ll 114 %add2 = add i64 %add1, 4092
115 %ptr = inttoptr i64 %add2 to i32 *
127 %add2 = add i64 %add1, 4096
128 %ptr = inttoptr i64 %add2 to i32 *
165 %add2 = add i32 %add1, %val2
166 %add3 = add i32 %add2, %val3
and-05.ll 144 %add2 = add i64 %add1, 4095
145 %ptr = inttoptr i64 %add2 to i8 *
159 %add2 = add i64 %add1, 4096
160 %ptr = inttoptr i64 %add2 to i8 *
fp-move-03.ll 94 %add2 = add i64 %add1, 4092
95 %ptr = inttoptr i64 %add2 to float *
106 %add2 = add i64 %add1, 4096
107 %ptr = inttoptr i64 %add2 to float *
fp-move-04.ll 95 %add2 = add i64 %add1, 4095
96 %ptr = inttoptr i64 %add2 to double *
107 %add2 = add i64 %add1, 4096
108 %ptr = inttoptr i64 %add2 to double *
fp-move-06.ll 94 %add2 = add i64 %add1, 4092
95 %ptr = inttoptr i64 %add2 to float *
106 %add2 = add i64 %add1, 4096
107 %ptr = inttoptr i64 %add2 to float *
fp-move-07.ll 95 %add2 = add i64 %add1, 4095
96 %ptr = inttoptr i64 %add2 to double *
107 %add2 = add i64 %add1, 4096
108 %ptr = inttoptr i64 %add2 to double *
fp-move-11.ll 94 %add2 = add i64 %add1, 4092
95 %ptr = inttoptr i64 %add2 to float *
106 %add2 = add i64 %add1, 4096
107 %ptr = inttoptr i64 %add2 to float *
int-add-01.ll 111 %add2 = add i64 %add1, 4094
112 %ptr = inttoptr i64 %add2 to i16 *
125 %add2 = add i64 %add1, 4096
126 %ptr = inttoptr i64 %add2 to i16 *
int-add-05.ll 92 %add2 = add i64 %add1, 524280
93 %ptr = inttoptr i64 %add2 to i64 *
130 %add2 = add i64 %add1, %val2
131 %add3 = add i64 %add2, %val3
int-const-03.ll 149 %add2 = add i64 %add1, 4095
150 %ptr = inttoptr i64 %add2 to i8 *
162 %add2 = add i64 %add1, 4096
163 %ptr = inttoptr i64 %add2 to i8 *
  /external/llvm/test/Transforms/Reassociate/
canonicalize-neg-const.ll 15 %add2 = fadd double %mul1, %x
16 %mul3 = fmul double %add, %add2
31 %add2 = fadd double %mul1, %x
32 %mul3 = fmul double %add, %add2
47 %add2 = fsub double %x, %mul1
48 %mul3 = fmul double %add, %add2
  /external/llvm/test/CodeGen/AMDGPU/
ds_read2_offset_order.ll 26 %add2 = fadd float %add1, %val2
30 %add3 = fadd float %add2, %val3
  /external/llvm/test/CodeGen/MSP430/
spill-to-stack.ll 25 %add2 = add i32 %1, 2
26 store i32 %add2, i32* %p1
  /external/llvm/test/Transforms/InstCombine/
add2.ll 186 %add2 = xor i32 %x.not, -1431655765
187 %add1 = add nsw i32 %add2, %y
210 %add2 = add nsw i16 %add1, %x
211 ret i16 %add2
213 ; CHECK-NEXT: %add2 = mul nsw i16 %x, 3
214 ; CHECK-NEXT: ret i16 %add2
219 %add2 = add nsw i16 %x, %mul1
220 ret i16 %add2
222 ; CHECK-NEXT: %add2 = mul nsw i16 %x, 9
223 ; CHECK-NEXT: ret i16 %add2
    [all...]
  /external/llvm/test/Transforms/LoopDistribute/
pr28443.ll 27 ; CHECK: %[[add2:.*]] = add nsw i64 %[[phi]], 805306369
28 ; CHECK: %[[gep2:.*]] = getelementptr inbounds i64, i64* %b, i64 %[[add2]]
  /external/llvm/test/Transforms/LoopVectorize/
noalias-md-licm.ll 44 %add2 = add nuw i32 %add, %loadC
46 store i32 %add2, i32* %arrayidxA, align 4
  /external/llvm/test/Transforms/PGOProfile/
icp_mismatch_msg.ll 34 %add2 = add nsw i32 %add, %call2
35 ret i32 %add2
  /external/llvm/test/Transforms/SLPVectorizer/X86/
barriercall.ll 16 %add2 = add nsw i32 %mul1, 9
18 store i32 %add2, i32* %arrayidx3, align 4
cross_block_slp.ll 33 %add2 = fadd float %1, 8.000000e+00
46 %conv5 = fpext float %add2 to double
extractcost.ll 15 %add2 = add nsw i32 %mul1, 9
17 store i32 %add2, i32* %arrayidx3, align 4
pr16899.ll 17 %c.0 = phi i32 [ %2, %entry ], [ %add2, %do.body ]
20 %add2 = add nsw i32 %add, 1
return.ll 28 %add2 = fadd double %add0, %add1
29 ret double %add2
  /external/llvm/test/Analysis/ScalarEvolution/
trip-count.ll 58 %add2 = add i64 %add, %zext
59 store i64 %add2, i64* %arrayidx, align 8
79 %add2.1 = add i64 %add.1, %zext.1
80 store i64 %add2.1, i64* %arrayidx.1, align 8
  /external/llvm/test/CodeGen/AArch64/
addsub.ll 47 ; CHECK: add [[ADD2:x[0-9]+]], x[[LOAD32]], #12
48 %add2 = add nuw i64 %promoted, 12
51 ; CHECK: str [[ADD2]], [x1]
52 store i64 %add2, i64* %q

Completed in 491 milliseconds

1 23 4 5 6 7 8 91011>>