/external/libvpx/libvpx/vpx_dsp/mips/ |
fwd_dct32x32_msa.c | 89 ADD2(vec4, vec5, vec7, vec6, vec0, vec1); 105 ADD2(in0, in1, in2, in3, vec0, vec7); 125 ADD2(in3, in2, in0, in1, vec3, vec4); 186 ADD2(in27, in26, in25, in24, in23, in20); 206 ADD2(in26, in27, in24, in25, in22, in21); 220 ADD2(in28, in29, in31, in30, in16, in19); 239 ADD2(in29, in28, in30, in31, in17, in18); 347 ADD2(vec4, vec5, vec7, vec6, vec0, vec1); 364 ADD2(in0, in1, in2, in3, vec0, vec7); 384 ADD2(in3, in2, in0, in1, vec3, vec4) [all...] |
/external/llvm/test/CodeGen/SystemZ/ |
int-add-02.ll | 114 %add2 = add i64 %add1, 4092 115 %ptr = inttoptr i64 %add2 to i32 * 127 %add2 = add i64 %add1, 4096 128 %ptr = inttoptr i64 %add2 to i32 * 165 %add2 = add i32 %add1, %val2 166 %add3 = add i32 %add2, %val3
|
and-05.ll | 144 %add2 = add i64 %add1, 4095 145 %ptr = inttoptr i64 %add2 to i8 * 159 %add2 = add i64 %add1, 4096 160 %ptr = inttoptr i64 %add2 to i8 *
|
fp-move-03.ll | 94 %add2 = add i64 %add1, 4092 95 %ptr = inttoptr i64 %add2 to float * 106 %add2 = add i64 %add1, 4096 107 %ptr = inttoptr i64 %add2 to float *
|
fp-move-04.ll | 95 %add2 = add i64 %add1, 4095 96 %ptr = inttoptr i64 %add2 to double * 107 %add2 = add i64 %add1, 4096 108 %ptr = inttoptr i64 %add2 to double *
|
fp-move-06.ll | 94 %add2 = add i64 %add1, 4092 95 %ptr = inttoptr i64 %add2 to float * 106 %add2 = add i64 %add1, 4096 107 %ptr = inttoptr i64 %add2 to float *
|
fp-move-07.ll | 95 %add2 = add i64 %add1, 4095 96 %ptr = inttoptr i64 %add2 to double * 107 %add2 = add i64 %add1, 4096 108 %ptr = inttoptr i64 %add2 to double *
|
fp-move-11.ll | 94 %add2 = add i64 %add1, 4092 95 %ptr = inttoptr i64 %add2 to float * 106 %add2 = add i64 %add1, 4096 107 %ptr = inttoptr i64 %add2 to float *
|
int-add-01.ll | 111 %add2 = add i64 %add1, 4094 112 %ptr = inttoptr i64 %add2 to i16 * 125 %add2 = add i64 %add1, 4096 126 %ptr = inttoptr i64 %add2 to i16 *
|
int-add-05.ll | 92 %add2 = add i64 %add1, 524280 93 %ptr = inttoptr i64 %add2 to i64 * 130 %add2 = add i64 %add1, %val2 131 %add3 = add i64 %add2, %val3
|
int-const-03.ll | 149 %add2 = add i64 %add1, 4095 150 %ptr = inttoptr i64 %add2 to i8 * 162 %add2 = add i64 %add1, 4096 163 %ptr = inttoptr i64 %add2 to i8 *
|
/external/llvm/test/Transforms/Reassociate/ |
canonicalize-neg-const.ll | 15 %add2 = fadd double %mul1, %x 16 %mul3 = fmul double %add, %add2 31 %add2 = fadd double %mul1, %x 32 %mul3 = fmul double %add, %add2 47 %add2 = fsub double %x, %mul1 48 %mul3 = fmul double %add, %add2
|
/external/llvm/test/CodeGen/AMDGPU/ |
ds_read2_offset_order.ll | 26 %add2 = fadd float %add1, %val2 30 %add3 = fadd float %add2, %val3
|
/external/llvm/test/CodeGen/MSP430/ |
spill-to-stack.ll | 25 %add2 = add i32 %1, 2 26 store i32 %add2, i32* %p1
|
/external/llvm/test/Transforms/InstCombine/ |
add2.ll | 186 %add2 = xor i32 %x.not, -1431655765 187 %add1 = add nsw i32 %add2, %y 210 %add2 = add nsw i16 %add1, %x 211 ret i16 %add2 213 ; CHECK-NEXT: %add2 = mul nsw i16 %x, 3 214 ; CHECK-NEXT: ret i16 %add2 219 %add2 = add nsw i16 %x, %mul1 220 ret i16 %add2 222 ; CHECK-NEXT: %add2 = mul nsw i16 %x, 9 223 ; CHECK-NEXT: ret i16 %add2 [all...] |
/external/llvm/test/Transforms/LoopDistribute/ |
pr28443.ll | 27 ; CHECK: %[[add2:.*]] = add nsw i64 %[[phi]], 805306369 28 ; CHECK: %[[gep2:.*]] = getelementptr inbounds i64, i64* %b, i64 %[[add2]]
|
/external/llvm/test/Transforms/LoopVectorize/ |
noalias-md-licm.ll | 44 %add2 = add nuw i32 %add, %loadC 46 store i32 %add2, i32* %arrayidxA, align 4
|
/external/llvm/test/Transforms/PGOProfile/ |
icp_mismatch_msg.ll | 34 %add2 = add nsw i32 %add, %call2 35 ret i32 %add2
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
barriercall.ll | 16 %add2 = add nsw i32 %mul1, 9 18 store i32 %add2, i32* %arrayidx3, align 4
|
cross_block_slp.ll | 33 %add2 = fadd float %1, 8.000000e+00 46 %conv5 = fpext float %add2 to double
|
extractcost.ll | 15 %add2 = add nsw i32 %mul1, 9 17 store i32 %add2, i32* %arrayidx3, align 4
|
pr16899.ll | 17 %c.0 = phi i32 [ %2, %entry ], [ %add2, %do.body ] 20 %add2 = add nsw i32 %add, 1
|
return.ll | 28 %add2 = fadd double %add0, %add1 29 ret double %add2
|
/external/llvm/test/Analysis/ScalarEvolution/ |
trip-count.ll | 58 %add2 = add i64 %add, %zext 59 store i64 %add2, i64* %arrayidx, align 8 79 %add2.1 = add i64 %add.1, %zext.1 80 store i64 %add2.1, i64* %arrayidx.1, align 8
|
/external/llvm/test/CodeGen/AArch64/ |
addsub.ll | 47 ; CHECK: add [[ADD2:x[0-9]+]], x[[LOAD32]], #12 48 %add2 = add nuw i64 %promoted, 12 51 ; CHECK: str [[ADD2]], [x1] 52 store i64 %add2, i64* %q
|