/external/llvm/test/Transforms/LoopVectorize/ |
induction_plus.ll | 11 ;CHECK: %vec.ind1 = phi <4 x i32> [ <i32 0, i32 1, i32 2, i32 3>, %vector.ph ], [ %step.add2, %vector.body ]
|
/external/swiftshader/third_party/subzero/tests_lit/assembler/x86/ |
immediate_encodings.ll | 96 %add2 = add i16 %add1, %x3 97 %result = zext i16 %add2 to i32 142 %add2 = add i32 %add1, %x3 143 ret i32 %add2
|
/external/llvm/test/CodeGen/ARM/ |
special-reg-mcore.ll | 30 %add2 = add i32 %add1, %2 32 %add3 = add i32 %add2, %3
|
special-reg-v8m-base.ll | 32 %add2 = add i32 %add1, %2 34 %add3 = add i32 %add2, %3
|
special-reg-v8m-main.ll | 40 %add2 = add i32 %add1, %2 42 %add3 = add i32 %add2, %3
|
thumb1_return_sequence.ll | 100 %add2 = add nsw i32 %add1, %3 101 %add3 = add nsw i32 %add2, %4
|
/external/llvm/test/CodeGen/SystemZ/ |
cmpxchg-03.ll | 116 %add2 = add i64 %add1, 4096 117 %ptr = inttoptr i64 %add2 to i32 *
|
int-add-08.ll | 138 %add2 = add i128 %add1, %val2 139 %add3 = add i128 %add2, %val3
|
int-add-10.ll | 158 %add2 = add i64 %add1, 524284 159 %ptr = inttoptr i64 %add2 to i32 *
|
int-mul-03.ll | 98 %add2 = add i64 %add1, 524284 99 %ptr = inttoptr i64 %add2 to i32 *
|
int-sub-02.ll | 98 %add2 = add i64 %add1, 524284 99 %ptr = inttoptr i64 %add2 to i32 *
|
int-sub-03.ll | 98 %add2 = add i64 %add1, 524284 99 %ptr = inttoptr i64 %add2 to i32 *
|
int-sub-06.ll | 158 %add2 = add i64 %add1, 524284 159 %ptr = inttoptr i64 %add2 to i32 *
|
asm-18.ll | 573 %add2 = add i32 %res2, 1 574 %res3 = call i32 asm "stepc $0, $1", "=h,h"(i32 %add2) 594 %add2 = add i32 %res2, 1 595 %res3 = call i32 asm "stepc $0, $1", "=r,r"(i32 %add2) 620 %add2 = add i32 %res1, 254 622 "=h,r,0"(i32 %res1, i32 %add2) 646 %add2 = add i32 %res2, 32768 647 %res3 = call i32 asm "stepc $0, $1", "=h,h"(i32 %add2) 667 %add2 = add i32 %res2, 32768 668 %res3 = call i32 asm "stepc $0, $1", "=r,r"(i32 %add2) [all...] |
bswap-02.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i32 *
|
bswap-03.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i64 *
|
/external/llvm/test/CodeGen/X86/ |
add-nsw-sext.ll | 157 %add2 = add nsw i32 %i, 2 158 %idx2 = sext i32 %add2 to i64
|
atomic_add.ll | 86 define void @add2(i16* nocapture %p, i32 %v) nounwind ssp { 88 ; CHECK-LABEL: add2:
|
/external/llvm/test/DebugInfo/COFF/ |
parameter-order.ll | 75 %add2 = add nsw i32 %add1, %3, !dbg !28 77 %add3 = add nsw i32 %add2, %4, !dbg !30
|
/external/llvm/test/Transforms/LoopIdiom/AMDGPU/ |
popcnt.ll | 125 %add2 = add i32 %add, %c.0.lcssa 126 ret i32 %add2
|
/external/llvm/test/Transforms/LoopIdiom/X86/ |
popcnt.ll | 73 %add2 = add i32 %add, %c.0.lcssa 74 ret i32 %add2
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
addsub.ll | 30 %add2 = add nsw i32 %add, %add1 31 store i32 %add2, i32* getelementptr inbounds ([4 x i32], [4 x i32]* @a, i32 0, i64 0), align 4 78 %add2 = add nsw i32 %4, %5 82 %add4 = add nsw i32 %add2, %add3 150 %add2 = fadd float %6, %7 151 store float %add2, float* getelementptr inbounds ([4 x float], [4 x float]* @fa, i32 0, i64 3), align 4 172 %add2 = fadd float %4, %5 173 store float %add2, float* getelementptr inbounds ([4 x float], [4 x float]* @fa, i32 0, i64 2), align 4
|
/external/libpng/mips/ |
filter_msa_intrinsics.c | 280 #define ADD2(in0, in1, in2, in3, out0, out1) \ 288 ADD2(in0, in1, in2, in3, out0, out1); \ 294 ADD2(in0, in1, in2, in3, out0, out1); \ 295 ADD2(in4, in5, in6, in7, out2, out3); \ 427 ADD2(src0, src4, src1, src5, src0, src1); 438 ADD2(src0, src4, src1, src5, src0, src1);
|
/external/llvm/test/CodeGen/AArch64/ |
arm64-misched-basic-A53.ll | 53 %add2 = add nsw i32 %6, 23 54 store i32 %add2, i32* %xx, align 4
|
/external/llvm/test/CodeGen/Mips/ |
tailcall.ll | 107 %add2 = add nsw i32 %add1, %a3 108 %add3 = add nsw i32 %add2, %a4
|