/external/llvm/test/Transforms/Inline/ |
vector-bonus.ll | 14 %add2 = add nsw i32 %i, %i
|
/external/llvm/test/CodeGen/SystemZ/ |
frame-07.ll | 89 %add2 = fadd double %l2, %add1 90 %add3 = fadd double %l3, %add2 105 store volatile double %add2, double *%ptr 218 %add2 = fadd double %l2, %add1 219 %add3 = fadd double %l3, %add2 234 store volatile double %add2, double *%ptr
|
int-add-11.ll | 123 %add2 = add i64 %add1, 4 124 %ptr = inttoptr i64 %add2 to i32 * 160 %add2 = add i32 %val2, 127 179 %new2 = phi i32 [ %val2, %entry ], [ %add2, %add ] 243 %add2 = add i32 %val2, -128 262 %new2 = phi i32 [ %val2, %entry ], [ %add2, %add ]
|
int-add-12.ll | 122 %add2 = add i64 %add1, 8 123 %ptr = inttoptr i64 %add2 to i64 * 159 %add2 = add i64 %val2, 127 178 %new2 = phi i64 [ %val2, %entry ], [ %add2, %add ] 242 %add2 = add i64 %val2, -128 261 %new2 = phi i64 [ %val2, %entry ], [ %add2, %add ]
|
int-cmp-02.ll | 141 %add2 = add i64 %add1, 4092 142 %ptr = inttoptr i64 %add2 to i32 * 157 %add2 = add i64 %add1, 4096 158 %ptr = inttoptr i64 %add2 to i32 *
|
int-cmp-15.ll | 220 %add2 = add i64 %add1, 4095 221 %ptr = inttoptr i64 %add2 to i8 * 235 %add2 = add i64 %add1, 4096 236 %ptr = inttoptr i64 %add2 to i8 *
|
int-conv-05.ll | 122 %add2 = add i64 %add1, 4094 123 %ptr = inttoptr i64 %add2 to i16 * 135 %add2 = add i64 %add1, 4096 136 %ptr = inttoptr i64 %add2 to i16 *
|
and-03.ll | 92 %add2 = add i64 %add1, 524280 93 %ptr = inttoptr i64 %add2 to i64 *
|
bswap-04.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i32 *
|
bswap-05.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i64 *
|
bswap-06.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i16 *
|
bswap-07.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i16 *
|
fp-add-01.ll | 108 %add2 = fadd float %add1, %val2 109 %add3 = fadd float %add2, %val3
|
fp-add-02.ll | 109 %add2 = fadd double %add1, %val2 110 %add3 = fadd double %add2, %val3
|
fp-move-05.ll | 146 %add2 = add i64 %add1, 4088 147 %ptr = inttoptr i64 %add2 to fp128 *
|
/external/apache-harmony/support/src/test/java/tests/support/ |
Support_ListTest.java | 188 Integer add2 = new Integer(601); local 196 li.add(add2); 199 previous == add2);
|
/external/llvm/test/Analysis/ScalarEvolution/ |
load.ll | 16 %sum.04 = phi i32 [ 0, %entry ], [ %add2, %for.body ] 26 %add2 = add i32 %add, %1 32 ret i32 %add2
|
/libcore/support/src/test/java/tests/support/ |
Support_ListTest.java | 188 Integer add2 = new Integer(601); local 196 li.add(add2); 199 previous == add2);
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/fr30/ |
allinsn.s | 9 .global add2 10 add2: label 11 add2 #-1, r3
|
/external/libvpx/libvpx/vp8/encoder/mips/msa/ |
temporal_filter_msa.c | 66 ADD2(mod0_h, cnt0, mod1_h, cnt1, mod0_h, mod1_h); 104 ADD2(mod0_h, cnt0, mod1_h, cnt1, mod0_h, mod1_h); 186 ADD2(mod0_h, cnt0, mod1_h, cnt1, mod0_h, mod1_h); 226 ADD2(mod0_h, cnt0, mod1_h, cnt1, mod0_h, mod1_h);
|
encodeopt_msa.c | 149 ADD2(err0, err_dup0, err1, err_dup1, err0, err1); 161 ADD2(err0, err_dup0, err1, err_dup1, err0, err1);
|
/external/llvm/test/CodeGen/AArch64/ |
arm64-misched-basic-A57.ll | 60 %add2 = add nsw i32 %7, 23 61 store i32 %add2, i32* %xx, align 4
|
/external/llvm/test/CodeGen/AMDGPU/ |
uaddo.ll | 20 %add2 = add i64 %val, %ext 21 store i64 %add2, i64 addrspace(1)* %out, align 8
|
usubo.ll | 17 %add2 = add i64 %val, %ext 18 store i64 %add2, i64 addrspace(1)* %out, align 8
|
/external/llvm/test/CodeGen/Hexagon/ |
cfi-late.ll | 26 %add2 = add nsw i32 %call, 1, !dbg !20 27 ret i32 %add2, !dbg !21
|