/external/llvm/test/CodeGen/SystemZ/ |
int-move-02.ll | 94 %add2 = add i64 %add1, 4095 95 %ptr = inttoptr i64 %add2 to i32 * 106 %add2 = add i64 %add1, 4096 107 %ptr = inttoptr i64 %add2 to i32 *
|
int-move-04.ll | 114 %add2 = add i64 %add1, 4095 115 %ptr = inttoptr i64 %add2 to i8 * 126 %add2 = add i64 %add1, 4096 127 %ptr = inttoptr i64 %add2 to i8 *
|
int-move-05.ll | 114 %add2 = add i64 %add1, 4094 115 %ptr = inttoptr i64 %add2 to i16 * 126 %add2 = add i64 %add1, 4096 127 %ptr = inttoptr i64 %add2 to i16 *
|
int-move-06.ll | 101 %add2 = add i64 %add1, 4095 102 %ptr = inttoptr i64 %add2 to i32 * 113 %add2 = add i64 %add1, 4096 114 %ptr = inttoptr i64 %add2 to i32 *
|
int-mul-01.ll | 111 %add2 = add i64 %add1, 4094 112 %ptr = inttoptr i64 %add2 to i16 * 125 %add2 = add i64 %add1, 4096 126 %ptr = inttoptr i64 %add2 to i16 *
|
or-05.ll | 144 %add2 = add i64 %add1, 4095 145 %ptr = inttoptr i64 %add2 to i8 * 159 %add2 = add i64 %add1, 4096 160 %ptr = inttoptr i64 %add2 to i8 *
|
xor-05.ll | 144 %add2 = add i64 %add1, 4095 145 %ptr = inttoptr i64 %add2 to i8 * 159 %add2 = add i64 %add1, 4096 160 %ptr = inttoptr i64 %add2 to i8 *
|
swift-return.ll | 82 %add2 = add nsw i32 %add1, %v7 83 %add3 = add nsw i32 %add2, %v8 136 %add2 = add nsw i32 %add1, %v7 137 ret i32 %add2 168 %add2 = fadd float %add1, %v7 169 ret float %add2
|
/external/swiftshader/third_party/LLVM/unittests/ExecutionEngine/JIT/ |
MultiJITTest.cpp | 54 "define i32 @add2(i32 %ArgX2) { " 62 " %add2 = call i32 @add2(i32 10) " 63 " ret i32 %add2 "
|
/external/swiftshader/third_party/subzero/tests_lit/llvm2ice_tests/ |
mips-legalization.ll | 53 %add2 = add i32 %4, %5 55 store i32 %add2, i32* %r3.bc, align 1 76 ; MIPS32: addu [[ADD2:.*]],[[TMP_B]],[[TMP_E]] 77 ; MIPS32: sw [[ADD2]],28(sp)
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
intrinsic.ll | 87 %add2 = add i32 %i2, %i3 88 %call2 = tail call i32 @llvm.bswap.i32(i32 %add2) nounwind readnone 134 %add2 = add i32 %i2, %i3 135 %call2 = tail call i32 @llvm.ctlz.i32(i32 %add2,i1 true) nounwind readnone 179 %add2 = add i32 %i2, %i3 180 %call2 = tail call i32 @llvm.ctlz.i32(i32 %add2,i1 false) nounwind readnone 224 %add2 = add i32 %i2, %i3 225 %call2 = tail call i32 @llvm.cttz.i32(i32 %add2,i1 true) nounwind readnone 269 %add2 = add i32 %i2, %i3 270 %call2 = tail call i32 @llvm.cttz.i32(i32 %add2,i1 false) nounwind readnon [all...] |
/external/llvm/test/CodeGen/AArch64/ |
arm64-fml-combines.ll | 65 %add2 = fsub fast <2 x float> %e2, <float 3.000000e+00, float -3.000000e+00> 68 %mul2 = fmul fast <2 x float> %add2,<float 3.000000e+00, float -3.000000e+00> 72 %mulx = fmul fast <2 x float> %add2, %e2 107 %add2 = fadd fast <4 x float> %e2, <float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00> 110 %mul2 = fmul fast <4 x float> %add2,<float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00> 114 %mulx = fmul fast <4 x float> %add2, %e2
|
/external/llvm/test/CodeGen/X86/ |
swift-return.ll | 76 %add2 = add nsw i32 %add1, %v7 77 %add3 = add nsw i32 %add2, %v8 130 %add2 = add nsw i32 %add1, %v7 131 ret i32 %add2 162 %add2 = fadd float %add1, %v7 163 ret float %add2
|
/external/llvm/test/Transforms/LoopReroll/ |
complex_reroll.ll | 65 %S.addr.0.lcssa = phi i32 [ %add2, %for.cond.for.cond.cleanup_crit_edge ], [ %S, %entry ] 81 %S.addr.011 = phi i32 [ %S, %for.body.lr.ph ], [ %add2, %for.body ] 88 %add2 = add nsw i32 %add, %1 115 %S.012 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ] 121 %add2 = add nsw i32 %add, %1 131 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2, %while.end.loopexit ]
|
/prebuilts/go/darwin-x86/src/crypto/elliptic/ |
p256_asm_s390x.s | 531 #define ADD2 V18 569 VMLF X1, YDIG, ADD2 575 VMALF M1, MK0, ADD2, RED2 576 VMALHF M1, MK0, ADD2, RED2H 619 * | ADD2 | ADD1 | 636 VMALF X1, YDIG, T1, ADD2 642 VMALF M1, MK0, ADD2, RED2 643 VMALHF M1, MK0, ADD2, RED2H 667 VMALF X1, YDIG, T1, ADD2 673 VMALF M1, MK0, ADD2, RED [all...] |
/prebuilts/go/linux-x86/src/crypto/elliptic/ |
p256_asm_s390x.s | 531 #define ADD2 V18 569 VMLF X1, YDIG, ADD2 575 VMALF M1, MK0, ADD2, RED2 576 VMALHF M1, MK0, ADD2, RED2H 619 * | ADD2 | ADD1 | 636 VMALF X1, YDIG, T1, ADD2 642 VMALF M1, MK0, ADD2, RED2 643 VMALHF M1, MK0, ADD2, RED2H 667 VMALF X1, YDIG, T1, ADD2 673 VMALF M1, MK0, ADD2, RED [all...] |
/art/test/706-checker-scheduler/src/ |
Main.java | 73 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>] 79 /// CHECK: <<ArrayGet2:i\d+>> ArrayGet [<<Array>>,<<Add2>>] 81 /// CHECK: <<ArraySet2:v\d+>> ArraySet [<<Array>>,<<Add2>>,<<AddArray2>>] 92 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>] 111 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>] 117 /// CHECK: <<ArrayGet2:i\d+>> ArrayGet [<<Array>>,<<Add2>>] 119 /// CHECK: <<ArraySet2:v\d+>> ArraySet [<<Array>>,<<Add2>>,<<AddArray2>>] 130 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>]
|
/external/libvpx/libvpx/vp8/encoder/mips/msa/ |
denoising_msa.c | 111 ADD2(col_sum0, adjust0, col_sum1, adjust1, col_sum0, col_sum1); 113 ADD2(temp0_h, adjust0, temp1_h, adjust1, temp0_h, temp1_h); 159 ADD2(col_sum0, adjust0, col_sum1, adjust1, col_sum0, col_sum1); 161 ADD2(temp0_h, adjust0, temp1_h, adjust1, temp0_h, temp1_h); 224 ADD2(temp2_h, adjust0, temp3_h, adjust1, adjust2, adjust3); 237 ADD2(col_sum2, adjust0, col_sum3, adjust1, col_sum2, col_sum3); 258 ADD2(temp2_h, adjust0, temp3_h, adjust1, adjust2, adjust3); 271 ADD2(col_sum2, adjust0, col_sum3, adjust1, col_sum2, col_sum3);
|
/external/libvpx/libvpx/vpx_dsp/mips/ |
idct16x16_msa.c | 388 ADD2(res0, out0, res1, out1, res0, res1); 405 ADD2(res8, out8, res9, out9, res8, res9); 420 ADD2(res4, out4, res5, out5, res4, res5); 432 ADD2(res12, out12, res13, out13, res12, res13); 445 ADD2(res6, out6, res7, out7, res6, res7); 456 ADD2(res10, out10, res11, out11, res10, res11); 469 ADD2(res2, out2, res3, out3, res2, res3); 480 ADD2(res14, out14, res15, out15, res14, res15);
|
/external/llvm/test/CodeGen/AMDGPU/ |
saddo.ll | 14 %add2 = add i64 %val, %ext 15 store i64 %add2, i64 addrspace(1)* %out, align 8
|
ssubo.ll | 14 %add2 = add i64 %val, %ext 15 store i64 %add2, i64 addrspace(1)* %out, align 8
|
/external/llvm/test/CodeGen/ARM/ |
special-reg-acore.ll | 23 %add2 = add i32 %add1, %2 24 ret i32 %add2
|
/external/llvm/test/CodeGen/Hexagon/ |
store-shift.ll | 21 %add2 = add nsw i32 %N, 6 22 %arrayidx3 = getelementptr inbounds i32, i32* %A, i32 %add2
|
/external/llvm/test/CodeGen/Hexagon/vect/ |
vect-shift-imm.ll | 29 %add2 = add i64 %add1, %3 30 %add3 = add i64 %add2, %4
|
/external/llvm/test/CodeGen/Mips/ |
return-vector.ll | 25 %add2 = add i32 %v2, %v3 28 %add5 = add i32 %add1, %add2 55 %add2 = fadd float %v2, %v3 56 %add3 = fadd float %add1, %add2 77 %add2 = fadd double %v2, %v3 78 %add3 = fadd double %add1, %add2 108 %add2 = add i32 %v2, %v3 109 %add3 = add i32 %add1, %add2
|