HomeSort by relevance Sort by last modified time
    Searched full:add2 (Results 76 - 100 of 304) sorted by null

1 2 34 5 6 7 8 91011>>

  /external/llvm/test/CodeGen/SystemZ/
int-move-02.ll 94 %add2 = add i64 %add1, 4095
95 %ptr = inttoptr i64 %add2 to i32 *
106 %add2 = add i64 %add1, 4096
107 %ptr = inttoptr i64 %add2 to i32 *
int-move-04.ll 114 %add2 = add i64 %add1, 4095
115 %ptr = inttoptr i64 %add2 to i8 *
126 %add2 = add i64 %add1, 4096
127 %ptr = inttoptr i64 %add2 to i8 *
int-move-05.ll 114 %add2 = add i64 %add1, 4094
115 %ptr = inttoptr i64 %add2 to i16 *
126 %add2 = add i64 %add1, 4096
127 %ptr = inttoptr i64 %add2 to i16 *
int-move-06.ll 101 %add2 = add i64 %add1, 4095
102 %ptr = inttoptr i64 %add2 to i32 *
113 %add2 = add i64 %add1, 4096
114 %ptr = inttoptr i64 %add2 to i32 *
int-mul-01.ll 111 %add2 = add i64 %add1, 4094
112 %ptr = inttoptr i64 %add2 to i16 *
125 %add2 = add i64 %add1, 4096
126 %ptr = inttoptr i64 %add2 to i16 *
or-05.ll 144 %add2 = add i64 %add1, 4095
145 %ptr = inttoptr i64 %add2 to i8 *
159 %add2 = add i64 %add1, 4096
160 %ptr = inttoptr i64 %add2 to i8 *
xor-05.ll 144 %add2 = add i64 %add1, 4095
145 %ptr = inttoptr i64 %add2 to i8 *
159 %add2 = add i64 %add1, 4096
160 %ptr = inttoptr i64 %add2 to i8 *
swift-return.ll 82 %add2 = add nsw i32 %add1, %v7
83 %add3 = add nsw i32 %add2, %v8
136 %add2 = add nsw i32 %add1, %v7
137 ret i32 %add2
168 %add2 = fadd float %add1, %v7
169 ret float %add2
  /external/swiftshader/third_party/LLVM/unittests/ExecutionEngine/JIT/
MultiJITTest.cpp 54 "define i32 @add2(i32 %ArgX2) { "
62 " %add2 = call i32 @add2(i32 10) "
63 " ret i32 %add2 "
  /external/swiftshader/third_party/subzero/tests_lit/llvm2ice_tests/
mips-legalization.ll 53 %add2 = add i32 %4, %5
55 store i32 %add2, i32* %r3.bc, align 1
76 ; MIPS32: addu [[ADD2:.*]],[[TMP_B]],[[TMP_E]]
77 ; MIPS32: sw [[ADD2]],28(sp)
  /external/llvm/test/Transforms/SLPVectorizer/X86/
intrinsic.ll 87 %add2 = add i32 %i2, %i3
88 %call2 = tail call i32 @llvm.bswap.i32(i32 %add2) nounwind readnone
134 %add2 = add i32 %i2, %i3
135 %call2 = tail call i32 @llvm.ctlz.i32(i32 %add2,i1 true) nounwind readnone
179 %add2 = add i32 %i2, %i3
180 %call2 = tail call i32 @llvm.ctlz.i32(i32 %add2,i1 false) nounwind readnone
224 %add2 = add i32 %i2, %i3
225 %call2 = tail call i32 @llvm.cttz.i32(i32 %add2,i1 true) nounwind readnone
269 %add2 = add i32 %i2, %i3
270 %call2 = tail call i32 @llvm.cttz.i32(i32 %add2,i1 false) nounwind readnon
    [all...]
  /external/llvm/test/CodeGen/AArch64/
arm64-fml-combines.ll 65 %add2 = fsub fast <2 x float> %e2, <float 3.000000e+00, float -3.000000e+00>
68 %mul2 = fmul fast <2 x float> %add2,<float 3.000000e+00, float -3.000000e+00>
72 %mulx = fmul fast <2 x float> %add2, %e2
107 %add2 = fadd fast <4 x float> %e2, <float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00>
110 %mul2 = fmul fast <4 x float> %add2,<float 3.000000e+00, float -3.000000e+00, float 5.000000e+00, float 7.000000e+00>
114 %mulx = fmul fast <4 x float> %add2, %e2
  /external/llvm/test/CodeGen/X86/
swift-return.ll 76 %add2 = add nsw i32 %add1, %v7
77 %add3 = add nsw i32 %add2, %v8
130 %add2 = add nsw i32 %add1, %v7
131 ret i32 %add2
162 %add2 = fadd float %add1, %v7
163 ret float %add2
  /external/llvm/test/Transforms/LoopReroll/
complex_reroll.ll 65 %S.addr.0.lcssa = phi i32 [ %add2, %for.cond.for.cond.cleanup_crit_edge ], [ %S, %entry ]
81 %S.addr.011 = phi i32 [ %S, %for.body.lr.ph ], [ %add2, %for.body ]
88 %add2 = add nsw i32 %add, %1
115 %S.012 = phi i32 [ %add2, %while.body ], [ undef, %while.body.preheader ]
121 %add2 = add nsw i32 %add, %1
131 %S.0.lcssa = phi i32 [ undef, %entry ], [ %add2, %while.end.loopexit ]
  /prebuilts/go/darwin-x86/src/crypto/elliptic/
p256_asm_s390x.s 531 #define ADD2 V18
569 VMLF X1, YDIG, ADD2
575 VMALF M1, MK0, ADD2, RED2
576 VMALHF M1, MK0, ADD2, RED2H
619 * | ADD2 | ADD1 |
636 VMALF X1, YDIG, T1, ADD2
642 VMALF M1, MK0, ADD2, RED2
643 VMALHF M1, MK0, ADD2, RED2H
667 VMALF X1, YDIG, T1, ADD2
673 VMALF M1, MK0, ADD2, RED
    [all...]
  /prebuilts/go/linux-x86/src/crypto/elliptic/
p256_asm_s390x.s 531 #define ADD2 V18
569 VMLF X1, YDIG, ADD2
575 VMALF M1, MK0, ADD2, RED2
576 VMALHF M1, MK0, ADD2, RED2H
619 * | ADD2 | ADD1 |
636 VMALF X1, YDIG, T1, ADD2
642 VMALF M1, MK0, ADD2, RED2
643 VMALHF M1, MK0, ADD2, RED2H
667 VMALF X1, YDIG, T1, ADD2
673 VMALF M1, MK0, ADD2, RED
    [all...]
  /art/test/706-checker-scheduler/src/
Main.java 73 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>]
79 /// CHECK: <<ArrayGet2:i\d+>> ArrayGet [<<Array>>,<<Add2>>]
81 /// CHECK: <<ArraySet2:v\d+>> ArraySet [<<Array>>,<<Add2>>,<<AddArray2>>]
92 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>]
111 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>]
117 /// CHECK: <<ArrayGet2:i\d+>> ArrayGet [<<Array>>,<<Add2>>]
119 /// CHECK: <<ArraySet2:v\d+>> ArraySet [<<Array>>,<<Add2>>,<<AddArray2>>]
130 /// CHECK: <<Add2:i\d+>> Add [<<Param>>,<<Const2>>]
  /external/libvpx/libvpx/vp8/encoder/mips/msa/
denoising_msa.c 111 ADD2(col_sum0, adjust0, col_sum1, adjust1, col_sum0, col_sum1);
113 ADD2(temp0_h, adjust0, temp1_h, adjust1, temp0_h, temp1_h);
159 ADD2(col_sum0, adjust0, col_sum1, adjust1, col_sum0, col_sum1);
161 ADD2(temp0_h, adjust0, temp1_h, adjust1, temp0_h, temp1_h);
224 ADD2(temp2_h, adjust0, temp3_h, adjust1, adjust2, adjust3);
237 ADD2(col_sum2, adjust0, col_sum3, adjust1, col_sum2, col_sum3);
258 ADD2(temp2_h, adjust0, temp3_h, adjust1, adjust2, adjust3);
271 ADD2(col_sum2, adjust0, col_sum3, adjust1, col_sum2, col_sum3);
  /external/libvpx/libvpx/vpx_dsp/mips/
idct16x16_msa.c 388 ADD2(res0, out0, res1, out1, res0, res1);
405 ADD2(res8, out8, res9, out9, res8, res9);
420 ADD2(res4, out4, res5, out5, res4, res5);
432 ADD2(res12, out12, res13, out13, res12, res13);
445 ADD2(res6, out6, res7, out7, res6, res7);
456 ADD2(res10, out10, res11, out11, res10, res11);
469 ADD2(res2, out2, res3, out3, res2, res3);
480 ADD2(res14, out14, res15, out15, res14, res15);
  /external/llvm/test/CodeGen/AMDGPU/
saddo.ll 14 %add2 = add i64 %val, %ext
15 store i64 %add2, i64 addrspace(1)* %out, align 8
ssubo.ll 14 %add2 = add i64 %val, %ext
15 store i64 %add2, i64 addrspace(1)* %out, align 8
  /external/llvm/test/CodeGen/ARM/
special-reg-acore.ll 23 %add2 = add i32 %add1, %2
24 ret i32 %add2
  /external/llvm/test/CodeGen/Hexagon/
store-shift.ll 21 %add2 = add nsw i32 %N, 6
22 %arrayidx3 = getelementptr inbounds i32, i32* %A, i32 %add2
  /external/llvm/test/CodeGen/Hexagon/vect/
vect-shift-imm.ll 29 %add2 = add i64 %add1, %3
30 %add3 = add i64 %add2, %4
  /external/llvm/test/CodeGen/Mips/
return-vector.ll 25 %add2 = add i32 %v2, %v3
28 %add5 = add i32 %add1, %add2
55 %add2 = fadd float %v2, %v3
56 %add3 = fadd float %add1, %add2
77 %add2 = fadd double %v2, %v3
78 %add3 = fadd double %add1, %add2
108 %add2 = add i32 %v2, %v3
109 %add3 = add i32 %add1, %add2

Completed in 1544 milliseconds

1 2 34 5 6 7 8 91011>>