HomeSort by relevance Sort by last modified time
    Searched full:add2 (Results 151 - 175 of 329) sorted by null

1 2 3 4 5 67 8 91011>>

  /external/llvm/test/CodeGen/SystemZ/
bswap-04.ll 82 %add2 = add i64 %add1, 524287
83 %ptr = inttoptr i64 %add2 to i32 *
bswap-05.ll 82 %add2 = add i64 %add1, 524287
83 %ptr = inttoptr i64 %add2 to i64 *
bswap-06.ll 82 %add2 = add i64 %add1, 524287
83 %ptr = inttoptr i64 %add2 to i16 *
bswap-07.ll 82 %add2 = add i64 %add1, 524287
83 %ptr = inttoptr i64 %add2 to i16 *
fp-add-01.ll 108 %add2 = fadd float %add1, %val2
109 %add3 = fadd float %add2, %val3
fp-add-02.ll 109 %add2 = fadd double %add1, %val2
110 %add3 = fadd double %add2, %val3
fp-move-05.ll 146 %add2 = add i64 %add1, 4088
147 %ptr = inttoptr i64 %add2 to fp128 *
fp-move-08.ll 146 %add2 = add i64 %add1, 4088
147 %ptr = inttoptr i64 %add2 to fp128 *
int-cmp-04.ll 99 %add2 = add i64 %add1, 4096
100 %ptr = inttoptr i64 %add2 to i16 *
int-cmp-07.ll 111 %add2 = add i64 %add1, 524280
112 %ptr = inttoptr i64 %add2 to i64 *
int-cmp-08.ll 111 %add2 = add i64 %add1, 524280
112 %ptr = inttoptr i64 %add2 to i64 *
int-conv-10.ll 108 %add2 = add i64 %add1, 524287
109 %ptr = inttoptr i64 %add2 to i32 *
int-mul-04.ll 91 %add2 = add i64 %add1, 524280
92 %ptr = inttoptr i64 %add2 to i64 *
int-sub-04.ll 92 %add2 = add i64 %add1, 524280
93 %ptr = inttoptr i64 %add2 to i64 *
or-03.ll 92 %add2 = add i64 %add1, 524280
93 %ptr = inttoptr i64 %add2 to i64 *
xor-03.ll 92 %add2 = add i64 %add1, 524280
93 %ptr = inttoptr i64 %add2 to i64 *
fp-move-02.ll 220 %add2 = fadd double %add1, %double2
221 %add3 = fadd double %add2, %double3
253 %int2 = phi i64 [ 0, %entry ], [ %add2, %loop ]
265 %add2 = add i64 %int2, %bias
286 %conv2 = bitcast i64 %add2 to double
366 %add2 = add i64 %conv2, %bias
367 store volatile i64 %add2, i64 *@iptr
  /external/llvm/test/DebugInfo/X86/
dwarf-aranges-no-dwarf-labels.ll 49 %add2 = add nsw i32 %add, %0, !dbg !22
50 ret i32 %add2, !dbg !22
  /external/llvm/test/Transforms/LoopStrengthReduce/AArch64/
req-regs.ll 37 %add2 = shl i32 %a.154, 1
38 %add3 = add nsw i32 %add2, %i.053
  /external/llvm/test/Transforms/SLPVectorizer/X86/
commutativity.ll 66 %add2 = add i32 %c, %a
71 %2 = xor i32 %b, %add2
external_user.ll 46 %add2 = fadd double %G.019, 1.000000e+01
48 %mul3 = fmul double %add2, 4.000000e+00
  /external/swiftshader/third_party/LLVM/test/CodeGen/X86/
atomic_add.ll 79 define void @add2(i16* nocapture %p, i32 %v) nounwind ssp {
81 ; CHECK: add2:
  /external/vulkan-validation-layers/libs/glm/gtx/
simd_quat.inl 131 __m128 add2 = _mm_dp_ps(mul2, _mm_set_ps(1.0f, 1.0f, -1.0f, 1.0f), 0xff);
143 __m128 add2 = _mm_add_ps(mul2, _mm_movehl_ps(mul2, mul2));
144 add2 = _mm_add_ss(add2, _mm_shuffle_ps(add2, add2, 1));
156 //__m128 zzww = _mm_shuffle_ps(add2, add3, _MM_SHUFFLE(0, 0, 0, 0));
167 _mm_store_ss(&z, add2);
  /prebuilts/ndk/r16/sources/third_party/vulkan/src/libs/glm/gtx/
simd_quat.inl 131 __m128 add2 = _mm_dp_ps(mul2, _mm_set_ps(1.0f, 1.0f, -1.0f, 1.0f), 0xff);
143 __m128 add2 = _mm_add_ps(mul2, _mm_movehl_ps(mul2, mul2));
144 add2 = _mm_add_ss(add2, _mm_shuffle_ps(add2, add2, 1));
156 //__m128 zzww = _mm_shuffle_ps(add2, add3, _MM_SHUFFLE(0, 0, 0, 0));
167 _mm_store_ss(&z, add2);
  /external/llvm/test/CodeGen/AArch64/
aarch64-dynamic-stack-layout.ll 95 %add2 = add nsw i32 %add1, %call
96 ret i32 %add2
176 %add2 = add nsw i32 %add1, %call
177 ret i32 %add2
278 %add2 = add nsw i32 %add1, %call
280 %add3 = add nsw i32 %add2, %1
335 %add2 = add nsw i32 %add1, %1
336 ret i32 %add2
379 %add2 = add nsw i32 %add1, %call
381 %add3 = add nsw i32 %add2, %
    [all...]

Completed in 436 milliseconds

1 2 3 4 5 67 8 91011>>