/external/llvm/test/CodeGen/SystemZ/ |
bswap-04.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i32 *
|
bswap-05.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i64 *
|
bswap-06.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i16 *
|
bswap-07.ll | 82 %add2 = add i64 %add1, 524287 83 %ptr = inttoptr i64 %add2 to i16 *
|
fp-add-01.ll | 108 %add2 = fadd float %add1, %val2 109 %add3 = fadd float %add2, %val3
|
fp-add-02.ll | 109 %add2 = fadd double %add1, %val2 110 %add3 = fadd double %add2, %val3
|
fp-move-05.ll | 146 %add2 = add i64 %add1, 4088 147 %ptr = inttoptr i64 %add2 to fp128 *
|
fp-move-08.ll | 146 %add2 = add i64 %add1, 4088 147 %ptr = inttoptr i64 %add2 to fp128 *
|
int-cmp-04.ll | 99 %add2 = add i64 %add1, 4096 100 %ptr = inttoptr i64 %add2 to i16 *
|
int-cmp-07.ll | 111 %add2 = add i64 %add1, 524280 112 %ptr = inttoptr i64 %add2 to i64 *
|
int-cmp-08.ll | 111 %add2 = add i64 %add1, 524280 112 %ptr = inttoptr i64 %add2 to i64 *
|
int-conv-10.ll | 108 %add2 = add i64 %add1, 524287 109 %ptr = inttoptr i64 %add2 to i32 *
|
int-mul-04.ll | 91 %add2 = add i64 %add1, 524280 92 %ptr = inttoptr i64 %add2 to i64 *
|
int-sub-04.ll | 92 %add2 = add i64 %add1, 524280 93 %ptr = inttoptr i64 %add2 to i64 *
|
or-03.ll | 92 %add2 = add i64 %add1, 524280 93 %ptr = inttoptr i64 %add2 to i64 *
|
xor-03.ll | 92 %add2 = add i64 %add1, 524280 93 %ptr = inttoptr i64 %add2 to i64 *
|
fp-move-02.ll | 220 %add2 = fadd double %add1, %double2 221 %add3 = fadd double %add2, %double3 253 %int2 = phi i64 [ 0, %entry ], [ %add2, %loop ] 265 %add2 = add i64 %int2, %bias 286 %conv2 = bitcast i64 %add2 to double 366 %add2 = add i64 %conv2, %bias 367 store volatile i64 %add2, i64 *@iptr
|
/external/llvm/test/DebugInfo/X86/ |
dwarf-aranges-no-dwarf-labels.ll | 49 %add2 = add nsw i32 %add, %0, !dbg !22 50 ret i32 %add2, !dbg !22
|
/external/llvm/test/Transforms/LoopStrengthReduce/AArch64/ |
req-regs.ll | 37 %add2 = shl i32 %a.154, 1 38 %add3 = add nsw i32 %add2, %i.053
|
/external/llvm/test/Transforms/SLPVectorizer/X86/ |
commutativity.ll | 66 %add2 = add i32 %c, %a 71 %2 = xor i32 %b, %add2
|
external_user.ll | 46 %add2 = fadd double %G.019, 1.000000e+01 48 %mul3 = fmul double %add2, 4.000000e+00
|
/external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
atomic_add.ll | 79 define void @add2(i16* nocapture %p, i32 %v) nounwind ssp { 81 ; CHECK: add2:
|
/external/vulkan-validation-layers/libs/glm/gtx/ |
simd_quat.inl | 131 __m128 add2 = _mm_dp_ps(mul2, _mm_set_ps(1.0f, 1.0f, -1.0f, 1.0f), 0xff); 143 __m128 add2 = _mm_add_ps(mul2, _mm_movehl_ps(mul2, mul2)); 144 add2 = _mm_add_ss(add2, _mm_shuffle_ps(add2, add2, 1)); 156 //__m128 zzww = _mm_shuffle_ps(add2, add3, _MM_SHUFFLE(0, 0, 0, 0)); 167 _mm_store_ss(&z, add2);
|
/prebuilts/ndk/r16/sources/third_party/vulkan/src/libs/glm/gtx/ |
simd_quat.inl | 131 __m128 add2 = _mm_dp_ps(mul2, _mm_set_ps(1.0f, 1.0f, -1.0f, 1.0f), 0xff); 143 __m128 add2 = _mm_add_ps(mul2, _mm_movehl_ps(mul2, mul2)); 144 add2 = _mm_add_ss(add2, _mm_shuffle_ps(add2, add2, 1)); 156 //__m128 zzww = _mm_shuffle_ps(add2, add3, _MM_SHUFFLE(0, 0, 0, 0)); 167 _mm_store_ss(&z, add2);
|
/external/llvm/test/CodeGen/AArch64/ |
aarch64-dynamic-stack-layout.ll | 95 %add2 = add nsw i32 %add1, %call 96 ret i32 %add2 176 %add2 = add nsw i32 %add1, %call 177 ret i32 %add2 278 %add2 = add nsw i32 %add1, %call 280 %add3 = add nsw i32 %add2, %1 335 %add2 = add nsw i32 %add1, %1 336 ret i32 %add2 379 %add2 = add nsw i32 %add1, %call 381 %add3 = add nsw i32 %add2, % [all...] |