/external/compiler-rt/lib/arm/ |
adddf3vfp.S | 23 vadd.f64 d6, d6, d7
|
addsf3vfp.S | 23 vadd.f32 s14, s14, s15
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 463 vadd.i64 d27,d28,d23 469 vadd.i64 d27,d24 471 vadd.i64 d27,d29 477 vadd.i64 d27,d0 484 vadd.i64 d23,d27 485 vadd.i64 d19,d27 486 vadd.i64 d23,d30 500 vadd.i64 d27,d28,d22 506 vadd.i64 d27,d24 508 vadd.i64 d27,d2 [all...] |
sha512-armv4.pl | 470 vadd.i64 $T1,$K,$h 476 vadd.i64 $T1,$t0 478 vadd.i64 $T1,$Ch 484 vadd.i64 $T1,@X[$i%16] 491 vadd.i64 $h,$T1 492 vadd.i64 $d,$T1 493 vadd.i64 $h,$Maj 519 vadd.i64 @X[$i%8],$s1 526 vadd.i64 @X[$i%8],$s0 530 vadd.i64 @X[$i%8],$s [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 463 vadd.i64 d27,d28,d23 469 vadd.i64 d27,d24 471 vadd.i64 d27,d29 477 vadd.i64 d27,d0 484 vadd.i64 d23,d27 485 vadd.i64 d19,d27 486 vadd.i64 d23,d30 500 vadd.i64 d27,d28,d22 506 vadd.i64 d27,d24 508 vadd.i64 d27,d2 [all...] |
sha512-armv4.pl | 470 vadd.i64 $T1,$K,$h 476 vadd.i64 $T1,$t0 478 vadd.i64 $T1,$Ch 484 vadd.i64 $T1,@X[$i%16] 491 vadd.i64 $h,$T1 492 vadd.i64 $d,$T1 493 vadd.i64 $h,$Maj 519 vadd.i64 @X[$i%8],$s1 526 vadd.i64 @X[$i%8],$s0 530 vadd.i64 @X[$i%8],$s [all...] |
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 90 vadd.u16 q8, q8, q0 // add src red to dst red0 92 vadd.u16 q9, q9, q1 // add src green to dst green0 94 vadd.u16 q10, q10, q2 // add src blue to dst blue0 97 vadd.u16 q13, q13, q0 // add src red to dst red1 99 vadd.u16 q12, q12, q1 // add src green to dst green1 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 62 vadd.u32 q7, q7, q8 63 vadd.u32 q9, q9, q10 67 vadd.u32 q10, q7, q9 69 vadd.u64 d0, d2, d3 104 vadd.u32 q7, q7, q8 105 vadd.u32 q9, q9, q10 106 vadd.u32 q9, q7, q9 109 vadd.u64 d0, d2, d3
|
shortfdct_neon.asm | 50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3] 51 vadd.s16 d5, d1, d2 ; b1 = ip[1] + ip[2] 58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12] 81 vadd.s16 d5, d1, d2 ; b1 = ip[4] + ip[8] 83 vadd.s16 d4, d4, d26 ; a1 + 7 86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7 130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3] 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b [all...] |
fastquantizeb_neon.asm | 49 vadd.s16 q4, q6 ; x + Round 50 vadd.s16 q5, q7 66 vadd.s16 q10, q6 ; x2 + Round 67 vadd.s16 q11, q7 181 vadd.s16 q12, q14 ; x + Round 182 vadd.s16 q13, q15
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_short_idct32x32_add_neon.asm | 272 vadd.s32 q11, q12, q11 273 vadd.s32 q10, q10, q15 481 vadd.s16 q4, q0, q1 483 vadd.s16 q6, q2, q3 517 vadd.s16 q3, q3, q2 519 vadd.s16 q2, q1, q0 537 vadd.s16 q8, q4, q2 538 vadd.s16 q9, q5, q0 539 vadd.s16 q10, q7, q1 540 vadd.s16 q15, q6, q [all...] |
vp9_short_idct16x16_add_neon.asm | 166 vadd.s32 q3, q2, q0 167 vadd.s32 q12, q11, q1 207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 236 vadd.s32 q9, q9, q11 237 vadd.s32 q10, q10, q12 248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7]; 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6] [all...] |
vp9_short_iht8x8_add_neon.asm | 232 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 242 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5] 244 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7] 271 vadd.s16 q8, q0, q7 ; output[0] = step1[0] + step1[7]; 272 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6]; 273 vadd.s16 q10, q2, q5 ; output[2] = step1[2] + step1[5]; 274 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4]; 326 vadd.s32 q11, q1, q5 327 vadd.s32 q12, q2, q [all...] |
vp9_short_iht4x4_add_neon.asm | 26 vadd.s16 d23, d16, d18 ; (input[0] + input[2]) 47 vadd.s16 q8, q13, q14 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 71 vadd.s32 q10, q10, q8 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 78 vadd.s32 q10, q10, q11 ; x0 + x1 79 vadd.s32 q14, q11, q12 ; s1 = x1 + x3
|
vp9_mb_lpf_neon.asm | 456 vadd.i16 q15, q14 461 vadd.i16 q15, q14 467 vadd.i16 q15, q14 473 vadd.i16 q15, q14 479 vadd.i16 q15, q14 502 vadd.i16 q12, q13 503 vadd.i16 q15, q14 505 vadd.i16 q15, q12 509 vadd.i16 q14, q15, q14 518 vadd.i16 q15, q1 [all...] |
/external/chromium_org/third_party/WebKit/Source/platform/audio/ |
VectorMath.h | 39 PLATFORM_EXPORT void vadd(const float* source1P, int sourceStride1, const float* source2P, int sourceStride2, float* destP, int destStride, size_t framesToProcess);
|
ReverbAccumulationBuffer.cpp | 101 vadd(source, 1, destination + writeIndex, 1, destination + writeIndex, 1, numberOfFrames1); 105 vadd(source + numberOfFrames1, 1, destination, 1, destination, 1, numberOfFrames2);
|
AudioChannel.cpp | 116 vadd(data(), 1, sourceChannel->data(), 1, mutableData(), 1, length());
|
FFTConvolver.cpp | 96 vadd(m_outputBuffer.data(), 1, m_lastOverlapBuffer.data(), 1, m_outputBuffer.data(), 1, halfSize);
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 67 vadd.u32 q10, q9, q10 ;accumulate sse 73 vadd.s64 d0, d0, d1 74 vadd.u64 d1, d2, d3 137 vadd.u32 q10, q9, q10 ;accumulate sse 143 vadd.s64 d0, d0, d1 144 vadd.u64 d1, d2, d3 192 vadd.u32 q10, q9, q10 ;accumulate sse 198 vadd.s64 d0, d0, d1 199 vadd.u64 d1, d2, d3 257 vadd.u32 q10, q9, q10 ;accumulate ss [all...] |
/external/llvm/test/MC/ARM/ |
neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d1 [all...] |
neont2-add-encoding.s | 5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08] 6 vadd.i8 d16, d17, d16 7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08] 8 vadd.i16 d16, d17, d16 9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08] 10 vadd.i64 d16, d17, d16 11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08] 12 vadd.i32 d16, d17, d16 13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d] 14 vadd.f32 d16, d16, d1 [all...] |