/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_TransformResidual4x4_s.S | 19 VADD.I16 d5,d0,d2 24 VADD.I16 d8,d1,d8 25 VADD.I16 d0,d5,d8 26 VADD.I16 d1,d6,d7 32 VADD.I16 d5,d0,d2 37 VADD.I16 d8,d1,d8 38 VADD.I16 d0,d5,d8 39 VADD.I16 d1,d6,d7
|
omxVCM4P10_TransformDequantLumaDCFromPair_s.S | 23 VADD.I16 d4,d0,d1 24 VADD.I16 d5,d2,d3 29 VADD.I16 d0,d4,d5 33 VADD.I16 d3,d6,d7 37 VADD.I16 d4,d0,d1 38 VADD.I16 d5,d2,d3 41 VADD.I16 d0,d4,d5 44 VADD.I16 d3,d6,d7
|
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S | 62 VADD.I16 d5,d0,d2 67 VADD.I16 d8,d1,d8 68 VADD.I16 d0,d5,d8 69 VADD.I16 d1,d6,d7 75 VADD.I16 d5,d0,d2 80 VADD.I16 d8,d1,d8 81 VADD.I16 d0,d5,d8 82 VADD.I16 d1,d6,d7
|
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 46 VADD.I16 d0,d0,d20 47 VADD.I16 d2,d2,d21 48 VADD.I16 d4,d4,d22
|
omxVCM4P10_PredictIntraChroma_8x8_s.S | 57 VADD.I32 d2,d3,d1 65 VADD.I8 d6,d6,d5 165 VADD.I32 d3,d3,d2 175 VADD.I16 q2,q2,q0 184 VADD.I16 q0,q2,q0 185 VADD.I16 q1,q2,q1 186 VADD.I16 q4,q2,q4 187 VADD.I16 q5,q2,q5 188 VADD.I16 q6,q2,q6 189 VADD.I16 q7,q2,q [all...] |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 75 VADD.I16 d27,d27,d28 77 VADD.I16 d26,d26,d19 85 VADD.I16 d27,d27,d28 86 VADD.I16 d26,d26,d21 94 VADD.I16 d27,d27,d28 95 VADD.I16 d26,d8,d23 100 VADD.I16 d27,d27,d28 105 VADD.I16 d8,d8,d25
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 463 vadd.i64 d27,d28,d23 469 vadd.i64 d27,d24 471 vadd.i64 d27,d29 477 vadd.i64 d27,d0 484 vadd.i64 d23,d27 485 vadd.i64 d19,d27 486 vadd.i64 d23,d30 500 vadd.i64 d27,d28,d22 506 vadd.i64 d27,d24 508 vadd.i64 d27,d2 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 463 vadd.i64 d27,d28,d23 469 vadd.i64 d27,d24 471 vadd.i64 d27,d29 477 vadd.i64 d27,d0 484 vadd.i64 d23,d27 485 vadd.i64 d19,d27 486 vadd.i64 d23,d30 500 vadd.i64 d27,d28,d22 506 vadd.i64 d27,d24 508 vadd.i64 d27,d2 [all...] |
/external/llvm/test/CodeGen/ARM/ |
fadds.ll | 15 ; VFP2: vadd.f32 s 18 ; NFP1: vadd.f32 d 20 ; NFP0: vadd.f32 s 23 ; CORTEXA8: vadd.f32 s 25 ; CORTEXA8U: vadd.f32 d 27 ; CORTEXA9: vadd.f32 s
|
neon_arith1.ll | 1 ; RUN: llc < %s -march=arm -mattr=+neon | grep vadd
|
fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
deps-fix.ll | 10 ; CHECK: vadd.f32 18 ; CHECK: vadd.i32
|
/external/chromium_org/third_party/openssl/openssl/crypto/chacha/ |
chacha_vec_arm.S | 109 vadd.i32 q8, q10, q9 174 vadd.i32 q4, q4, q0 176 vadd.i32 q2, q2, q3 187 vadd.i32 q1, q1, q5 188 vadd.i32 q15, q15, q8 210 vadd.i32 q4, q4, q7 212 vadd.i32 q2, q2, q6 237 vadd.i32 q1, q1, q3 238 vadd.i32 q15, q15, q14 273 vadd.i32 q4, q4, q [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
iwalsh_neon.asm | 25 vadd.s16 d4, d0, d3 ;a = [0] + [12] 26 vadd.s16 d6, d1, d2 ;b = [4] + [8] 30 vadd.s16 q0, q2, q3 ; a+b d+c 45 vadd.s16 d4, d0, d3 ;a = [0] + [3] 46 vadd.s16 d6, d1, d2 ;b = [1] + [2] 52 vadd.s16 q0, q2, q3 ; a+b d+c 55 vadd.i16 q0, q0, q8 ;e/f += 3 56 vadd.i16 q1, q1, q8 ;g/h += 3
|
variance_neon.asm | 67 vadd.u32 q10, q9, q10 ;accumulate sse 73 vadd.s64 d0, d0, d1 74 vadd.u64 d1, d2, d3 137 vadd.u32 q10, q9, q10 ;accumulate sse 143 vadd.s64 d0, d0, d1 144 vadd.u64 d1, d2, d3 192 vadd.u32 q10, q9, q10 ;accumulate sse 198 vadd.s64 d0, d0, d1 199 vadd.u64 d1, d2, d3 257 vadd.u32 q10, q9, q10 ;accumulate ss [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 62 vadd.u32 q7, q7, q8 63 vadd.u32 q9, q9, q10 67 vadd.u32 q10, q7, q9 69 vadd.u64 d0, d2, d3 104 vadd.u32 q7, q7, q8 105 vadd.u32 q9, q9, q10 106 vadd.u32 q9, q7, q9 109 vadd.u64 d0, d2, d3
|
vp8_shortwalsh4x4_neon.asm | 40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2] 41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3] 51 vadd.s16 d0, d4, d5 ; a1 + d1 54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1 70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1 71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1 86 vadd.s32 q8, q0, q15 ; a2 + 3 87 vadd.s32 q9, q1, q15 ; b2 + 3 88 vadd.s32 q10, q2, q15 ; c2 + 3 89 vadd.s32 q11, q3, q15 ; d2 + [all...] |
shortfdct_neon.asm | 50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3] 51 vadd.s16 d5, d1, d2 ; b1 = ip[1] + ip[2] 58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12] 81 vadd.s16 d5, d1, d2 ; b1 = ip[4] + ip[8] 83 vadd.s16 d4, d4, d26 ; a1 + 7 86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7 130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3] 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/ |
armVCM4P10_TransformResidual4x4_s.s | 120 VADD de0,dIn0,dIn2 ;// e0 = d0 + d2 125 VADD de3,dIn1,dIn3RS ;// e3 = d1 + (d3>>1) 126 VADD df0,de0,de3 ;// f0 = e0 + e3 127 VADD df1,de1,de2 ;// f1 = e1 + e2 147 VADD dg0,df0,df2 ;// e0 = d0 + d2 152 VADD dg3,df1,df3RS ;// e3 = d1 + (d3>>1) 153 VADD dh0,dg0,dg3 ;// f0 = e0 + e3 154 VADD dh1,dg1,dg2 ;// f1 = e1 + e2
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.s | 203 VADD dTempC0, dTempC0, dTempD0 208 VADD dTempB0, dTempB0, dTempP1 218 VADD dTempC0, dTempC0, dTempD0 219 VADD dTempB0, dTempB0, dTempQ1 228 VADD dTempC0, dTempC0, dTempD0 231 VADD dTempB0, dTmp, dTempR1 234 ; VADD dTempB0, dTempB0, dTempR1 239 VADD dTempC0, dTempC0, dTempD0 244 VADD dTmp, dTmp, dTempS1
|
omxVCM4P10_TransformDequantLumaDCFromPair_s.s | 138 VADD dRowSum1,dIn0,dIn1 139 VADD dRowSum2,dIn2,dIn3 144 VADD dRowOp0,dRowSum1,dRowSum2 148 VADD dRowOp3,dRowDiff1,dRowDiff2 162 VADD dColSum1,dRowOp0,dRowOp1 163 VADD dColSum2,dRowOp2,dRowOp3 166 VADD dColOp0,dColSum1,dColSum2 169 VADD dColOp3,dColDiff1,dColDiff2
|
/external/libyuv/files/source/ |
compare_neon.cc | 41 "vadd.u32 q8, q8, q9 \n" 42 "vadd.u32 q10, q10, q11 \n" 43 "vadd.u32 q11, q8, q10 \n" 45 "vadd.u64 d0, d2, d3 \n"
|
/frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
R4R8First_v7.s | 44 VADD.S32 d4, d0, d1 @ r0 = buf[0] + buf[2]@i0 = buf[1] + buf[3]@ 47 VADD.S32 d6, d2, d3 @ r3 = buf[4] + buf[6]@i3 = buf[5] + buf[7]@ 50 VADD.S32 Q0, Q2, Q3 @ r4 = (r0 + r2)@i4 = (i0 + i2)@i6 = (i1 + r3)@r7 = (r1 + i3) 55 VADD.S32 d4, d8, d9 @ r0 = buf[ 8] + buf[10]@i0 = buf[ 9] + buf[11]@ 57 VADD.S32 d6, d10, d11 @ r2 = buf[12] + buf[14]@i2 = buf[13] + buf[15]@ 63 VADD.S32 Q4, Q2, Q3 @ t0 = (r0 + r2) >> 1@t1 = (i0 + i2) >> 1@i0 = i1 + r3@r2 = r1 + i3@ 78 VADD.S32 d12, d0, d8 80 VADD.S32 d14, d2, d10 84 VADD.S32 d5, d11, d9 95 VADD.S32 d19, d3, d [all...] |
Radix4FFT_v7.s | 69 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 78 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@ 79 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@ 90 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 101 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 104 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@ 107 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@ 109 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@ 110 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@ 123 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4 [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_short_idct16x16_add_neon.asm | 166 vadd.s32 q3, q2, q0 167 vadd.s32 q12, q11, q1 207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 236 vadd.s32 q9, q9, q11 237 vadd.s32 q10, q10, q12 248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7]; 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6] [all...] |