/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_TransformResidual4x4_s.S | 19 VADD.I16 d5,d0,d2 24 VADD.I16 d8,d1,d8 25 VADD.I16 d0,d5,d8 26 VADD.I16 d1,d6,d7 32 VADD.I16 d5,d0,d2 37 VADD.I16 d8,d1,d8 38 VADD.I16 d0,d5,d8 39 VADD.I16 d1,d6,d7
|
omxVCM4P10_TransformDequantLumaDCFromPair_s.S | 21 VADD.I16 d4,d0,d1 22 VADD.I16 d5,d2,d3 27 VADD.I16 d0,d4,d5 31 VADD.I16 d3,d6,d7 35 VADD.I16 d4,d0,d1 36 VADD.I16 d5,d2,d3 39 VADD.I16 d0,d4,d5 42 VADD.I16 d3,d6,d7
|
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S | 59 VADD.I16 d5,d0,d2 64 VADD.I16 d8,d1,d8 65 VADD.I16 d0,d5,d8 66 VADD.I16 d1,d6,d7 72 VADD.I16 d5,d0,d2 77 VADD.I16 d8,d1,d8 78 VADD.I16 d0,d5,d8 79 VADD.I16 d1,d6,d7
|
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 46 VADD.I16 d0,d0,d20 47 VADD.I16 d2,d2,d21 48 VADD.I16 d4,d4,d22
|
omxVCM4P10_PredictIntraChroma_8x8_s.S | 57 VADD.I32 d2,d3,d1 65 VADD.I8 d6,d6,d5 165 VADD.I32 d3,d3,d2 175 VADD.I16 q2,q2,q0 184 VADD.I16 q0,q2,q0 185 VADD.I16 q1,q2,q1 186 VADD.I16 q4,q2,q4 187 VADD.I16 q5,q2,q5 188 VADD.I16 q6,q2,q6 189 VADD.I16 q7,q2,q [all...] |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 75 VADD.I16 d27,d27,d28 77 VADD.I16 d26,d26,d19 85 VADD.I16 d27,d27,d28 86 VADD.I16 d26,d26,d21 94 VADD.I16 d27,d27,d28 95 VADD.I16 d26,d8,d23 100 VADD.I16 d27,d27,d28 105 VADD.I16 d8,d8,d25
|
/external/libvpx/vp8/common/arm/neon/ |
recon16x16mb_neon.asm | 50 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 51 vadd.s16 q1, q1, q9 52 vadd.s16 q2, q2, q10 53 vadd.s16 q3, q3, q11 54 vadd.s16 q4, q4, q12 55 vadd.s16 q5, q5, q13 56 vadd.s16 q6, q6, q14 57 vadd.s16 q7, q7, q15 97 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 98 vadd.s16 q1, q1, q [all...] |
recon4b_neon.asm | 41 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 42 vadd.s16 q1, q1, q9 43 vadd.s16 q2, q2, q10 44 vadd.s16 q3, q3, q11 45 vadd.s16 q4, q4, q12 46 vadd.s16 q5, q5, q13 47 vadd.s16 q6, q6, q14 48 vadd.s16 q7, q7, q15
|
iwalsh_neon.asm | 27 vadd.s16 d4, d0, d3 ;a = [0] + [12] 28 vadd.s16 d5, d1, d2 ;b = [4] + [8] 32 vadd.s16 d0, d4, d5 ;a + b 33 vadd.s16 d1, d6, d7 ;c + d 49 vadd.s16 d4, d0, d3 ;a = [0] + [3] 50 vadd.s16 d5, d1, d2 ;b = [1] + [2] 54 vadd.s16 d0, d4, d5 ;e = a + b 55 vadd.s16 d1, d6, d7 ;f = c + d 60 vadd.i16 q0, q0, q2 ;e/f += 3 61 vadd.i16 q1, q1, q2 ;g/h += [all...] |
recon2b_neon.asm | 34 vadd.s16 q0, q0, q4 ;add Diff data and Pred data together 35 vadd.s16 q1, q1, q5 36 vadd.s16 q2, q2, q6 37 vadd.s16 q3, q3, q7
|
reconb_neon.asm | 41 vadd.s16 d0, d0, d20 ;add Diff data and Pred data together 42 vadd.s16 d2, d2, d22 43 vadd.s16 d4, d4, d24 44 vadd.s16 d6, d6, d26
|
/external/openssl/crypto/sha/asm/ |
sha512-armv4.s | 463 vadd.i64 d27,d28,d23 469 vadd.i64 d27,d24 471 vadd.i64 d27,d29 477 vadd.i64 d27,d0 484 vadd.i64 d23,d27 485 vadd.i64 d19,d27 486 vadd.i64 d23,d30 500 vadd.i64 d27,d28,d22 506 vadd.i64 d27,d24 508 vadd.i64 d27,d2 [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
fastfdct8x4_neon.asm | 50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3] 51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2] 54 vadd.s16 d22, d3, d9 55 vadd.s16 d23, d5, d7 64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 66 vadd.s16 d24, d2, d3 82 vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x_c1)>>16) + d1 83 vadd.s16 q15, q2, q15 ;d30:temp2 = ((c1 * x_c1)>>16) + c1; d31:temp2 = ((d1 * x_c1)>>16) + d1 85 vadd.s16 d2, d14, d16 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 86 vadd.s16 d3, d24, d26 ;op[0] = ((temp1 * x_c2 )>>16) + temp [all...] |
fastfdct4x4_neon.asm | 45 vadd.s16 d6, d2, d5 ;ip[0]+ip[3] 46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2] 52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1 64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 66 vadd.s16 d3, d14, d17 ;op[1] = temp1 + temp2 -- q is not necessary, just for protection 76 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12] 77 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8] 81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b [all...] |
vp8_shortwalsh4x4_neon.asm | 34 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[3] 35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2] 39 vadd.s16 d2, d6, d7 ;op[0] = a1 + b1 41 vadd.s16 d3, d8, d9 ;op[1] = c1 + d1 51 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12] 52 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8] 56 vadd.s16 d2, d6, d7 ;a2 = a1 + b1; 58 vadd.s16 d3, d8, d9 ;b2 = c1 + d1;
|
vp8_mse16x16_neon.asm | 63 vadd.u32 q7, q7, q8 64 vadd.u32 q9, q9, q10 68 vadd.u32 q10, q7, q9 70 vadd.u64 d0, d2, d3 120 vadd.u32 q10, q9, q10 124 vadd.s64 d0, d0, d1 125 vadd.u64 d1, d2, d3 161 vadd.u32 q7, q7, q8 162 vadd.u32 q9, q9, q10 163 vadd.u32 q9, q7, q [all...] |
variance_neon.asm | 67 vadd.u32 q10, q9, q10 ;accumulate sse 73 vadd.s64 d0, d0, d1 74 vadd.u64 d1, d2, d3 137 vadd.u32 q10, q9, q10 ;accumulate sse 143 vadd.s64 d0, d0, d1 144 vadd.u64 d1, d2, d3 192 vadd.u32 q10, q9, q10 ;accumulate sse 198 vadd.s64 d0, d0, d1 199 vadd.u64 d1, d2, d3 257 vadd.u32 q10, q9, q10 ;accumulate ss [all...] |
/external/llvm/test/CodeGen/ARM/ |
fadds.ll | 13 ; VFP2: vadd.f32 s0, s1, s0 16 ; NFP1: vadd.f32 d0, d1, d0 18 ; NFP0: vadd.f32 s0, s1, s0 21 ; CORTEXA8: vadd.f32 d0, d1, d0 23 ; CORTEXA9: vadd.f32 s{{.}}, s{{.}}, s{{.}}
|
neon_arith1.ll | 1 ; RUN: llc < %s -march=arm -mattr=+neon | grep vadd
|
fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/ |
armVCM4P10_TransformResidual4x4_s.s | 120 VADD de0,dIn0,dIn2 ;// e0 = d0 + d2 125 VADD de3,dIn1,dIn3RS ;// e3 = d1 + (d3>>1) 126 VADD df0,de0,de3 ;// f0 = e0 + e3 127 VADD df1,de1,de2 ;// f1 = e1 + e2 147 VADD dg0,df0,df2 ;// e0 = d0 + d2 152 VADD dg3,df1,df3RS ;// e3 = d1 + (d3>>1) 153 VADD dh0,dg0,dg3 ;// f0 = e0 + e3 154 VADD dh1,dg1,dg2 ;// f1 = e1 + e2
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.s | 203 VADD dTempC0, dTempC0, dTempD0 208 VADD dTempB0, dTempB0, dTempP1 218 VADD dTempC0, dTempC0, dTempD0 219 VADD dTempB0, dTempB0, dTempQ1 228 VADD dTempC0, dTempC0, dTempD0 231 VADD dTempB0, dTmp, dTempR1 234 ; VADD dTempB0, dTempB0, dTempR1 239 VADD dTempC0, dTempC0, dTempD0 244 VADD dTmp, dTmp, dTempS1
|
omxVCM4P10_TransformDequantLumaDCFromPair_s.s | 138 VADD dRowSum1,dIn0,dIn1 139 VADD dRowSum2,dIn2,dIn3 144 VADD dRowOp0,dRowSum1,dRowSum2 148 VADD dRowOp3,dRowDiff1,dRowDiff2 162 VADD dColSum1,dRowOp0,dRowOp1 163 VADD dColSum2,dRowOp2,dRowOp3 166 VADD dColOp0,dColSum1,dColSum2 169 VADD dColOp3,dColDiff1,dColDiff2
|
/frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
R4R8First_v7.s | 44 VADD.S32 d4, d0, d1 @ r0 = buf[0] + buf[2]@i0 = buf[1] + buf[3]@ 47 VADD.S32 d6, d2, d3 @ r3 = buf[4] + buf[6]@i3 = buf[5] + buf[7]@ 50 VADD.S32 Q0, Q2, Q3 @ r4 = (r0 + r2)@i4 = (i0 + i2)@i6 = (i1 + r3)@r7 = (r1 + i3) 55 VADD.S32 d4, d8, d9 @ r0 = buf[ 8] + buf[10]@i0 = buf[ 9] + buf[11]@ 57 VADD.S32 d6, d10, d11 @ r2 = buf[12] + buf[14]@i2 = buf[13] + buf[15]@ 63 VADD.S32 Q4, Q2, Q3 @ t0 = (r0 + r2) >> 1@t1 = (i0 + i2) >> 1@i0 = i1 + r3@r2 = r1 + i3@ 78 VADD.S32 d12, d0, d8 80 VADD.S32 d14, d2, d10 84 VADD.S32 d5, d11, d9 95 VADD.S32 d19, d3, d [all...] |
Radix4FFT_v7.s | 69 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 78 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@ 79 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@ 90 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 101 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 104 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@ 107 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@ 109 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@ 110 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@ 123 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4 [all...] |