/external/libvpx/vp8/common/arm/neon/ |
recon16x16mb_neon.asm | 50 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 51 vadd.s16 q1, q1, q9 52 vadd.s16 q2, q2, q10 53 vadd.s16 q3, q3, q11 54 vadd.s16 q4, q4, q12 55 vadd.s16 q5, q5, q13 56 vadd.s16 q6, q6, q14 57 vadd.s16 q7, q7, q15 97 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 98 vadd.s16 q1, q1, q [all...] |
recon4b_neon.asm | 41 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 42 vadd.s16 q1, q1, q9 43 vadd.s16 q2, q2, q10 44 vadd.s16 q3, q3, q11 45 vadd.s16 q4, q4, q12 46 vadd.s16 q5, q5, q13 47 vadd.s16 q6, q6, q14 48 vadd.s16 q7, q7, q15
|
iwalsh_neon.asm | 27 vadd.s16 d4, d0, d3 ;a = [0] + [12] 28 vadd.s16 d5, d1, d2 ;b = [4] + [8] 32 vadd.s16 d0, d4, d5 ;a + b 33 vadd.s16 d1, d6, d7 ;c + d 49 vadd.s16 d4, d0, d3 ;a = [0] + [3] 50 vadd.s16 d5, d1, d2 ;b = [1] + [2] 54 vadd.s16 d0, d4, d5 ;e = a + b 55 vadd.s16 d1, d6, d7 ;f = c + d 60 vadd.i16 q0, q0, q2 ;e/f += 3 61 vadd.i16 q1, q1, q2 ;g/h += [all...] |
recon2b_neon.asm | 34 vadd.s16 q0, q0, q4 ;add Diff data and Pred data together 35 vadd.s16 q1, q1, q5 36 vadd.s16 q2, q2, q6 37 vadd.s16 q3, q3, q7
|
reconb_neon.asm | 41 vadd.s16 d0, d0, d20 ;add Diff data and Pred data together 42 vadd.s16 d2, d2, d22 43 vadd.s16 d4, d4, d24 44 vadd.s16 d6, d6, d26
|
loopfiltersimplehorizontaledge_neon.asm | 54 vadd.u8 q1, q1, q1 ; flimit * 2 55 vadd.u8 q1, q1, q13 ; flimit * 2 + limit 66 vadd.s16 q11, q2, q2 ; 3 * ( qs0 - ps0) 67 vadd.s16 q12, q3, q3 71 vadd.s16 q2, q2, q11 72 vadd.s16 q3, q3, q12
|
loopfiltersimpleverticaledge_neon.asm | 73 vadd.u8 q1, q1, q1 ; flimit * 2 74 vadd.u8 q1, q1, q13 ; flimit * 2 + limit 86 vadd.s16 q10, q2, q2 ; 3 * ( qs0 - ps0) 87 vadd.s16 q14, q13, q13 88 vadd.s16 q2, q2, q10 89 vadd.s16 q13, q13, q14
|
mbloopfilter_neon.asm | 401 vadd.u8 q2, q2, q2 ; flimit * 2 402 vadd.u8 q2, q2, q1 ; flimit * 2 + limit 427 vadd.s16 q10, q2, q2 ; 3 * (qs0 - ps0) 428 vadd.s16 q11, q13, q13 431 vadd.s16 q2, q2, q10 432 vadd.s16 q13, q13, q11
|
/external/libvpx/vp8/encoder/arm/neon/ |
fastfdct8x4_neon.asm | 50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3] 51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2] 54 vadd.s16 d22, d3, d9 55 vadd.s16 d23, d5, d7 64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 66 vadd.s16 d24, d2, d3 82 vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x_c1)>>16) + d1 83 vadd.s16 q15, q2, q15 ;d30:temp2 = ((c1 * x_c1)>>16) + c1; d31:temp2 = ((d1 * x_c1)>>16) + d1 85 vadd.s16 d2, d14, d16 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 86 vadd.s16 d3, d24, d26 ;op[0] = ((temp1 * x_c2 )>>16) + temp [all...] |
fastfdct4x4_neon.asm | 45 vadd.s16 d6, d2, d5 ;ip[0]+ip[3] 46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2] 52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1 64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2 66 vadd.s16 d3, d14, d17 ;op[1] = temp1 + temp2 -- q is not necessary, just for protection 76 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12] 77 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8] 81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b [all...] |
vp8_shortwalsh4x4_neon.asm | 34 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[3] 35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2] 39 vadd.s16 d2, d6, d7 ;op[0] = a1 + b1 41 vadd.s16 d3, d8, d9 ;op[1] = c1 + d1 51 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12] 52 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8] 56 vadd.s16 d2, d6, d7 ;a2 = a1 + b1; 58 vadd.s16 d3, d8, d9 ;b2 = c1 + d1;
|
vp8_mse16x16_neon.asm | 63 vadd.u32 q7, q7, q8 64 vadd.u32 q9, q9, q10 68 vadd.u32 q10, q7, q9 70 vadd.u64 d0, d2, d3 120 vadd.u32 q10, q9, q10 124 vadd.s64 d0, d0, d1 125 vadd.u64 d1, d2, d3 161 vadd.u32 q7, q7, q8 162 vadd.u32 q9, q9, q10 163 vadd.u32 q9, q7, q [all...] |
variance_neon.asm | 67 vadd.u32 q10, q9, q10 ;accumulate sse 73 vadd.s64 d0, d0, d1 74 vadd.u64 d1, d2, d3 137 vadd.u32 q10, q9, q10 ;accumulate sse 143 vadd.s64 d0, d0, d1 144 vadd.u64 d1, d2, d3 192 vadd.u32 q10, q9, q10 ;accumulate sse 198 vadd.s64 d0, d0, d1 199 vadd.u64 d1, d2, d3 257 vadd.u32 q10, q9, q10 ;accumulate ss [all...] |
sad16_neon.asm | 126 vadd.u16 q0, q12, q13 131 vadd.u32 d0, d0, d1 194 vadd.u16 q0, q12, q13 199 vadd.u32 d0, d0, d1
|
fastquantizeb_neon.asm | 58 vadd.s16 q4, q6 ;x + Round 59 vadd.s16 q5, q7
|
vp8_subpixelvariance16x16s_neon.asm | 106 vadd.u32 q10, q9, q10 ;accumulate sse 110 vadd.s64 d0, d0, d1 111 vadd.u64 d1, d2, d3 202 vadd.u32 q10, q9, q10 ;accumulate sse 206 vadd.s64 d0, d0, d1 207 vadd.u64 d1, d2, d3 321 vadd.u32 q15, q14, q15 ;accumulate sse 325 vadd.s64 d0, d0, d1 326 vadd.u64 d1, d2, d3 554 vadd.u32 q10, q9, q10 ;accumulate ss [all...] |
vp8_subpixelvariance8x8_neon.asm | 200 vadd.u32 q10, q9, q10 ;accumulate sse 204 vadd.s64 d0, d0, d1 205 vadd.u64 d1, d2, d3
|
sad8_neon.asm | 69 vadd.u32 d0, d0, d1 166 vadd.u32 d0, d0, d1
|
vp8_subpixelvariance16x16_neon.asm | 399 vadd.u32 q10, q9, q10 ;accumulate sse 403 vadd.s64 d0, d0, d1 404 vadd.u64 d1, d2, d3
|
/frameworks/base/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
R4R8First_v7.s | 40 VADD.S32 d4, d0, d1 @ r0 = buf[0] + buf[2]@i0 = buf[1] + buf[3]@
43 VADD.S32 d6, d2, d3 @ r3 = buf[4] + buf[6]@i3 = buf[5] + buf[7]@
46 VADD.S32 Q0, Q2, Q3 @ r4 = (r0 + r2)@i4 = (i0 + i2)@i6 = (i1 + r3)@r7 = (r1 + i3)
51 VADD.S32 d4, d8, d9 @ r0 = buf[ 8] + buf[10]@i0 = buf[ 9] + buf[11]@
53 VADD.S32 d6, d10, d11 @ r2 = buf[12] + buf[14]@i2 = buf[13] + buf[15]@
59 VADD.S32 Q4, Q2, Q3 @ t0 = (r0 + r2) >> 1@t1 = (i0 + i2) >> 1@i0 = i1 + r3@r2 = r1 + i3@
74 VADD.S32 d12, d0, d8
76 VADD.S32 d14, d2, d10
80 VADD.S32 d5, d11, d9
91 VADD.S32 d19, d3, d6 [all...] |
Radix4FFT_v7.s | 65 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
74 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@
75 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@
86 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
97 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
100 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@
103 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@
105 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@
106 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@
119 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4@ [all...] |
PrePostMDCT_v7.s | 52 VADD.S32 Q0, Q10, Q11 @ *buf0++ = MULHIGH(cosa, tr1) + MULHIGH(sina, ti1)@
63 VADD.S32 Q0, Q10, Q11 @ MULHIGH(cosa, tr2) + MULHIGH(sina, ti2)@
107 VADD.S32 Q0, Q10, Q11 @ *buf0++ = MULHIGH(cosa, tr1) + MULHIGH(sina, ti1)@
115 VADD.S32 Q4, Q10, Q11 @ *buf1-- = MULHIGH(cosa, tr2) + MULHIGH(sina, ti2)@
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 90 vadd.u16 q8, q8, q0 // add src red to dst red0 92 vadd.u16 q9, q9, q1 // add src green to dst green0 94 vadd.u16 q10, q10, q2 // add src blue to dst blue0 97 vadd.u16 q13, q13, q0 // add src red to dst red1 99 vadd.u16 q12, q12, q1 // add src green to dst green1 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
|
/frameworks/base/media/libstagefright/codecs/amrwbenc/src/asm/ARMV7/ |
convolve_neon.s | 61 VADD.S32 D20, D20, D21 97 VADD.S32 D20, D20, D21 136 VADD.S32 D20, D20, D21 161 VADD.S32 D20, D20, D21
|
/external/bluetooth/bluez/sbc/ |
sbc_primitives_neon.c | 255 "vadd.s32 q1, q1, q14\n" 424 "vadd.s32 q0, q0, q14\n" 429 "vadd.s32 q15, q0, q1\n" 430 "vadd.s32 q9, q2, q3\n" 455 "vadd.s32 q0, q0, q14\n" 460 "vadd.s32 q15, q0, q1\n" 461 "vadd.s32 q9, q2, q3\n" 483 "vadd.s32 q0, q0, q14\n" 488 "vadd.s32 q15, q0, q1\n" 489 "vadd.s32 q9, q2, q3\n [all...] |