/external/libvpx/vp8/decoder/arm/neon/ |
dequant_dc_idct_neon.asm | 29 vld1.16 {q3, q4}, [r0] 37 vmul.i16 q2, q4, q6 54 vqdmulh.s16 q4, q2, d0[0] 60 vshr.s16 q4, q4, #1 63 vqadd.s16 q4, q4, q2 83 vqdmulh.s16 q4, q2, d0[0] 91 vshr.s16 q4, q4, # [all...] |
dequant_idct_neon.asm | 28 vld1.16 {q3, q4}, [r0] 41 vmul.i16 q2, q4, q6 48 vqdmulh.s16 q4, q2, d0[0] 54 vshr.s16 q4, q4, #1 57 vqadd.s16 q4, q4, q2 77 vqdmulh.s16 q4, q2, d0[0] 85 vshr.s16 q4, q4, # [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 34 vabs.s16 q4, q0 ;calculate x = abs(z) 37 vcge.s16 q10, q4, q10 ;x>=zbin 58 vadd.s16 q4, q6 ;x + Round 63 vqdmulh.s16 q4, q8 ;y = ((Round + abs(z)) * Quant) >> 16 69 vshr.s16 q4, #1 ;right shift 1 after vqdmulh 73 veor.s16 q4, q2 ; y^sz 78 vsub.s16 q4, q2 ; x1 = (y^sz) - sz = (y^sz) - (-1) (two's complement) 81 vand.s16 q4, q10 ;mask off x1 elements 86 vtst.16 q14, q4, q8 ;now find eob 87 vtst.16 q15, q5, q8 ;non-zero element is set to all 1 in q4, q [all...] |
fastfdct4x4_neon.asm | 50 vshl.i16 q4, q4, #1 ; c1, d1 56 vqdmulh.s16 q8, q4, d0[0] 57 vqdmulh.s16 q7, q4, d0[2] 62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1 86 vqdmulh.s16 q8, q4, d0[0] 87 vqdmulh.s16 q7, q4, d0[2] 92 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1 100 vclt.s16 q4, q2, #0 103 vsub.s16 q2, q2, q4 [all...] |
vp8_subpixelvariance16x16s_neon.asm | 57 vext.8 q5, q4, q5, #1 63 vrhadd.u8 q2, q4, q5 66 vsubl.u8 q4, d0, d22 ;diff 75 vpadal.s16 q8, q4 ;sum 147 vld1.u8 {q4}, [r0], r1 155 vrhadd.u8 q2, q2, q4 156 vrhadd.u8 q4, q4, q6 255 vext.8 q5, q4, q5, #1 260 vrhadd.u8 q2, q4, q [all...] |
vp8_memcpy_neon.asm | 34 vld1.8 {q4, q5}, [r1]! 37 vst1.8 {q4, q5}, [r0]!
|
shortfdct_neon.asm | 61 vmull.s16 q4, d22, d4[0] ;i=0 66 vmlal.s16 q4, d24, d5[0] 71 vmlal.s16 q4, d26, d6[0] 76 vmlal.s16 q4, d28, d7[0] ;sumtemp for i=0 81 vrshr.s32 q0, q4, #16
|
fastfdct8x4_neon.asm | 36 vld1.16 {q4}, [r0], r2 148 vclt.s16 q8, q4, #0 153 vsub.s16 q4, q4, q8 158 vshr.s16 q4, q4, #1 161 vst1.16 {q3, q4}, [r1]
|
vp8_subpixelvariance8x8_neon.asm | 47 vld1.u8 {q4}, [r0], r1 70 vld1.u8 {q4}, [r0], r1 116 vmull.u8 q4, d25, d0 125 vmlal.u8 q4, d26, d1 134 vqrshrn.u16 d25, q4, #7 170 vsubl.u8 q4, d22, d0 ;calculate diff 176 vpadal.s16 q8, q4 ;sum
|
/external/libvpx/vp8/common/arm/neon/ |
shortidct4x4llm_neon.asm | 41 vqdmulh.s16 q4, q2, d0[0] 47 vshr.s16 q4, q4, #1 50 vqadd.s16 q4, q4, q2 73 vqdmulh.s16 q4, q2, d0[0] 79 vshr.s16 q4, q4, #1 82 vqadd.s16 q4, q4, q [all...] |
loopfiltersimplehorizontaledge_neon.asm | 63 vqsub.s8 q4, q5, q8 ; q4: vp8_filter = vp8_signed_char_clamp(ps1-qs1) 77 ;vqadd.s8 q4, q4, q2 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0)) 82 vand q4, q4, q15 ; vp8_filter &= mask 84 vqadd.s8 q2, q4, q10 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3) 85 vqadd.s8 q4, q4, q9 ; Filter1 = vp8_signed_char_clamp(vp8_filter+4) 87 vshr.s8 q4, q4, #3 ; Filter1 >>= [all...] |
sixtappredict4x4_neon.asm | 51 vld1.u8 {q4}, [r0], r1 77 vmov q4, q3 ;keep original src data in q4 q6 82 vshr.u64 q9, q4, #8 ;construct src_ptr[-1] 89 vshr.u64 q3, q4, #32 ;construct src_ptr[2] 96 vshr.u64 q9, q4, #16 ;construct src_ptr[0] 103 vshr.u64 q3, q4, #24 ;construct src_ptr[1] 114 vld1.u8 {q4}, [r0], r1 143 vmov q4, q3 ;keep original src data in q4 q [all...] |
recon16x16mb_neon.asm | 39 vmovl.u8 q4, d28 54 vadd.s16 q4, q4, q12 63 vqmovun.s16 d4, q4 90 vmovl.u8 q4, d28 101 vadd.s16 q4, q4, q12 111 vqmovun.s16 d4, q4
|
loopfilterhorizontaledge_y_neon.asm | 34 vld1.u8 {q4}, [r0], r1 ; p2 44 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 46 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 52 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 64 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 70 vand q3, q3, q4 95 vmovl.u8 q4, d20 101 vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0) 102 vmul.i16 q11, q11, q4 [all...] |
loopfilterhorizontaledge_uv_neon.asm | 60 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 61 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 65 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 77 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 83 vand q3, q3, q4 108 vmovl.u8 q4, d20 114 vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0) 115 vmul.i16 q11, q11, q4 120 ;vld1.u8 {q4}, [r12]! ;no need 7 any mor [all...] |
loopfilterverticaledge_uv_neon.asm | 56 vtrn.32 q4, q8 61 vtrn.16 q4, q6 65 vtrn.8 q3, q4 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 77 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 81 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 93 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 99 vand q3, q3, q4 125 vmovl.u8 q4, d2 [all...] |
loopfilterverticaledge_y_neon.asm | 56 vtrn.32 q4, q8 61 vtrn.16 q4, q6 65 vtrn.8 q3, q4 72 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 73 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 77 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 89 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 95 vand q3, q3, q4 121 vmovl.u8 q4, d2 [all...] |
mbloopfilterverticaledge_uv_neon.asm | 54 vtrn.32 q4, q8 59 vtrn.16 q4, q6 63 vtrn.8 q3, q4 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 77 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 120 veor q4, q4, q0 ; ps2: p2 offset to convert to a signed value 231 vqadd.s8 q10, q4, q10 ; s = vp8_signed_char_clamp(ps2 + u) 237 veor q4, q10, q0 ; *op2 = s^0x80 247 vtrn.32 q4, q [all...] |
mbloopfilterverticaledge_y_neon.asm | 52 vtrn.32 q4, q8 57 vtrn.16 q4, q6 61 vtrn.8 q3, q4 74 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 75 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 118 veor q4, q4, q0 ; ps2: p2 offset to convert to a signed value 231 vqadd.s8 q10, q4, q10 ; s = vp8_signed_char_clamp(ps2 + u) 237 veor q4, q10, q0 ; *op2 = s^0x80 247 vtrn.32 q4, q [all...] |
buildintrapredictorsmby_neon.asm | 62 vpaddl.u32 q4, q3 244 vmull.u8 q4, d16, d0 247 vsub.s16 q4, q4, q7 264 vqadd.s16 q8, q0, q4 267 vqadd.s16 q10, q1, q4 270 vqadd.s16 q12, q2, q4 273 vqadd.s16 q14, q3, q4 345 vpaddl.u32 q4, q3 527 vmull.u8 q4, d16, d [all...] |
sixtappredict8x8_neon.asm | 61 vld1.u8 {q4}, [r0], r1 123 vmull.u8 q4, d29, d3 130 vqadd.s16 q8, q4 142 vld1.u8 {q4}, [r0], r1 153 ;vld1.u8 {q4}, [r0], r1 219 vmull.u8 q4, d28, d3 225 vqadd.s16 q9, q4 262 vmull.u8 q4, d19, d0 267 vmlsl.u8 q4, d20, d1 272 vmlsl.u8 q4, d23, d [all...] |
sixtappredict8x4_neon.asm | 58 vld1.u8 {q4}, [r0], r1 119 vmull.u8 q4, d29, d3 124 vqadd.s16 q8, q4 135 vld1.u8 {q4}, [r0], r1 206 vmull.u8 q4, d28, d3 212 vqadd.s16 q9, q4 244 vmull.u8 q4, d23, d0 249 vmlsl.u8 q4, d24, d1 254 vmlsl.u8 q4, d27, d4 259 vmlal.u8 q4, d25, d [all...] |
loopfiltersimpleverticaledge_neon.asm | 57 ;vswp q4, q5 ; p1:q3, p0:q5, q0:q4, q1:q6 62 vabd.u8 q15, q5, q4 ; abs(p0 - q0) 68 veor q4, q4, q0 ; qs0: q0 offset to convert to a signed value 79 ;vqsub.s8 q2, q5, q4 ; ( qs0 - ps0) 110 vqsub.s8 q10, q4, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1)
|
bilinearpredict8x4_neon.asm | 44 vld1.u8 {q4}, [r0], r1 88 vmull.u8 q4, d25, d0 93 vmlal.u8 q4, d26, d1 100 vqrshrn.u16 d5, q4, #7
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 52 vld1.8 {q4, q5}, [r8]! 63 vst1.8 {q4, q5}, [r9]! 121 vmov q5, q4 132 vst1.8 {q4, q5}, [r5], lr 157 vld1.8 {q4, q5}, [r1]! 171 vst1.8 {q4, q5}, [r5]! 262 vst1.8 {q4}, [r5], lr 287 vld1.8 {q4, q5}, [r1]! 301 vst1.8 {q4, q5}, [r5]! 429 vld1.8 {q4, q5}, [r8] [all...] |