/external/libvpx/vp8/common/arm/neon/ |
sixtappredict4x4_neon.asm | 55 vld1.u8 {q6}, [r0], r1 77 vmov q4, q3 ;keep original src data in q4 q6 78 vmov q6, q5 83 vshr.u64 q10, q6, #8 90 vshr.u64 q5, q6, #32 97 vshr.u64 q10, q6, #16 104 vshr.u64 q5, q6, #24 120 vld1.u8 {q6}, [r0], r1 143 vmov q4, q3 ;keep original src data in q4 q6 144 vmov q6, q [all...] |
mbloopfilterverticaledge_uv_neon.asm | 56 vtrn.32 q6, q10 59 vtrn.16 q4, q6 64 vtrn.8 q5, q6 78 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 92 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 117 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 125 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 183 ; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u [all...] |
mbloopfilterverticaledge_y_neon.asm | 54 vtrn.32 q6, q10 57 vtrn.16 q4, q6 62 vtrn.8 q5, q6 76 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 90 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 115 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 123 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 183 ; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u [all...] |
loopfiltersimplehorizontaledge_neon.asm | 35 vld1.u8 {q6}, [r0], r1 ; p0 42 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 50 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 92 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 97 veor q6, q11, q0 ; *op0 = u^0x80 100 vst1.u8 {q6}, [r0] ; store op0
|
recon16x16mb_neon.asm | 41 vmovl.u8 q6, d30 56 vadd.s16 q6, q6, q14 66 vqmovun.s16 d6, q6 92 vmovl.u8 q6, d30 103 vadd.s16 q6, q6, q14 115 vqmovun.s16 d6, q6
|
sixtappredict16x16_neon.asm | 159 vmull.u8 q6, d30, d3 163 vqadd.s16 q12, q6 165 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3]) 171 vqadd.s16 q9, q6 192 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 196 vabs.s32 q8, q6 224 vmull.u8 q6, d21, d0 229 vmlsl.u8 q6, d22, d1 234 vmlsl.u8 q6, d25, d4 239 vmlal.u8 q6, d23, d [all...] |
sixtappredict8x8_neon.asm | 65 vld1.u8 {q6}, [r0], r1 125 vmull.u8 q6, d31, d3 132 vqadd.s16 q10, q6 146 vld1.u8 {q6}, [r0], r1 155 ;vld1.u8 {q6}, [r0], r1 221 vmull.u8 q6, d30, d3 227 vqadd.s16 q11, q6 239 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 245 vabs.s32 q8, q6 264 vmull.u8 q6, d21, d [all...] |
loopfilterhorizontaledge_y_neon.asm | 38 vld1.u8 {q6}, [r0], r1 ; p0 48 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 53 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 84 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 90 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 141 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 156 ;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u) 162 veor q6, q11, q0 ; *op0 = u^0x80 169 vst1.u8 {q6}, [r2] ; store op [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 37 vld1.u8 {q6}, [r0], r1 ; p0 45 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 61 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 86 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 94 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 153 ; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u) 173 vqadd.s8 q6, q6, q13 ; ps0 = vp8_signed_char_clamp(ps0 + Filter2 [all...] |
sixtappredict8x4_neon.asm | 62 vld1.u8 {q6}, [r0], r1 121 vmull.u8 q6, d31, d3 126 vqadd.s16 q10, q6 139 vld1.u8 {q6}, [r0], r1 208 vmull.u8 q6, d30, d3 214 vqadd.s16 q11, q6 228 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 232 vabs.s32 q8, q6 246 vmull.u8 q6, d25, d0 251 vmlsl.u8 q6, d26, d [all...] |
bilinearpredict8x8_neon.asm | 46 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 56 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 62 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 73 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 85 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 91 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 116 vmull.u8 q6, d27, d0 125 vmlal.u8 q6, d28, d1 134 vqrshrn.u16 d7, q6, #7
|
loopfilterverticaledge_uv_neon.asm | 58 vtrn.32 q6, q10 61 vtrn.16 q4, q6 66 vtrn.8 q5, q6 78 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 82 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 114 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 120 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 170 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 185 ;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u [all...] |
loopfilterverticaledge_y_neon.asm | 58 vtrn.32 q6, q10 61 vtrn.16 q4, q6 66 vtrn.8 q5, q6 74 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 78 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 110 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 116 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 166 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 181 ;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u [all...] |
mbloopfilterhorizontaledge_uv_neon.asm | 59 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 73 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 98 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 106 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 166 ; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u) 189 vqadd.s8 q6, q6, q13 ; ps0 = vp8_signed_char_clamp(ps0 + Filter2) 219 vqadd.s8 q14, q6, q14 ; s = vp8_signed_char_clamp(ps0 + u [all...] |
loopfilterhorizontaledge_uv_neon.asm | 62 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 66 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 97 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 103 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 154 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 171 ;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u) 176 veor q6, q11, q0 ; *op0 = u^0x80
|
loopfiltersimpleverticaledge_neon.asm | 57 ;vswp q4, q5 ; p1:q3, p0:q5, q0:q4, q1:q6 63 vabd.u8 q14, q3, q6 ; abs(p1 - q1) 71 veor q6, q6, q0 ; qs1: q1 offset to convert to a signed value 83 vqsub.s8 q1, q3, q6 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 114 veor q6, q11, q0 ; *op0 = u^0x80
|
bilinearpredict8x4_neon.asm | 46 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
|
/external/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 41 vorr.s16 q6, q10, q11 55 vld1.s16 {q6, q7}, [r0] ;load round_ptr [0-15] 58 vadd.s16 q4, q6 ;x + Round 84 vld1.s16 {q6, q7}, [r12] ;load dequant_ptr[i] 98 vmul.s16 q6, q4 ;x * Dequant 104 vst1.s16 {q6, q7}, [r3] ;store dqcoeff = x * Dequant
|
vp8_subpixelvariance8x8_neon.asm | 49 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 76 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 118 vmull.u8 q6, d27, d0 127 vmlal.u8 q6, d28, d1 136 vqrshrn.u16 d27, q6, #7 174 vsubl.u8 q6, d24, d [all...] |
fastfdct8x4_neon.asm | 60 vshl.i16 q6, q6, #1 ; c1, d1 71 vqdmulh.s16 q10, q6, d0[0] 73 vqdmulh.s16 q9, q6, d0[2] 82 vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x_c1)>>16) + d1 122 vqdmulh.s16 q10, q6, d0[0] 124 vqdmulh.s16 q9, q6, d0[2] 133 vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x_c1)>>16) + d1 146 vclt.s16 q6, q2, #0 151 vsub.s16 q2, q2, q6 [all...] |
fastfdct4x4_neon.asm | 55 vqdmulh.s16 q6, q5, d0[1] 59 vshr.s16 q6, q6, #1 85 vqdmulh.s16 q6, q5, d0[1] 89 vshr.s16 q6, q6, #1
|
vp8_subpixelvariance16x16s_neon.asm | 58 vext.8 q7, q6, q7, #1 64 vrhadd.u8 q3, q6, q7 68 vsubl.u8 q6, d2, d24 84 vpadal.s16 q8, q6 149 vld1.u8 {q6}, [r0], r1 156 vrhadd.u8 q4, q4, q6 157 vrhadd.u8 q6, q6, q15 256 vext.8 q7, q6, q7, #1 261 vrhadd.u8 q3, q6, q [all...] |
vp8_memcpy_neon.asm | 36 vld1.8 {q6, q7}, [r1]! 39 vst1.8 {q6, q7}, [r0]!
|
shortfdct_neon.asm | 63 vmull.s16 q6, d22, d4[2] ;i=2 68 vmlal.s16 q6, d24, d5[2] 73 vmlal.s16 q6, d26, d6[2] 78 vmlal.s16 q6, d28, d7[2] ;sumtemp for i=2 83 vrshr.s32 q2, q6, #16
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 54 vld1.8 {q6, q7}, [r8]! 65 vst1.8 {q6, q7}, [r9]! 122 vmov q7, q6 133 vst1.8 {q6, q7}, [r6], lr 159 vld1.8 {q6, q7}, [r1]! 173 vst1.8 {q6, q7}, [r5]! 263 vst1.8 {q6}, [r6], lr 289 vld1.8 {q6, q7}, [r1]! 303 vst1.8 {q6, q7}, [r5]! 431 vld1.8 {q6, q7}, [r8] [all...] |