/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 63 vaddl.u8 q3, d6, d7 // add top bit into alpha 64 vsub.u16 q3, q15, q3 // invert alpha 83 vmul.u16 q8, q8, q3 // multiply dst red0 by src alpha 85 vmul.u16 q9, q9, q3 // multiply dst green0 by src alpha 87 vmul.u16 q10, q10, q3 // multiply dst blue0 by src alpha 91 vmul.u16 q13, q13, q3 // multiply dst red1 by src alpha 93 vmul.u16 q12, q12, q3 // multiply dst green1 by src alpha 95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha
|
/external/libvpx/vp8/decoder/arm/neon/ |
dequant_dc_idct_neon.asm | 29 vld1.16 {q3, q4}, [r0] 36 vmul.i16 q1, q3, q5 ;input for short_idct4x4llm_neon 53 vqdmulh.s16 q3, q2, d0[2] 59 vshr.s16 q3, q3, #1 62 vqadd.s16 q3, q3, q2 82 vqdmulh.s16 q3, q2, d0[2] 90 vshr.s16 q3, q3, # [all...] |
dequant_idct_neon.asm | 28 vld1.16 {q3, q4}, [r0] 40 vmul.i16 q1, q3, q5 ;input for short_idct4x4llm_neon 47 vqdmulh.s16 q3, q2, d0[2] 53 vshr.s16 q3, q3, #1 56 vqadd.s16 q3, q3, q2 76 vqdmulh.s16 q3, q2, d0[2] 84 vshr.s16 q3, q3, # [all...] |
/external/libvpx/vp8/common/arm/neon/ |
shortidct4x4llm_neon.asm | 40 vqdmulh.s16 q3, q2, d0[2] 46 vshr.s16 q3, q3, #1 49 vqadd.s16 q3, q3, q2 ;modify since sinpi8sqrt2 > 65536/2 (negtive number) 72 vqdmulh.s16 q3, q2, d0[2] 78 vshr.s16 q3, q3, #1 81 vqadd.s16 q3, q3, q2 ;modify since sinpi8sqrt2 > 65536/2 (negtive number [all...] |
buildintrapredictorsmby_neon.asm | 61 vpaddl.u16 q3, q2 62 vpaddl.u32 q4, q3 181 vdup.u8 q3, r6 185 vst1.u8 {q3}, [r1]! 194 vdup.u8 q3, r6 198 vst1.u8 {q3}, [r1]! 208 vdup.u8 q3, r6 212 vst1.u8 {q3}, [r1]! 221 vdup.u8 q3, r6 225 vst1.u8 {q3}, [r1] [all...] |
mbloopfilterverticaledge_uv_neon.asm | 53 vtrn.32 q3, q7 58 vtrn.16 q3, q5 63 vtrn.8 q3, q4 70 vst1.u8 {q3}, [sp]! 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 81 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 87 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 88 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*- [all...] |
mbloopfilterverticaledge_y_neon.asm | 51 vtrn.32 q3, q7 56 vtrn.16 q3, q5 61 vtrn.8 q3, q4 67 vst1.u8 {q3}, [sp]! 74 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 78 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 79 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 85 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 86 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*- [all...] |
recon16x16mb_neon.asm | 38 vmovl.u8 q3, d27 53 vadd.s16 q3, q3, q11 62 vqmovun.s16 d3, q3 74 vst1.u8 {q3}, [r2], r3 89 vmovl.u8 q3, d27 100 vadd.s16 q3, q3, q11 109 vqmovun.s16 d3, q3
|
loopfilterhorizontaledge_uv_neon.asm | 51 vld1.u8 {d20}, [r0], r1 ; q3 52 vld1.u8 {d21}, [r2], r1 ; q3 60 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 64 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 65 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 76 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 77 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 83 vand q3, q3, q [all...] |
loopfilterhorizontaledge_y_neon.asm | 32 vld1.u8 {q3}, [r0], r1 ; p3 44 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 49 vld1.u8 {q10}, [r0], r1 ; q3 51 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 52 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 63 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 64 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 70 vand q3, q3, q [all...] |
loopfiltersimplehorizontaledge_neon.asm | 61 vsubl.s8 q3, d15, d13 67 vadd.s16 q12, q3, q3 72 vadd.s16 q3, q3, q12 75 vaddw.s8 q3, q3, d9 79 vqmovn.s16 d9, q3
|
sixtappredict4x4_neon.asm | 49 vld1.u8 {q3}, [r0], r1 ;load first 4-line src data 77 vmov q4, q3 ;keep original src data in q4 q6 89 vshr.u64 q3, q4, #32 ;construct src_ptr[2] 103 vshr.u64 q3, q4, #24 ;construct src_ptr[1] 113 vld1.u8 {q3}, [r0], r1 ;load rest 5-line src data 143 vmov q4, q3 ;keep original src data in q4 q6 157 vshr.u64 q3, q4, #32 ;construct src_ptr[2] 177 vshr.u64 q3, q4, #24 ;construct src_ptr[1] 220 vmull.u8 q3, d27, d0 ;(src_ptr[-2] * vp8_filter[0]) 226 vmlsl.u8 q3, d29, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
loopfilterverticaledge_uv_neon.asm | 55 vtrn.32 q3, q7 60 vtrn.16 q3, q5 65 vtrn.8 q3, q4 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 81 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 92 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 93 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 99 vand q3, q3, q [all...] |
loopfilterverticaledge_y_neon.asm | 55 vtrn.32 q3, q7 60 vtrn.16 q3, q5 65 vtrn.8 q3, q4 72 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 76 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 77 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 88 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 89 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 95 vand q3, q3, q [all...] |
mbloopfilterhorizontaledge_uv_neon.asm | 48 vld1.u8 {d20}, [r0], r1 ; q3 49 vld1.u8 {d21}, [r3], r1 ; q3 57 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 61 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 62 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 68 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 69 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 81 vand q3, q3, q [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 31 vld1.u8 {q3}, [r0], r1 ; p3 41 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 48 vld1.u8 {q10}, [r0], r1 ; q3 49 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 50 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 56 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 57 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 69 vand q3, q3, q [all...] |
sixtappredict8x8_neon.asm | 59 vld1.u8 {q3}, [r0], r1 ;load src data 122 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]) 129 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 134 vld1.u8 {q3}, [r0], r1 ;load src data 152 ;vld1.u8 {q3}, [r0], r1 ;load src data 218 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3]) 224 vqadd.s16 q8, q3 ;sum of all (src_data*filter_parameters) 261 vmull.u8 q3, d18, d0 ;(src_ptr[-2] * vp8_filter[0]) 266 vmlsl.u8 q3, d19, d1 ;-(src_ptr[-1] * vp8_filter[1]) 271 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
sixtappredict8x4_neon.asm | 56 vld1.u8 {q3}, [r0], r1 ;load src data 118 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]) 123 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 128 vld1.u8 {q3}, [r0], r1 ;load src data 205 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3]) 211 vqadd.s16 q8, q3 ;sum of all (src_data*filter_parameters) 243 vmull.u8 q3, d22, d0 ;(src_ptr[-2] * vp8_filter[0]) 248 vmlsl.u8 q3, d23, d1 ;-(src_ptr[-1] * vp8_filter[1]) 253 vmlsl.u8 q3, d26, d4 ;-(src_ptr[2] * vp8_filter[4]) 258 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2] [all...] |
bilinearpredict8x4_neon.asm | 42 vld1.u8 {q3}, [r0], r1 87 vmull.u8 q3, d24, d0 92 vmlal.u8 q3, d25, d1 99 vqrshrn.u16 d4, q3, #7
|
/external/libvpx/vp8/encoder/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 56 vext.8 q3, q2, q3, #1 62 vrhadd.u8 q1, q2, q3 64 vrhadd.u8 q3, q6, q7 73 vsubl.u8 q3, d7, d29 100 vpadal.s16 q8, q3 148 vld1.8 {q3}, [r2], r3 166 vsubl.u8 q3, d13, d15 196 vpadal.s16 q8, q3 254 vext.8 q3, q2, q3, #1 ;construct src_ptr[1 [all...] |
vp8_memcpy_neon.asm | 32 vld1.8 {q2, q3}, [r1]! 35 vst1.8 {q2, q3}, [r0]!
|
fastfdct8x4_neon.asm | 34 vld1.16 {q3}, [r0], r2 147 vclt.s16 q7, q3, #0 152 vsub.s16 q3, q3, q7 157 vshr.s16 q3, q3, #1 161 vst1.16 {q3, q4}, [r1]
|
fastquantizeb_neon.asm | 53 vshr.s16 q3, q1, #15 74 veor.s16 q5, q3 79 vsub.s16 q5, q3
|
fastfdct4x4_neon.asm | 49 vshl.i16 q3, q3, #1 ; a1, b1 99 vclt.s16 q3, q1, #0 102 vsub.s16 q1, q1, q3
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copysrcframe_func_neon.asm | 54 vld1.8 {q2, q3}, [r2]! 64 vst1.8 {q2, q3}, [r3]! 110 vld1.8 {q2, q3}, [r2]! 116 vst1.8 {q2, q3}, [r3]! 168 vld1.8 {q2, q3}, [r2]! 174 vst1.8 {q2, q3}, [r3]! 216 vld1.8 {q2, q3}, [r2]! 220 vst1.8 {q2, q3}, [r3]!
|