/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 74 // q12 = dst green1 84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits 88 vshr.u16 q12, q12, #10 // shift dst green1 to low 6 bits 93 vmul.u16 q12, q12, q3 // multiply dst green1 by src alpha 99 vadd.u16 q12, q12, q1 // add src green to dst green1 105 vshr.u16 q12, q12, #8 // shift down green [all...] |
/external/libvpx/vp8/common/arm/neon/ |
mbloopfilterhorizontaledge_uv_neon.asm | 58 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 65 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 71 vand q15, q15, q12 73 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 89 vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2 91 vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 43 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 53 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 59 vand q15, q15, q12 61 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 77 vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2 79 vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
mbloopfilterverticaledge_uv_neon.asm | 77 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 84 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 90 vand q15, q15, q12 92 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 108 vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2 110 vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
mbloopfilterverticaledge_y_neon.asm | 75 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 82 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 88 vand q15, q15, q12 90 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 106 vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2 108 vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
recon16x16mb_neon.asm | 30 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 42 vld1.16 {q12, q13}, [r1]! 54 vadd.s16 q4, q4, q12 81 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 93 vld1.16 {q12, q13}, [r1]! 101 vadd.s16 q4, q4, q12
|
loopfilterhorizontaledge_uv_neon.asm | 61 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 69 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 81 vand q15, q15, q12 172 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter) 178 veor q8, q12, q0 ; *oq1 = u^0x80
|
loopfilterhorizontaledge_y_neon.asm | 46 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 56 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 68 vand q15, q15, q12 157 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter) 164 veor q8, q12, q0 ; *oq1 = u^0x80
|
sixtappredict8x8_neon.asm | 47 vabs.s32 q12, q14 162 vmull.u8 q12, d14, d0 174 vmlsl.u8 q12, d31, d1 186 vmlsl.u8 q12, d31, d4 198 vmlal.u8 q12, d31, d2 210 vmlal.u8 q12, d31, d5 228 vqadd.s16 q12, q7 247 vqrshrun.s16 d30, q12, #7 248 vld1.u8 {q12}, [lr]! 305 vmov q10, q12 [all...] |
sixtappredict16x16_neon.asm | 54 vabs.s32 q12, q14 82 vmull.u8 q12, d12, d0 91 vmlsl.u8 q12, d30, d1 107 vmlsl.u8 q12, d30, d4 123 vmlal.u8 q12, d30, d5 139 vmlal.u8 q12, d30, d2 163 vqadd.s16 q12, q6 179 vqrshrun.s16 d10, q12, #7 266 vmov q10, q12 287 vabs.s32 q12, q1 [all...] |
bilinearpredict16x16_neon.asm | 67 vmull.u8 q12, d9, d0 88 vmlal.u8 q12, d9, d1 98 vqrshrn.u16 d19, q12, #7 118 vmull.u8 q12, d6, d0 135 vmlal.u8 q12, d6, d1 158 vqrshrn.u16 d13, q12, #7 252 vmull.u8 q12, d9, d0 273 vmlal.u8 q12, d9, d1 283 vqrshrn.u16 d19, q12, #7
|
sixtappredict4x4_neon.asm | 42 vabs.s32 q12, q14 ;get abs(filer_parameters) 141 vmull.u8 q12, d31, d5 ;(src_ptr[3] * vp8_filter[5]) 153 vmlal.u8 q12, d22, d0 ;(src_ptr[-2] * vp8_filter[0]) 163 vmlsl.u8 q12, d31, d1 ;-(src_ptr[-1] * vp8_filter[1]) 173 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 183 vmlal.u8 q12, d31, d2 ;(src_ptr[0] * vp8_filter[2]) 196 vqadd.s16 q12, q11 203 vqrshrun.s16 d31, q12, #7 258 vabs.s32 q12, q14 ;get abs(filer_parameters)
|
loopfilterverticaledge_uv_neon.asm | 77 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 85 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 97 vand q15, q15, q12 186 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter) 191 veor q8, q12, q0 ; *oq1 = u^0x80
|
loopfilterverticaledge_y_neon.asm | 73 vabd.u8 q12, q4, q5 ; abs(p2 - p1) 81 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 93 vand q15, q15, q12 182 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter) 187 veor q8, q12, q0 ; *oq1 = u^0x80
|
sixtappredict8x4_neon.asm | 44 vabs.s32 q12, q14 149 vmull.u8 q12, d14, d0 161 vmlsl.u8 q12, d31, d1 173 vmlsl.u8 q12, d31, d4 185 vmlal.u8 q12, d31, d2 197 vmlal.u8 q12, d31, d5 215 vqadd.s16 q12, q7 221 vqrshrun.s16 d30, q12, #7 234 vld1.u8 {q12}, [lr]! 293 vabs.s32 q12, q1 [all...] |
loopfiltersimplehorizontaledge_neon.asm | 67 vadd.s16 q12, q3, q3 72 vadd.s16 q3, q3, q12
|
/external/libvpx/vp8/encoder/arm/neon/ |
subtract_neon.asm | 37 vsubl.u8 q12, d4, d5 69 vsubl.u8 q12, d8, d10 78 vst1.16 {q12}, [r0]! 119 vsubl.u8 q12, d8, d9 128 vst1.16 {q12}, [r0]! 155 vsubl.u8 q12, d8, d9 164 vst1.16 {q12}, [r0]!
|
variance_neon.asm | 42 vsubl.u8 q12, d1, d5 55 vpadal.s16 q8, q12 115 vsubl.u8 q12, d1, d5 125 vpadal.s16 q8, q12 178 vsubl.u8 q12, d2, d6 186 vpadal.s16 q8, q12 235 vsubl.u8 q12, d1, d5 245 vpadal.s16 q8, q12
|
vp8_memcpy_neon.asm | 42 vld1.8 {q12, q13}, [r1]! 45 vst1.8 {q12, q13}, [r0]!
|
shortfdct_neon.asm | 35 vmull.s16 q12, d4, d1[0] ;i=1 40 vmlal.s16 q12, d5, d1[1] 45 vmlal.s16 q12, d6, d1[2] 50 vmlal.s16 q12, d7, d1[3] ;sumtemp for i=1 56 vrshrn.i32 d24, q12, #14
|
vp8_mse16x16_neon.asm | 45 vsubl.u8 q12, d1, d5 98 vsubl.u8 q12, d1, d5 108 vpadal.s16 q8, q12 152 vsubl.u8 q12, d1, d5
|
vp8_subpixelvariance16x16_neon.asm | 70 vmull.u8 q12, d9, d0 91 vmlal.u8 q12, d9, d1 101 vqrshrn.u16 d19, q12, #7 121 vmull.u8 q12, d6, d0 138 vmlal.u8 q12, d6, d1 161 vqrshrn.u16 d13, q12, #7 258 vmull.u8 q12, d9, d0 279 vmlal.u8 q12, d9, d1 289 vqrshrn.u16 d19, q12, #7 377 vsubl.u8 q12, d1, d [all...] |
fastfdct8x4_neon.asm | 62 vshl.i16 q2, q12, #1 70 vqdmulh.s16 q13, q12, d0[1] 123 vqdmulh.s16 q15, q12, d0[0] 125 vqdmulh.s16 q14, q12, d0[2] 134 vadd.s16 q15, q12, q15 ;d30:temp2 = ((c1 * x_c1)>>16) + c1; d31:temp2 = ((d1 * x_c1)>>16) + d1
|
vp8_subpixelvariance16x16s_neon.asm | 46 vld1.8 {q12}, [r2], r3 160 vsubl.u8 q12, d1, d3 174 vpadal.s16 q8, q12 276 vsubl.u8 q12, d3, d13 295 vpadal.s16 q13, q12 ;sum 432 vext.8 q13, q12, q13, #1 441 vrhadd.u8 q6, q12, q13 515 vsubl.u8 q12, d1, d3 529 vpadal.s16 q8, q12
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 53 vld1.8 {q12, q13}, [r10]! 64 vst1.8 {q12, q13}, [r11]! 125 vmov q13, q12 136 vst1.8 {q12, q13}, [r5], lr 158 vld1.8 {q12, q13}, [r2]! 172 vst1.8 {q12, q13}, [r6]! 266 vst1.8 {q12}, [r5], lr 288 vld1.8 {q12, q13}, [r2]! 302 vst1.8 {q12, q13}, [r6]! 430 vld1.8 {q12, q13}, [r10] [all...] |