/external/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 31 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 33 vmov.i8 q9, #0 54 vmlal.s16 q9, d24, d24 58 vmlal.s16 q9, d28, d28 64 vadd.u32 q9, q9, q10 68 vadd.u32 q10, q7, q9 86 vmov.i8 q9, #0 ;q9, q10 - pred_error 103 vmlal.s16 q9, d22, d2 [all...] |
variance_neon.asm | 30 vmov.i8 q9, #0 ;q9, q10 - sse 50 vmlal.s16 q9, d22, d22 ;calculate sse 56 vmlal.s16 q9, d24, d24 59 vmlal.s16 q9, d26, d26 62 vmlal.s16 q9, d28, d28 67 vadd.u32 q10, q9, q10 ;accumulate sse 103 vmov.i8 q9, #0 ;q9, q10 - sse 120 vmlal.s16 q9, d22, d22 ;calculate ss [all...] |
vp8_subpixelvariance16x16s_neon.asm | 38 vmov.i8 q9, #0 ;q9, q10 - sse 76 vmlal.s16 q9, d8, d8 ;sse 82 vmlal.s16 q9, d10, d10 85 vmlal.s16 q9, d12, d12 88 vmlal.s16 q9, d14, d14 92 vmlal.s16 q9, d0, d0 ;sse 95 vmlal.s16 q9, d2, d2 98 vmlal.s16 q9, d4, d4 101 vmlal.s16 q9, d6, d [all...] |
vp8_subpixelvariance8x8_neon.asm | 52 vmull.u8 q9, d8, d0 62 vmlal.u8 q9, d9, d1 71 vqrshrn.u16 d25, q9, #7 79 vmull.u8 q9, d8, d0 91 vmlal.u8 q9, d9, d1 97 vqrshrn.u16 d29, q9, #7 160 vmov.i8 q9, #0 ;q9, q10 - sse 177 vmlal.s16 q9, d8, d8 ;sse 183 vmlal.s16 q9, d10, d1 [all...] |
subtract_neon.asm | 66 vsubl.u8 q9, d1, d3 75 vst1.16 {q9}, [r0]! 116 vsubl.u8 q9, d2, d3 125 vst1.16 {q9}, [r0]! 152 vsubl.u8 q9, d2, d3 161 vst1.16 {q9}, [r0]!
|
vp8_subpixelvariance16x16_neon.asm | 67 vmull.u8 q9, d5, d0 80 vmlal.u8 q9, d5, d1 98 vqrshrn.u16 d16, q9, #7 118 vmull.u8 q9, d2, d0 ;(src_ptr[0] * Filter[0]) 129 vmlal.u8 q9, d2, d1 ;(src_ptr[0] * Filter[1]) 158 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 255 vmull.u8 q9, d5, d0 268 vmlal.u8 q9, d5, d1 286 vqrshrn.u16 d16, q9, #7 364 vmov.i8 q9, #0 ;q9, q10 - ss [all...] |
vp8_memcpy_neon.asm | 38 vld1.8 {q8, q9}, [r1]! 41 vst1.8 {q8, q9}, [r0]!
|
fastfdct8x4_neon.asm | 73 vqdmulh.s16 q9, q6, d0[2] 80 vshr.s16 q9, q9, #1 ;d18:temp1 = ( c1 * x_c3)>>16; d19:temp1 = (d1 * x_c3)>>16 124 vqdmulh.s16 q9, q6, d0[2] 131 vshr.s16 q9, q9, #1 ;d18:temp1 = ( c1 * x_c3)>>16; d19:temp1 = (d1 * x_c3)>>16
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 71 // q9 = dst green0 80 vshl.u16 q9, q10, #5 // shift dst green0 to top 6 bits 82 vshr.u16 q9, q9, #10 // shift dst green0 to low 6 bits 85 vmul.u16 q9, q9, q3 // multiply dst green0 by src alpha 92 vadd.u16 q9, q9, q1 // add src green to dst green0 98 vshr.u16 q9, q9, #8 // shift down green [all...] |
/external/libvpx/vp8/common/arm/neon/ |
loopfilterhorizontaledge_y_neon.asm | 47 vld1.u8 {q9}, [r0], r1 ; q2 51 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 52 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 53 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 73 vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2 75 vqadd.u8 q9, q9, q2 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 76 vcge.u8 q9, q0, q9 ; (abs(p0 - q0)*2 + abs(p1-q1)/2 > flimit*2 + limit)*- [all...] |
loopfilterhorizontaledge_uv_neon.asm | 64 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 65 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 66 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 86 vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2 88 vqadd.u8 q9, q9, q2 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 89 vcge.u8 q9, q0, q9 ; (abs(p0 - q0)*2 + abs(p1-q1)/2 > flimit*2 + limit)*- [all...] |
loopfilterverticaledge_uv_neon.asm | 57 vtrn.32 q5, q9 62 vtrn.16 q7, q9 68 vtrn.8 q9, q10 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 81 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 82 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 102 vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2 104 vqadd.u8 q9, q9, q2 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
loopfilterverticaledge_y_neon.asm | 57 vtrn.32 q5, q9 62 vtrn.16 q7, q9 68 vtrn.8 q9, q10 76 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 77 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 78 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 98 vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2 100 vqadd.u8 q9, q9, q2 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
sixtappredict8x8_neon.asm | 74 vmull.u8 q9, d10, d0 84 vmlsl.u8 q9, d30, d1 94 vmlsl.u8 q9, d30, d4 104 vmlal.u8 q9, d30, d2 114 vmlal.u8 q9, d30, d5 131 vqadd.s16 q9, q5 138 vqrshrun.s16 d24, q9, #7 159 vmull.u8 q9, d8, d0 171 vmlsl.u8 q9, d28, d1 183 vmlsl.u8 q9, d28, d [all...] |
sixtappredict8x4_neon.asm | 70 vmull.u8 q9, d10, d0 80 vmlsl.u8 q9, d30, d1 90 vmlsl.u8 q9, d30, d4 100 vmlal.u8 q9, d30, d2 110 vmlal.u8 q9, d30, d5 125 vqadd.s16 q9, q5 132 vqrshrun.s16 d24, q9, #7 146 vmull.u8 q9, d8, d0 158 vmlsl.u8 q9, d28, d1 170 vmlsl.u8 q9, d28, d [all...] |
mbloopfilterverticaledge_uv_neon.asm | 55 vtrn.32 q5, q9 60 vtrn.16 q7, q9 66 vtrn.8 q9, q10 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 81 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 121 veor q9, q9, q0 ; qs2: q2 offset to convert to a signed value 230 vqsub.s8 q11, q9, q10 ; s = vp8_signed_char_clamp(qs2 - u) 236 veor q9, q11, q0 ; *oq2 = s^0x80 248 vtrn.32 q5, q9 [all...] |
mbloopfilterverticaledge_y_neon.asm | 53 vtrn.32 q5, q9 58 vtrn.16 q7, q9 64 vtrn.8 q9, q10 78 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 79 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 119 veor q9, q9, q0 ; qs2: q2 offset to convert to a signed value 230 vqsub.s8 q11, q9, q10 ; s = vp8_signed_char_clamp(qs2 - u) 236 veor q9, q11, q0 ; *oq2 = s^0x80 248 vtrn.32 q5, q9 [all...] |
sixtappredict16x16_neon.asm | 79 vmull.u8 q9, d7, d0 97 vmlsl.u8 q9, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 113 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 129 vmlal.u8 q9, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 145 vmlal.u8 q9, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 171 vqadd.s16 q9, q6 176 vqrshrun.s16 d7, q9, #7 248 vmull.u8 q9, d23, d3 255 vqadd.s16 q9, q5 260 vqrshrun.s16 d8, q9, # [all...] |
sixtappredict4x4_neon.asm | 82 vshr.u64 q9, q4, #8 ;construct src_ptr[-1] 96 vshr.u64 q9, q4, #16 ;construct src_ptr[0] 110 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3]) 116 vqadd.s16 q7, q9 ;sum of all (src_data*filter_parameters) 148 vshr.u64 q9, q4, #8 ;construct src_ptr[-1] 167 vshr.u64 q9, q4, #16 ;construct src_ptr[0] 188 vmull.u8 q9, d6, d3 ;(src_ptr[1] * vp8_filter[3]) 194 vqadd.s16 q7, q9 ;sum of all (src_data*filter_parameters) 294 vshr.u64 q9, q4, #8 ;construct src_ptr[-1] 308 vshr.u64 q9, q4, #16 ;construct src_ptr[0 [all...] |
recon16x16mb_neon.asm | 31 vld1.16 {q8, q9}, [r1]! ;load data from diff_ptr 51 vadd.s16 q1, q1, q9 82 vld1.16 {q8, q9}, [r1]! ;load data from diff_ptr 98 vadd.s16 q1, q1, q9
|
mbloopfilterhorizontaledge_y_neon.asm | 46 vld1.u8 {q9}, [r0], r1 ; q2 49 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 50 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 90 veor q9, q9, q0 ; qs2: q2 offset to convert to a signed value 198 vqsub.s8 q11, q9, q10 ; s = vp8_signed_char_clamp(qs2 - u) 204 veor q9, q11, q0 ; *oq2 = s^0x80 217 vst1.u8 {q9}, [r12] ; store oq2
|
bilinearpredict8x8_neon.asm | 49 vmull.u8 q9, d8, d0 59 vmlal.u8 q9, d9, d1 68 vqrshrn.u16 d25, q9, #7 76 vmull.u8 q9, d8, d0 88 vmlal.u8 q9, d9, d1 94 vqrshrn.u16 d29, q9, #7
|
bilinearpredict16x16_neon.asm | 64 vmull.u8 q9, d5, d0 77 vmlal.u8 q9, d5, d1 95 vqrshrn.u16 d16, q9, #7 115 vmull.u8 q9, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 126 vmlal.u8 q9, d2, d1 ;(src_ptr[0] * vp8_filter[1]) 155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 249 vmull.u8 q9, d5, d0 262 vmlal.u8 q9, d5, d1 280 vqrshrn.u16 d16, q9, #7
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframe_func_neon.asm | 59 vld1.8 {q8, q9}, [r10]! 70 vst1.8 {q8, q9}, [r11]! 117 vld1.8 {q8, q9}, [r10]! 124 vst1.8 {q8, q9}, [r11]!
|
vp8_vpxyv12_copyframeyonly_neon.asm | 49 vld1.8 {q8, q9}, [r10]! 60 vst1.8 {q8, q9}, [r11]! 123 vmov q9, q8 134 vst1.8 {q8, q9}, [r5], lr 154 vld1.8 {q8, q9}, [r2]! 168 vst1.8 {q8, q9}, [r6]! 284 vld1.8 {q8, q9}, [r2]! 298 vst1.8 {q8, q9}, [r6]! 426 vld1.8 {q8, q9}, [r10]! 437 vst1.8 {q8, q9}, [r11] [all...] |