/external/libvpx/vp8/encoder/arm/neon/ |
variance_neon.asm | 29 vmov.i8 q8, #0 ;q8 - sum 49 vpadal.s16 q8, q11 ;calculate sum 55 vpadal.s16 q8, q12 58 vpadal.s16 q8, q13 61 vpadal.s16 q8, q14 68 vpaddl.s32 q0, q8 ;accumulate sum 102 vmov.i8 q8, #0 ;q8 - sum 119 vpadal.s16 q8, q11 ;calculate su [all...] |
vp8_mse16x16_neon.asm | 31 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 32 vmov.i8 q8, #0 50 vmlal.s16 q8, d23, d23 57 vmlal.s16 q8, d27, d27 63 vadd.u32 q7, q7, q8 85 vmov.i8 q8, #0 ;q8 - sum 102 vpadal.s16 q8, q11 108 vpadal.s16 q8, q12 111 vpadal.s16 q8, q1 [all...] |
vp8_subpixelvariance16x16s_neon.asm | 37 vmov.i8 q8, #0 ;q8 - sum 75 vpadal.s16 q8, q4 ;sum 81 vpadal.s16 q8, q5 84 vpadal.s16 q8, q6 87 vpadal.s16 q8, q7 91 vpadal.s16 q8, q0 ;sum 94 vpadal.s16 q8, q1 97 vpadal.s16 q8, q2 100 vpadal.s16 q8, q [all...] |
vp8_subpixelvariance8x8_neon.asm | 51 vmull.u8 q8, d6, d0 61 vmlal.u8 q8, d7, d1 69 vqrshrn.u16 d24, q8, #7 78 vmull.u8 q8, d6, d0 90 vmlal.u8 q8, d7, d1 96 vqrshrn.u16 d28, q8, #7 120 vmull.u8 q8, d29, d0 129 vmlal.u8 q8, d30, d1 138 vqrshrn.u16 d29, q8, #7 159 vmov.i8 q8, #0 ;q8 - su [all...] |
fastquantizeb_neon.asm | 56 vld1.s16 {q8, q9}, [r12] ;load quant_ptr [0-15] 63 vqdmulh.s16 q4, q8 ;y = ((Round + abs(z)) * Quant) >> 16 67 vceq.s16 q8, q8 ;set q8 to all 1 86 vtst.16 q14, q4, q8 ;now find eob 87 vtst.16 q15, q5, q8 ;non-zero element is set to all 1 in q4, q5
|
fastfdct4x4_neon.asm | 56 vqdmulh.s16 q8, q4, d0[0] 60 vshr.s16 q8, q8, #1 62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1 86 vqdmulh.s16 q8, q4, d0[0] 90 vshr.s16 q8, q8, #1 92 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d [all...] |
vp8_subpixelvariance16x16_neon.asm | 66 vmull.u8 q8, d3, d0 89 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * Filter[1]) 97 vqrshrn.u16 d15, q8, #7 202 vmull.u8 q8, d29, d0 211 vmlal.u8 q8, d31, d1 222 vqrshrn.u16 d9, q8, #7 254 vmull.u8 q8, d3, d0 277 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * Filter[1]) 285 vqrshrn.u16 d15, q8, #7 329 vmull.u8 q8, d29, d [all...] |
subtract_neon.asm | 65 vsubl.u8 q8, d0, d2 74 vst1.16 {q8}, [r0]! ;store diff 115 vsubl.u8 q8, d0, d1 124 vst1.16 {q8}, [r0]! ;store diff 151 vsubl.u8 q8, d0, d1 160 vst1.16 {q8}, [r0]! ;store diff
|
fastfdct8x4_neon.asm | 69 vqdmulh.s16 q8, q7, d0[1] 76 vshr.s16 q8, q8, #1 120 vqdmulh.s16 q8, q7, d0[1] 127 vshr.s16 q8, q8, #1 148 vclt.s16 q8, q4, #0 153 vsub.s16 q4, q4, q8
|
vp8_memcpy_neon.asm | 38 vld1.8 {q8, q9}, [r1]! 41 vst1.8 {q8, q9}, [r0]!
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 70 // q8 = dst red0 78 vshr.u16 q8, q10, #11 // shift dst red0 to low 5 bits 83 vmul.u16 q8, q8, q3 // multiply dst red0 by src alpha 90 vadd.u16 q8, q8, q0 // add src red to dst red0 96 vshr.u16 q8, q8, #8 // shift down red0 104 vsli.u16 q10, q8, #11 // shift & insert red0 into blue0
|
/external/libvpx/vp8/common/arm/neon/ |
sixtappredict4x4_neon.asm | 75 vmull.u8 q8, d20, d5 85 vmlal.u8 q8, d10, d0 92 vmlsl.u8 q8, d20, d1 99 vmlsl.u8 q8, d10, d4 106 vmlal.u8 q8, d20, d2 117 vqadd.s16 q8, q10 123 vqrshrun.s16 d28, q8, #7 140 vmull.u8 q8, d20, d5 152 vmlal.u8 q8, d10, d0 162 vmlsl.u8 q8, d20, d [all...] |
sixtappredict8x4_neon.asm | 69 vmull.u8 q8, d8, d0 79 vmlsl.u8 q8, d29, d1 89 vmlsl.u8 q8, d29, d4 99 vmlal.u8 q8, d29, d2 109 vmlal.u8 q8, d29, d5 124 vqadd.s16 q8, q4 131 vqrshrun.s16 d23, q8, #7 145 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 157 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1]) 169 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
sixtappredict8x8_neon.asm | 73 vmull.u8 q8, d8, d0 83 vmlsl.u8 q8, d29, d1 93 vmlsl.u8 q8, d29, d4 103 vmlal.u8 q8, d29, d2 113 vmlal.u8 q8, d29, d5 130 vqadd.s16 q8, q4 137 vqrshrun.s16 d23, q8, #7 158 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 170 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1]) 182 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
mbloopfilterverticaledge_uv_neon.asm | 54 vtrn.32 q4, q8 61 vtrn.16 q8, q10 65 vtrn.8 q7, q8 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 107 vabd.u8 q1, q5, q8 ; abs(p1 - q1) 119 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 129 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 232 vqsub.s8 q13, q8, q12 ; s = vp8_signed_char_clamp(qs1 - u [all...] |
mbloopfilterverticaledge_y_neon.asm | 52 vtrn.32 q4, q8 59 vtrn.16 q8, q10 63 vtrn.8 q7, q8 77 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 78 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 105 vabd.u8 q1, q5, q8 ; abs(p1 - q1) 117 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 127 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 232 vqsub.s8 q13, q8, q12 ; s = vp8_signed_char_clamp(qs1 - u [all...] |
loopfilterhorizontaledge_y_neon.asm | 45 vld1.u8 {q8}, [r0], r1 ; q1 50 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 51 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 72 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 86 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 97 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 157 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter) 164 veor q8, q12, q0 ; *oq1 = u^0x80 171 vst1.u8 {q8}, [r12] ; store oq [all...] |
bilinearpredict8x8_neon.asm | 48 vmull.u8 q8, d6, d0 58 vmlal.u8 q8, d7, d1 66 vqrshrn.u16 d24, q8, #7 75 vmull.u8 q8, d6, d0 87 vmlal.u8 q8, d7, d1 93 vqrshrn.u16 d28, q8, #7 118 vmull.u8 q8, d29, d0 127 vmlal.u8 q8, d30, d1 136 vqrshrn.u16 d9, q8, #7
|
sixtappredict16x16_neon.asm | 78 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 89 vmlsl.u8 q8, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 105 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 121 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 137 vmlal.u8 q8, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 161 vqadd.s16 q8, q4 ;sum of all (src_data*filter_parameters) 175 vqrshrun.s16 d6, q8, #7 ;shift/round/saturate to u8 196 vabs.s32 q8, q6 247 vmull.u8 q8, d22, d3 254 vqadd.s16 q8, q [all...] |
loopfilterverticaledge_uv_neon.asm | 56 vtrn.32 q4, q8 63 vtrn.16 q8, q10 67 vtrn.8 q7, q8 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 101 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 116 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 127 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 186 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter [all...] |
loopfilterverticaledge_y_neon.asm | 56 vtrn.32 q4, q8 63 vtrn.16 q8, q10 67 vtrn.8 q7, q8 75 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 76 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 97 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 112 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 123 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 182 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter [all...] |
loopfilterhorizontaledge_uv_neon.asm | 63 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 64 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 85 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 99 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 110 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 172 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter) 178 veor q8, q12, q0 ; *oq1 = u^0x80
|
loopfiltersimplehorizontaledge_neon.asm | 39 vld1.u8 {q8}, [r0] ; q1 43 vabd.u8 q14, q5, q8 ; abs(p1 - q1) 52 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 63 vqsub.s8 q4, q5, q8 ; q4: vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
mbloopfilterhorizontaledge_y_neon.asm | 44 vld1.u8 {q8}, [r0], r1 ; q1 47 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 49 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 76 vabd.u8 q1, q5, q8 ; abs(p1 - q1) 88 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 98 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1) 200 vqsub.s8 q13, q8, q12 ; s = vp8_signed_char_clamp(qs1 - u) 208 veor q8, q13, q0 ; *oq1 = s^0x80 216 vst1.u8 {q8}, [r12], r1 ; store oq [all...] |
bilinearpredict16x16_neon.asm | 63 vmull.u8 q8, d3, d0 86 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * vp8_filter[1]) 94 vqrshrn.u16 d15, q8, #7 196 vmull.u8 q8, d29, d0 205 vmlal.u8 q8, d31, d1 216 vqrshrn.u16 d9, q8, #7 248 vmull.u8 q8, d3, d0 271 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * vp8_filter[1]) 279 vqrshrn.u16 d15, q8, #7 320 vmull.u8 q8, d29, d [all...] |