/external/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 31 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 49 vmlal.s16 q7, d22, d22 56 vmlal.s16 q7, d26, d26 63 vadd.u32 q7, q7, q8 68 vadd.u32 q10, q7, q9 156 vmull.s16 q7, d22, d22 161 vadd.u32 q7, q7, q [all...] |
fastquantizeb_neon.asm | 55 vld1.s16 {q6, q7}, [r0] ;load round_ptr [0-15] 59 vadd.s16 q5, q7 84 vld1.s16 {q6, q7}, [r12] ;load dequant_ptr[i] 99 vmul.s16 q7, q5 104 vst1.s16 {q6, q7}, [r3] ;store dqcoeff = x * Dequant
|
vp8_subpixelvariance8x8_neon.asm | 50 vmull.u8 q7, d4, d0 60 vmlal.u8 q7, d5, d1 67 vqrshrn.u16 d23, q7, #7 77 vmull.u8 q7, d4, d0 89 vmlal.u8 q7, d5, d1 95 vqrshrn.u16 d27, q7, #7 119 vmull.u8 q7, d28, d0 128 vmlal.u8 q7, d29, d1 137 vqrshrn.u16 d28, q7, #7 180 vsubl.u8 q7, d25, d [all...] |
fastfdct4x4_neon.asm | 57 vqdmulh.s16 q7, q4, d0[2] 61 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16 87 vqdmulh.s16 q7, q4, d0[2] 91 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16
|
vp8_subpixelvariance16x16s_neon.asm | 58 vext.8 q7, q6, q7, #1 64 vrhadd.u8 q3, q6, q7 69 vsubl.u8 q7, d3, d25 87 vpadal.s16 q8, q7 154 vld1.8 {q7}, [r2], r3 256 vext.8 q7, q6, q7, #1 261 vrhadd.u8 q3, q6, q7 268 vld1.8 {q7}, [r2], r [all...] |
vp8_memcpy_neon.asm | 36 vld1.8 {q6, q7}, [r1]! 39 vst1.8 {q6, q7}, [r0]!
|
shortfdct_neon.asm | 64 vmull.s16 q7, d22, d4[3] ;i=3 69 vmlal.s16 q7, d24, d5[3] 74 vmlal.s16 q7, d26, d6[3] 79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3 84 vrshr.s32 q3, q7, #16
|
vp8_subpixelvariance16x16_neon.asm | 65 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0]) 79 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1]) 96 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 201 vmull.u8 q7, d28, d0 210 vmlal.u8 q7, d30, d1 221 vqrshrn.u16 d8, q7, #7 253 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0]) 267 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1]) 284 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 328 vmull.u8 q7, d28, d [all...] |
/external/libvpx/vp8/common/arm/neon/ |
mbloopfilterverticaledge_uv_neon.asm | 53 vtrn.32 q3, q7 60 vtrn.16 q7, q9 65 vtrn.8 q7, q8 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 92 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 116 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 125 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 176 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2 [all...] |
mbloopfilterverticaledge_y_neon.asm | 51 vtrn.32 q3, q7 58 vtrn.16 q7, q9 63 vtrn.8 q7, q8 77 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 90 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 114 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 123 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 176 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2 [all...] |
sixtappredict4x4_neon.asm | 74 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 84 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) 91 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1]) 98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 105 vmlal.u8 q7, d18, d2 ;(src_ptr[0] * vp8_filter[2]) 116 vqadd.s16 q7, q9 ;sum of all (src_data*filter_parameters) 122 vqrshrun.s16 d27, q7, #7 ;shift/round/saturate to u8 139 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 151 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) 161 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1] [all...] |
loopfiltersimplehorizontaledge_neon.asm | 37 vld1.u8 {q7}, [r0], r1 ; q0 42 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 49 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 93 vqsub.s8 q10, q7, q4 ; u = vp8_signed_char_clamp(qs0 - Filter1) 98 veor q7, q10, q0 ; *oq0 = u^0x80 101 vst1.u8 {q7}, [r3] ; store oq0
|
recon16x16mb_neon.asm | 43 vmovl.u8 q7, d31 57 vadd.s16 q7, q7, q15 68 vqmovun.s16 d7, q7 94 vmovl.u8 q7, d31 106 vadd.s16 q7, q7, q15 117 vqmovun.s16 d7, q7
|
loopfilterhorizontaledge_y_neon.asm | 40 vld1.u8 {q7}, [r0], r1 ; q0 50 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 53 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 83 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 90 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 131 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter) 142 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1) 163 veor q7, q10, q0 ; *oq0 = u^0x80 170 vst1.u8 {q7}, [r3] ; store oq [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 42 vld1.u8 {q7}, [r0], r1 ; q0 47 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 61 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 85 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 94 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 146 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2) 168 vqsub.s8 q7, q7, q2 ; qs0 = vp8_signed_char_clamp(qs0 - Filter1 [all...] |
sixtappredict8x4_neon.asm | 68 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 78 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 98 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 108 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 123 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 130 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 141 vld1.u8 {q7}, [r0], r1 209 vmull.u8 q7, d31, d3 215 vqadd.s16 q12, q7 [all...] |
sixtappredict8x8_neon.asm | 72 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 129 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 136 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 156 vld1.u8 {q7}, [r0], r1 222 vmull.u8 q7, d31, d3 228 vqadd.s16 q12, q7 [all...] |
bilinearpredict8x8_neon.asm | 47 vmull.u8 q7, d4, d0 57 vmlal.u8 q7, d5, d1 64 vqrshrn.u16 d23, q7, #7 74 vmull.u8 q7, d4, d0 86 vmlal.u8 q7, d5, d1 92 vqrshrn.u16 d27, q7, #7 117 vmull.u8 q7, d28, d0 126 vmlal.u8 q7, d29, d1 135 vqrshrn.u16 d8, q7, #7
|
loopfilterverticaledge_uv_neon.asm | 55 vtrn.32 q3, q7 62 vtrn.16 q7, q9 67 vtrn.8 q7, q8 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 82 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 113 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 120 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 161 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter) 171 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1 [all...] |
loopfilterverticaledge_y_neon.asm | 55 vtrn.32 q3, q7 62 vtrn.16 q7, q9 67 vtrn.8 q7, q8 75 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 78 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 109 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 116 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 157 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter) 167 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1 [all...] |
mbloopfilterhorizontaledge_uv_neon.asm | 60 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 73 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 97 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 106 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 159 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2) 182 vqsub.s8 q7, q7, q2 ; qs0 = vp8_signed_char_clamp(qs0 - Filter1) 218 vqsub.s8 q15, q7, q14 ; s = vp8_signed_char_clamp(qs0 - u [all...] |
loopfilterhorizontaledge_uv_neon.asm | 63 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 66 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 96 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 103 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 144 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter) 155 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1) 177 veor q7, q10, q0 ; *oq0 = u^0x80
|
bilinearpredict16x16_neon.asm | 62 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 76 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1]) 93 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 195 vmull.u8 q7, d28, d0 204 vmlal.u8 q7, d30, d1 215 vqrshrn.u16 d8, q7, #7 247 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 261 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1]) 278 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 319 vmull.u8 q7, d28, d [all...] |
sixtappredict16x16_neon.asm | 166 vmull.u8 q7, d31, d3 172 vqadd.s16 q11, q7 195 vabs.s32 q7, q5 246 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3]) 253 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 258 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8 309 vmull.u8 q7, d7, d0 326 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1]) 330 vmlsl.u8 q7, d26, d4 ;-(src_ptr[2] * vp8_filter[4]) 347 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5] [all...] |
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 54 vld1.8 {q6, q7}, [r8]! 65 vst1.8 {q6, q7}, [r9]! 122 vmov q7, q6 133 vst1.8 {q6, q7}, [r6], lr 159 vld1.8 {q6, q7}, [r1]! 173 vst1.8 {q6, q7}, [r5]! 289 vld1.8 {q6, q7}, [r1]! 303 vst1.8 {q6, q7}, [r5]! 431 vld1.8 {q6, q7}, [r8]! 442 vst1.8 {q6, q7}, [r9] [all...] |