/external/libvpx/vp8/decoder/arm/neon/ |
idct_dequant_dc_full_2x_neon.asm | 68 ; q7: 12 * sinpi : d1/temp2 72 vqdmulh.s16 q7, q5, d0[2] 98 vqadd.s16 q3, q4, q7 107 vqsub.s16 q7, q10, q3 111 vtrn.32 q5, q7 113 vtrn.16 q6, q7 118 ; q7: l 3, 7,11,15 r 3, 7,11,15 125 vqdmulh.s16 q9, q7, d0[2] 127 vqdmulh.s16 q11, q7, d0[0] 139 vqadd.s16 q11, q7, q1 [all...] |
idct_dequant_full_2x_neon.asm | 60 ; q7: 12 * sinpi : d1/temp2 64 vqdmulh.s16 q7, q5, d0[2] 90 vqadd.s16 q3, q4, q7 99 vqsub.s16 q7, q10, q3 103 vtrn.32 q5, q7 105 vtrn.16 q6, q7 110 ; q7: l 3, 7,11,15 r 3, 7,11,15 117 vqdmulh.s16 q9, q7, d0[2] 119 vqdmulh.s16 q11, q7, d0[0] 131 vqadd.s16 q11, q7, q1 [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 31 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 49 vmlal.s16 q7, d22, d22 56 vmlal.s16 q7, d26, d26 63 vadd.u32 q7, q7, q8 68 vadd.u32 q10, q7, q9 156 vmull.s16 q7, d22, d22 161 vadd.u32 q7, q7, q [all...] |
fastquantizeb_neon.asm | 55 vld1.s16 {q6, q7}, [r0] ;load round_ptr [0-15] 59 vadd.s16 q5, q7 84 vld1.s16 {q6, q7}, [r12] ;load dequant_ptr[i] 99 vmul.s16 q7, q5 104 vst1.s16 {q6, q7}, [r3] ;store dqcoeff = x * Dequant
|
vp8_subpixelvariance8x8_neon.asm | 50 vmull.u8 q7, d4, d0 60 vmlal.u8 q7, d5, d1 67 vqrshrn.u16 d23, q7, #7 77 vmull.u8 q7, d4, d0 89 vmlal.u8 q7, d5, d1 95 vqrshrn.u16 d27, q7, #7 119 vmull.u8 q7, d28, d0 128 vmlal.u8 q7, d29, d1 137 vqrshrn.u16 d28, q7, #7 180 vsubl.u8 q7, d25, d [all...] |
fastfdct4x4_neon.asm | 57 vqdmulh.s16 q7, q4, d0[2] 61 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16 87 vqdmulh.s16 q7, q4, d0[2] 91 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16
|
vp8_subpixelvariance16x16s_neon.asm | 58 vext.8 q7, q6, q7, #1 64 vrhadd.u8 q3, q6, q7 69 vsubl.u8 q7, d3, d25 87 vpadal.s16 q8, q7 154 vld1.8 {q7}, [r2], r3 256 vext.8 q7, q6, q7, #1 261 vrhadd.u8 q3, q6, q7 268 vld1.8 {q7}, [r2], r [all...] |
vp8_memcpy_neon.asm | 36 vld1.8 {q6, q7}, [r1]! 39 vst1.8 {q6, q7}, [r0]!
|
shortfdct_neon.asm | 64 vmull.s16 q7, d22, d4[3] ;i=3 69 vmlal.s16 q7, d24, d5[3] 74 vmlal.s16 q7, d26, d6[3] 79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3 84 vrshr.s32 q3, q7, #16
|
vp8_subpixelvariance16x16_neon.asm | 65 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0]) 79 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1]) 96 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 201 vmull.u8 q7, d28, d0 210 vmlal.u8 q7, d30, d1 221 vqrshrn.u16 d8, q7, #7 253 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0]) 267 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1]) 284 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 328 vmull.u8 q7, d28, d [all...] |
fastfdct8x4_neon.asm | 69 vqdmulh.s16 q8, q7, d0[1] 120 vqdmulh.s16 q8, q7, d0[1] 147 vclt.s16 q7, q3, #0 152 vsub.s16 q3, q3, q7
|
/external/libvpx/vp8/common/arm/neon/ |
sixtappredict4x4_neon.asm | 74 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 84 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) 91 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1]) 98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4]) 105 vmlal.u8 q7, d18, d2 ;(src_ptr[0] * vp8_filter[2]) 116 vqadd.s16 q7, q9 ;sum of all (src_data*filter_parameters) 122 vqrshrun.s16 d27, q7, #7 ;shift/round/saturate to u8 139 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 151 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0]) 161 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1] [all...] |
loopfiltersimplehorizontaledge_neon.asm | 37 vld1.u8 {q7}, [r0], r1 ; q0 42 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 49 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 93 vqsub.s8 q10, q7, q4 ; u = vp8_signed_char_clamp(qs0 - Filter1) 98 veor q7, q10, q0 ; *oq0 = u^0x80 101 vst1.u8 {q7}, [r3] ; store oq0
|
recon16x16mb_neon.asm | 43 vmovl.u8 q7, d31 57 vadd.s16 q7, q7, q15 68 vqmovun.s16 d7, q7 94 vmovl.u8 q7, d31 106 vadd.s16 q7, q7, q15 117 vqmovun.s16 d7, q7
|
sixtappredict8x4_neon.asm | 68 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 78 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 98 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 108 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 123 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 130 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 141 vld1.u8 {q7}, [r0], r1 209 vmull.u8 q7, d31, d3 215 vqadd.s16 q12, q7 [all...] |
sixtappredict8x8_neon.asm | 72 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0]) 82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 129 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 136 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 156 vld1.u8 {q7}, [r0], r1 222 vmull.u8 q7, d31, d3 228 vqadd.s16 q12, q7 [all...] |
bilinearpredict8x8_neon.asm | 47 vmull.u8 q7, d4, d0 57 vmlal.u8 q7, d5, d1 64 vqrshrn.u16 d23, q7, #7 74 vmull.u8 q7, d4, d0 86 vmlal.u8 q7, d5, d1 92 vqrshrn.u16 d27, q7, #7 117 vmull.u8 q7, d28, d0 126 vmlal.u8 q7, d29, d1 135 vqrshrn.u16 d8, q7, #7
|
mbloopfilter_neon.asm | 47 vld1.u8 {q7}, [r0], r1 ; q0 63 vst1.u8 {q7}, [r3] ; store oq0 168 vtrn.32 q3, q7 175 vtrn.16 q7, q9 180 vtrn.8 q7, q8 201 vtrn.32 q3, q7 209 vtrn.16 q7, q9 214 vtrn.8 q7, q8 282 vtrn.32 q3, q7 289 vtrn.16 q7, q [all...] |
loopfilter_neon.asm | 47 vld1.u8 {q7}, [r2], r1 ; q0 58 vst1.u8 {q7}, [r0], r1 ; store oq0 162 vtrn.32 q3, q7 169 vtrn.16 q7, q9 174 vtrn.8 q7, q8 246 vtrn.32 q3, q7 253 vtrn.16 q7, q9 258 vtrn.8 q7, q8 306 ; q7 q0 317 vabd.u8 q14, q8, q7 ; abs(q1 - q0 [all...] |
bilinearpredict16x16_neon.asm | 62 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 76 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1]) 93 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 195 vmull.u8 q7, d28, d0 204 vmlal.u8 q7, d30, d1 215 vqrshrn.u16 d8, q7, #7 247 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 261 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1]) 278 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8 319 vmull.u8 q7, d28, d [all...] |
sixtappredict16x16_neon.asm | 166 vmull.u8 q7, d31, d3 172 vqadd.s16 q11, q7 195 vabs.s32 q7, q5 246 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3]) 253 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters) 258 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8 309 vmull.u8 q7, d7, d0 326 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1]) 330 vmlsl.u8 q7, d26, d4 ;-(src_ptr[2] * vp8_filter[4]) 347 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5] [all...] |
bilinearpredict4x4_neon.asm | 57 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 61 vmlal.u8 q7, d8, d1 ;(src_ptr[1] * vp8_filter[1]) 65 vqrshrn.u16 d28, q7, #7 ;shift/round/saturate to u8
|
bilinearpredict8x4_neon.asm | 48 vmull.u8 q7, d4, d0 60 vmlal.u8 q7, d5, d1 66 vqrshrn.u16 d23, q7, #7
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 54 vld1.8 {q6, q7}, [r8]! 65 vst1.8 {q6, q7}, [r9]! 122 vmov q7, q6 133 vst1.8 {q6, q7}, [r6], lr 159 vld1.8 {q6, q7}, [r1]! 173 vst1.8 {q6, q7}, [r5]! 289 vld1.8 {q6, q7}, [r1]! 303 vst1.8 {q6, q7}, [r5]! 431 vld1.8 {q6, q7}, [r8]! 442 vst1.8 {q6, q7}, [r9] [all...] |
vp8_vpxyv12_copysrcframe_func_neon.asm | 55 vld1.8 {q6, q7}, [r10]! 65 vst1.8 {q6, q7}, [r11]! 169 vld1.8 {q6, q7}, [r10]! 175 vst1.8 {q6, q7}, [r11]!
|