/external/libvpx/vp8/common/arm/neon/ |
loopfilterhorizontaledge_uv_neon.asm | 49 vld1.u8 {d18}, [r0], r1 ; q2 50 vld1.u8 {d19}, [r2], r1 ; q2 64 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 65 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 73 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 74 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 76 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 77 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 85 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 87 vshr.u8 q2, q2, #1 ; abs(p1 - q1) / [all...] |
loopfilterhorizontaledge_y_neon.asm | 47 vld1.u8 {q9}, [r0], r1 ; q2 51 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 52 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 60 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 61 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 63 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 64 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 72 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 74 vshr.u8 q2, q2, #1 ; abs(p1 - q1) / [all...] |
mbloopfilterhorizontaledge_uv_neon.asm | 46 vld1.u8 {d18}, [r0], r1 ; q2 47 vld1.u8 {d19}, [r3], r1 ; q2 61 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 62 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 68 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 69 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 75 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 76 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 85 vadd.u8 q2, q2, q2 ; flimit * [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 46 vld1.u8 {q9}, [r0], r1 ; q2 49 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 50 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 56 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 57 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 63 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 64 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 73 vadd.u8 q2, q2, q2 ; flimit * [all...] |
mbloopfilterverticaledge_uv_neon.asm | 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 81 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 87 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 88 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 94 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 95 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 104 vadd.u8 q2, q2, q2 ; flimit * 2 105 vadd.u8 q2, q2, q1 ; flimit * 2 + limi [all...] |
mbloopfilterverticaledge_y_neon.asm | 78 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 79 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 85 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 86 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 92 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 93 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 102 vadd.u8 q2, q2, q2 ; flimit * 2 103 vadd.u8 q2, q2, q1 ; flimit * 2 + limi [all...] |
loopfiltersimplehorizontaledge_neon.asm | 59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0) 60 vsubl.s8 q2, d14, d12 ; ( qs0 - ps0) 65 ;vmul.i8 q2, q2, q10 ; 3 * ( qs0 - ps0) 66 vadd.s16 q11, q2, q2 ; 3 * ( qs0 - ps0) 71 vadd.s16 q2, q2, q11 74 vaddw.s8 q2, q2, d8 ; vp8_filter + 3 * ( qs0 - ps0 [all...] |
shortidct4x4llm_neon.asm | 35 vld1.16 {q1, q2}, [r0] 38 vswp d3, d4 ;q2(vp[4] vp[12]) 40 vqdmulh.s16 q3, q2, d0[2] 41 vqdmulh.s16 q4, q2, d0[0] 49 vqadd.s16 q3, q3, q2 ;modify since sinpi8sqrt2 > 65536/2 (negtive number) 50 vqadd.s16 q4, q4, q2 72 vqdmulh.s16 q3, q2, d0[2] 73 vqdmulh.s16 q4, q2, d0[0] 81 vqadd.s16 q3, q3, q2 ;modify since sinpi8sqrt2 > 65536/2 (negtive number) 82 vqadd.s16 q4, q4, q2 [all...] |
loopfilterverticaledge_uv_neon.asm | 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 81 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 89 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 90 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 92 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 93 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 101 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 103 vshr.u8 q2, q2, #1 ; abs(p1 - q1) / 2 104 vqadd.u8 q9, q9, q2 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
loopfilterverticaledge_y_neon.asm | 76 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 77 vabd.u8 q4, q10, q9 ; abs(q3 - q2) 85 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1 86 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 88 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 89 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1 97 vabd.u8 q2, q5, q8 ; abs(p1 - q1) 99 vshr.u8 q2, q2, #1 ; abs(p1 - q1) / 2 100 vqadd.u8 q9, q9, q2 ; abs(p0 - q0) * 2 + abs(p1 - q1) / [all...] |
loopfiltersimpleverticaledge_neon.asm | 79 ;vqsub.s8 q2, q5, q4 ; ( qs0 - ps0) 80 vsubl.s8 q2, d8, d10 ; ( qs0 - ps0) 85 ;vmul.i8 q2, q2, q11 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0)) 86 vadd.s16 q10, q2, q2 ; 3 * ( qs0 - ps0) 88 vadd.s16 q2, q2, q10 91 ;vqadd.s8 q1, q1, q2 92 vaddw.s8 q2, q2, d2 ; vp8_filter + 3 * ( qs0 - ps0 [all...] |
buildintrapredictorsmby_neon.asm | 60 vpaddl.u8 q2, q1 61 vpaddl.u16 q3, q2 180 vdup.u8 q2, r5 184 vst1.u8 {q2}, [r1]! 193 vdup.u8 q2, r5 197 vst1.u8 {q2}, [r1]! 207 vdup.u8 q2, r5 211 vst1.u8 {q2}, [r1]! 220 vdup.u8 q2, r5 224 vst1.u8 {q2}, [r1] [all...] |
recon16x16mb_neon.asm | 37 vmovl.u8 q2, d26 52 vadd.s16 q2, q2, q10 61 vqmovun.s16 d2, q2 69 vst1.u8 {q2}, [r2], r3 88 vmovl.u8 q2, d26 99 vadd.s16 q2, q2, q10 108 vqmovun.s16 d2, q2
|
bilinearpredict4x4_neon.asm | 49 vshr.u64 q5, q2, #8 81 vmull.u8 q2, d29, d0 87 vmlal.u8 q2, d27, d1 94 vqrshrn.u16 d3, q2, #7
|
/external/libvpx/vp8/decoder/arm/neon/ |
dequant_dc_idct_neon.asm | 37 vmul.i16 q2, q4, q6 51 vswp d3, d4 ;q2(vp[4] vp[12]) 53 vqdmulh.s16 q3, q2, d0[2] 54 vqdmulh.s16 q4, q2, d0[0] 62 vqadd.s16 q3, q3, q2 63 vqadd.s16 q4, q4, q2 82 vqdmulh.s16 q3, q2, d0[2] 83 vqdmulh.s16 q4, q2, d0[0] 93 vqadd.s16 q3, q3, q2 94 vqadd.s16 q4, q4, q2 [all...] |
dequant_idct_neon.asm | 41 vmul.i16 q2, q4, q6 45 vswp d3, d4 ;q2(vp[4] vp[12]) 47 vqdmulh.s16 q3, q2, d0[2] 48 vqdmulh.s16 q4, q2, d0[0] 56 vqadd.s16 q3, q3, q2 57 vqadd.s16 q4, q4, q2 76 vqdmulh.s16 q3, q2, d0[2] 77 vqdmulh.s16 q4, q2, d0[0] 87 vqadd.s16 q3, q3, q2 88 vqadd.s16 q4, q4, q2 [all...] |
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 50 vld1.8 {q2, q3}, [r8]! 61 vst1.8 {q2, q3}, [r9]! 120 vmov q3, q2 131 vst1.8 {q2, q3}, [r6], lr 155 vld1.8 {q2, q3}, [r1]! 169 vst1.8 {q2, q3}, [r5]! 201 vld1.8 {q2}, [r2]! 209 vst1.8 {q2}, [r6], lr 211 vst1.8 {q2}, [r6], lr 213 vst1.8 {q2}, [r6], l [all...] |
vp8_vpxyv12_extendframeborders_neon.asm | 62 vmov q3, q2 73 vst1.8 {q2, q3}, [r6], lr 97 vld1.8 {q2, q3}, [r1]! 111 vst1.8 {q2, q3}, [r5]! 179 vst1.8 {q2}, [r5], lr 207 vld1.8 {q2, q3}, [r1]! 217 vst1.8 {q2, q3}, [r5]! 249 vld1.8 {q2}, [r2]! 257 vst1.8 {q2}, [r6], lr 259 vst1.8 {q2}, [r6], l [all...] |
vp8_vpxyv12_copysrcframe_func_neon.asm | 54 vld1.8 {q2, q3}, [r2]! 64 vst1.8 {q2, q3}, [r3]! 110 vld1.8 {q2, q3}, [r2]! 116 vst1.8 {q2, q3}, [r3]! 168 vld1.8 {q2, q3}, [r2]! 174 vst1.8 {q2, q3}, [r3]! 216 vld1.8 {q2, q3}, [r2]! 220 vst1.8 {q2, q3}, [r3]!
|
/external/libvpx/vp8/encoder/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 56 vext.8 q3, q2, q3, #1 62 vrhadd.u8 q1, q2, q3 63 vrhadd.u8 q2, q4, q5 72 vsubl.u8 q2, d6, d28 97 vpadal.s16 q8, q2 145 vld1.u8 {q2}, [r0], r1 153 vrhadd.u8 q0, q0, q2 155 vrhadd.u8 q2, q2, q4 165 vsubl.u8 q2, d12, d1 [all...] |
fastfdct8x4_neon.asm | 33 vld1.16 {q2}, [r0], r2 62 vshl.i16 q2, q12, #1 72 vqdmulh.s16 q15, q2, d0[0] 74 vqdmulh.s16 q14, q2, d0[2] 83 vadd.s16 q15, q2, q15 ;d30:temp2 = ((c1 * x_c1)>>16) + c1; d31:temp2 = ((d1 * x_c1)>>16) + d1 146 vclt.s16 q6, q2, #0 151 vsub.s16 q2, q2, q6 156 vshr.s16 q2, q2, # [all...] |
fastfdct4x4_neon.asm | 100 vclt.s16 q4, q2, #0 103 vsub.s16 q2, q2, q4 106 vshr.s16 q2, q2, #1 108 vst1.16 {q1, q2}, [r1]
|
vp8_memcpy_neon.asm | 32 vld1.8 {q2, q3}, [r1]! 35 vst1.8 {q2, q3}, [r0]!
|
fastquantizeb_neon.asm | 52 vshr.s16 q2, q0, #15 ; sz 73 veor.s16 q4, q2 ; y^sz 78 vsub.s16 q4, q2 ; x1 = (y^sz) - sz = (y^sz) - (-1) (two's complement)
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 60 vshll.u8 q2, d4, #5 // shift up blue and widen 94 vadd.u16 q10, q10, q2 // add src blue to dst blue0 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
|