/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 75 // q11 = dst blue1 84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 89 vand q11, q11, q14 // extract dst blue1 95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1 106 vshr.u16 q11, q11, #8 // shift down blue [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 32 vld1.16 {q10, q11}, [r1] ;load zbin 38 vcge.s16 q11, q5, q11 40 ;if x<zbin (q10 & q11 are all 0), go to zero_output 41 vorr.s16 q6, q10, q11 82 vand.s16 q5, q11 110 vst1.s16 {q10, q11}, [r2] ; qcoeff = 0 111 vst1.s16 {q10, q11}, [r3] ; dqcoeff = 0
|
subtract_neon.asm | 36 vsubl.u8 q11, d2, d3 68 vsubl.u8 q11, d5, d7 77 vst1.16 {q11}, [r0]! 118 vsubl.u8 q11, d6, d7 127 vst1.16 {q11}, [r0]! 154 vsubl.u8 q11, d6, d7 163 vst1.16 {q11}, [r0]!
|
variance_neon.asm | 41 vsubl.u8 q11, d0, d4 ;calculate diff 49 vpadal.s16 q8, q11 ;calculate sum 114 vsubl.u8 q11, d0, d4 ;calculate diff 119 vpadal.s16 q8, q11 ;calculate sum 177 vsubl.u8 q11, d0, d4 ;calculate diff 180 vpadal.s16 q8, q11 ;calculate sum 234 vsubl.u8 q11, d0, d4 ;calculate diff 239 vpadal.s16 q8, q11 ;calculate sum
|
vp8_memcpy_neon.asm | 40 vld1.8 {q10, q11}, [r1]! 43 vst1.8 {q10, q11}, [r0]!
|
shortfdct_neon.asm | 34 vmull.s16 q11, d4, d0[0] ;i=0 39 vmlal.s16 q11, d5, d0[1] 44 vmlal.s16 q11, d6, d0[2] 49 vmlal.s16 q11, d7, d0[3] ;sumtemp for i=0 55 vrshrn.i32 d22, q11, #14
|
vp8_subpixelvariance16x16_neon.asm | 69 vmull.u8 q11, d8, d0 81 vmlal.u8 q11, d8, d1 100 vqrshrn.u16 d18, q11, #7 120 vmull.u8 q11, d5, d0 130 vmlal.u8 q11, d5, d1 160 vqrshrn.u16 d12, q11, #7 227 vmov q11, q15 257 vmull.u8 q11, d8, d0 269 vmlal.u8 q11, d8, d1 288 vqrshrn.u16 d18, q11, # [all...] |
vp8_mse16x16_neon.asm | 44 vsubl.u8 q11, d0, d4 97 vsubl.u8 q11, d0, d4 102 vpadal.s16 q8, q11 151 vsubl.u8 q11, d0, d4
|
/external/libvpx/vp8/common/arm/neon/ |
loopfilterhorizontaledge_uv_neon.asm | 60 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 68 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 71 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 82 vand q10, q10, q11 105 vsubl.s8 q11, d15, d13 115 vmul.i16 q11, q11, q4 124 vaddw.s8 q11, q11, d3 129 vqmovn.s16 d3, q11 [all...] |
loopfilterhorizontaledge_y_neon.asm | 44 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 55 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 58 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 69 vand q10, q10, q11 92 vsubl.s8 q11, d15, d13 102 vmul.i16 q11, q11, q4 111 vaddw.s8 q11, q11, d3 116 vqmovn.s16 d3, q11 [all...] |
mbloopfilterhorizontaledge_uv_neon.asm | 57 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 64 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 67 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 80 vand q10, q10, q11 114 vadd.s16 q11, q13, q13 120 vadd.s16 q13, q13, q11 129 vld1.u8 {q11}, [r12]! ;#4 147 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4) 154 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1 160 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2 [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 41 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 52 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 55 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 68 vand q10, q10, q11 102 vadd.s16 q11, q13, q13 108 vadd.s16 q13, q13, q11 117 vld1.u8 {q11}, [r12]! ;#4 135 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4) 142 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1 147 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2 [all...] |
mbloopfilterverticaledge_uv_neon.asm | 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 83 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 86 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 99 vand q10, q10, q11 133 vadd.s16 q11, q13, q13 139 vadd.s16 q13, q13, q11 148 vld1.u8 {q11}, [r12]! ;#4 166 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4) 174 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1 177 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2 [all...] |
mbloopfilterverticaledge_y_neon.asm | 74 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 81 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 84 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 97 vand q10, q10, q11 131 vadd.s16 q11, q13, q13 137 vadd.s16 q13, q13, q11 146 vld1.u8 {q11}, [r12]! ;#4 164 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4) 172 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1 177 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2 [all...] |
loopfilterverticaledge_uv_neon.asm | 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 84 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 87 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 98 vand q10, q10, q11 122 vsubl.s8 q11, d15, d13 132 vmul.i16 q11, q11, q4 141 vaddw.s8 q11, q11, d3 146 vqmovn.s16 d3, q11 [all...] |
loopfilterverticaledge_y_neon.asm | 72 vabd.u8 q11, q3, q4 ; abs(p3 - p2) 80 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 83 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 94 vand q10, q10, q11 118 vsubl.s8 q11, d15, d13 128 vmul.i16 q11, q11, q4 137 vaddw.s8 q11, q11, d3 142 vqmovn.s16 d3, q11 [all...] |
loopfiltersimplehorizontaledge_neon.asm | 66 vadd.s16 q11, q2, q2 ; 3 * ( qs0 - ps0) 71 vadd.s16 q2, q2, q11 92 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 97 veor q6, q11, q0 ; *op0 = u^0x80
|
recon16x16mb_neon.asm | 33 vld1.16 {q10, q11}, [r1]! 53 vadd.s16 q3, q3, q11 84 vld1.16 {q10, q11}, [r1]! 100 vadd.s16 q3, q3, q11
|
bilinearpredict16x16_neon.asm | 66 vmull.u8 q11, d8, d0 78 vmlal.u8 q11, d8, d1 97 vqrshrn.u16 d18, q11, #7 117 vmull.u8 q11, d5, d0 127 vmlal.u8 q11, d5, d1 157 vqrshrn.u16 d12, q11, #7 221 vmov q11, q15 251 vmull.u8 q11, d8, d0 263 vmlal.u8 q11, d8, d1 282 vqrshrn.u16 d18, q11, # [all...] |
loopfiltersimpleverticaledge_neon.asm | 46 vld1.u8 {q11}, [r12]! ; 0x03 85 ;vmul.i8 q2, q2, q11 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0)) 104 vqadd.s8 q2, q1, q11 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3) 111 vqadd.s8 q11, q5, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2) 114 veor q6, q11, q0 ; *op0 = u^0x80
|
sixtappredict8x8_neon.asm | 161 vmull.u8 q11, d12, d0 173 vmlsl.u8 q11, d30, d1 185 vmlsl.u8 q11, d30, d4 197 vmlal.u8 q11, d30, d2 209 vmlal.u8 q11, d30, d5 227 vqadd.s16 q11, q6 241 vqrshrun.s16 d29, q11, #7 242 vld1.u8 {q11}, [lr]! 303 vmov q9, q11 307 vmov q11, q1 [all...] |
sixtappredict16x16_neon.asm | 81 vmull.u8 q11, d10, d0 98 vmlsl.u8 q11, d29, d1 114 vmlsl.u8 q11, d29, d4 130 vmlal.u8 q11, d29, d5 146 vmlal.u8 q11, d29, d2 172 vqadd.s16 q11, q7 178 vqrshrun.s16 d9, q11, #7 264 vmov q9, q11 355 vmull.u8 q11, d27, d3 360 vqadd.s16 q8, q11 [all...] |
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframe_func_neon.asm | 61 vld1.8 {q10, q11}, [r10]! 72 vst1.8 {q10, q11}, [r11]! 119 vld1.8 {q10, q11}, [r10]! 126 vst1.8 {q10, q11}, [r11]!
|
vp8_vpxyv12_copyframeyonly_neon.asm | 51 vld1.8 {q10, q11}, [r10]! 62 vst1.8 {q10, q11}, [r11]! 124 vmov q11, q10 135 vst1.8 {q10, q11}, [r6], lr 156 vld1.8 {q10, q11}, [r2]! 170 vst1.8 {q10, q11}, [r6]! 286 vld1.8 {q10, q11}, [r2]! 300 vst1.8 {q10, q11}, [r6]! 428 vld1.8 {q10, q11}, [r10]! 439 vst1.8 {q10, q11}, [r11] [all...] |
vp8_vpxyv12_extendframeborders_neon.asm | 66 vmov q11, q10 77 vst1.8 {q10, q11}, [r6], lr 98 vld1.8 {q10, q11}, [r2]! 112 vst1.8 {q10, q11}, [r6]! 188 vst1.8 {q11}, [r6], lr 208 vld1.8 {q10, q11}, [r2]! 218 vst1.8 {q10, q11}, [r6]! 369 vld1.8 {q10, q11}, [r2]! 383 vst1.8 {q10, q11}, [r6]! 479 vld1.8 {q10, q11}, [r2] [all...] |