/external/libvpx/vp8/common/arm/neon/ |
mbloopfilterhorizontaledge_uv_neon.asm | 60 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 67 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 76 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 104 vorr q14, q13, q14 ; q14: vp8_hevmask 139 vand q13, q1, q14 ; Filter2: q13; Filter2 &= hev 192 vbic q1, q1, q14 ; Filter2: q1; vp8_filter &= ~hev; Filter2 = vp8_filter 199 vmov q14, q1 [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 47 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 55 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 64 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 92 vorr q14, q13, q14 ; q14: vp8_hevmask 127 vand q13, q1, q14 ; Filter2: q13; Filter2 &= hev 176 vbic q1, q1, q14 ; Filter2: q1; vp8_filter &= ~hev; Filter2 = vp8_filter 183 vmov q14, q1 [all...] |
mbloopfilterverticaledge_uv_neon.asm | 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 86 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 95 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 123 vorr q14, q13, q14 ; q14: vp8_hevmask 158 vand q13, q1, q14 ; Filter2: q13; Filter2 &= hev 208 vbic q1, q1, q14 ; Filter2: q1; vp8_filter &= ~hev; Filter2 = vp8_filter 215 vmov q14, q1 [all...] |
mbloopfilterverticaledge_y_neon.asm | 77 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 84 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 93 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 121 vorr q14, q13, q14 ; q14: vp8_hevmask 156 vand q13, q1, q14 ; Filter2: q13; Filter2 &= hev 208 vbic q1, q1, q14 ; Filter2: q1; vp8_filter &= ~hev; Filter2 = vp8_filter 215 vmov q14, q1 [all...] |
recon16x16mb_neon.asm | 32 vld1.u8 {q14, q15}, [r0]! 44 vld1.16 {q14, q15}, [r1]! 56 vadd.s16 q6, q6, q14 83 vld1.u8 {q14, q15}, [r0]! 95 vld1.16 {q14, q15}, [r1]! 103 vadd.s16 q6, q6, q14
|
loopfilterhorizontaledge_uv_neon.asm | 63 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 71 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 74 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 111 vorr q14, q13, q14 ; q14: vp8_hevmask 117 vand q1, q1, q14 ; vp8_filter &= hev 164 vbic q1, q1, q14 ; vp8_filter &= ~hev
|
loopfilterhorizontaledge_y_neon.asm | 50 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 58 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 61 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 98 vorr q14, q13, q14 ; q14: vp8_hevmask 104 vand q1, q1, q14 ; vp8_filter &= hev 151 vbic q1, q1, q14 ; vp8_filter &= ~hev
|
loopfilterverticaledge_uv_neon.asm | 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 87 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 90 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 128 vorr q14, q13, q14 ; q14: vp8_hevmask 134 vand q1, q1, q14 ; vp8_filter &= hev 179 vbic q1, q1, q14 ; vp8_filter &= ~hev
|
loopfilterverticaledge_y_neon.asm | 75 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 83 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 86 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 124 vorr q14, q13, q14 ; q14: vp8_hevmask 130 vand q1, q1, q14 ; vp8_filter &= hev 176 vbic q1, q1, q14 ; vp8_filter &= ~hev
|
loopfiltersimplehorizontaledge_neon.asm | 43 vabd.u8 q14, q5, q8 ; abs(p1 - q1) 45 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 46 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2
|
loopfiltersimpleverticaledge_neon.asm | 63 vabd.u8 q14, q3, q6 ; abs(p1 - q1) 65 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 66 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 87 vadd.s16 q14, q13, q13 89 vadd.s16 q13, q13, q14
|
bilinearpredict16x16_neon.asm | 69 vmull.u8 q14, d12, d0 89 vmlal.u8 q14, d12, d1 102 vqrshrn.u16 d21, q14, #7 120 vmull.u8 q14, d9, d0 136 vmlal.u8 q14, d9, d1 160 vqrshrn.u16 d15, q14, #7 254 vmull.u8 q14, d12, d0 274 vmlal.u8 q14, d12, d1 286 vqrshrn.u16 d21, q14, #7
|
/external/libvpx/vp8/encoder/arm/neon/ |
subtract_neon.asm | 71 vsubl.u8 q14, d12, d14 80 vst1.16 {q14}, [r0]! 121 vsubl.u8 q14, d12, d13 130 vst1.16 {q14}, [r0]! 157 vsubl.u8 q14, d12, d13 166 vst1.16 {q14}, [r0]!
|
vp8_memcpy_neon.asm | 44 vld1.8 {q14, q15}, [r1]! 46 vst1.8 {q14, q15}, [r0]!
|
shortfdct_neon.asm | 37 vmull.s16 q14, d4, d3[0] ;i=3 42 vmlal.s16 q14, d5, d3[1] 47 vmlal.s16 q14, d6, d3[2] 52 vmlal.s16 q14, d7, d3[3] ;sumtemp for i=3 58 vrshrn.i32 d28, q14, #14
|
vp8_subpixelvariance16x16s_neon.asm | 61 vld1.8 {q14}, [r2], r3 162 vsubl.u8 q14, d5, d7 180 vpadal.s16 q8, q14 237 vmov.i8 q14, #0 ;q9, q10 - sse 284 vmlal.s16 q14, d18, d18 ;sse 288 vmlal.s16 q14, d20, d20 ;sse 292 vmlal.s16 q14, d22, d22 ;sse 296 vmlal.s16 q14, d24, d24 ;sse 302 vmlal.s16 q14, d0, d0 ;sse 306 vmlal.s16 q14, d2, d2 ;ss [all...] |
vp8_mse16x16_neon.asm | 47 vsubl.u8 q14, d3, d7 100 vsubl.u8 q14, d3, d7 114 vpadal.s16 q8, q14 154 vsubl.u8 q14, d3, d7
|
vp8_subpixelvariance16x16_neon.asm | 72 vmull.u8 q14, d12, d0 92 vmlal.u8 q14, d12, d1 105 vqrshrn.u16 d21, q14, #7 123 vmull.u8 q14, d9, d0 139 vmlal.u8 q14, d9, d1 163 vqrshrn.u16 d15, q14, #7 260 vmull.u8 q14, d12, d0 280 vmlal.u8 q14, d12, d1 292 vqrshrn.u16 d21, q14, #7 379 vsubl.u8 q14, d3, d [all...] |
fastfdct8x4_neon.asm | 74 vqdmulh.s16 q14, q2, d0[2] 81 vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>16 125 vqdmulh.s16 q14, q12, d0[2] 132 vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>16
|
variance_neon.asm | 44 vsubl.u8 q14, d3, d7 61 vpadal.s16 q8, q14 117 vsubl.u8 q14, d3, d7 131 vpadal.s16 q8, q14 237 vsubl.u8 q14, d3, d7 251 vpadal.s16 q8, q14
|
fastquantizeb_neon.asm | 86 vtst.16 q14, q4, q8 ;now find eob 91 vand q0, q0, q14 ;get all valid number from rvsplus1_scan_order array
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 48 vmov.u16 q14, #0x1f // create blue mask 81 vand q10, q10, q14 // extract dst blue0 89 vand q11, q11, q14 // extract dst blue1
|
/external/libvpx/vp8/decoder/arm/neon/ |
dequant_dc_idct_neon.asm | 79 vmov.i16 q14, #0 88 vmov q15, q14 104 vst1.16 {q14, q15}, [r0]
|
dequant_idct_neon.asm | 73 vmov.i16 q14, #0 82 vmov q15, q14 98 vst1.16 {q14, q15}, [r0]
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 55 vld1.8 {q14, q15}, [r10]! 66 vst1.8 {q14, q15}, [r11]! 126 vmov q15, q14 137 vst1.8 {q14, q15}, [r6], lr 160 vld1.8 {q14, q15}, [r2]! 174 vst1.8 {q14, q15}, [r6]! 267 vst1.8 {q14}, [r6], lr 290 vld1.8 {q14, q15}, [r2]! 304 vst1.8 {q14, q15}, [r6]! 432 vld1.8 {q14, q15}, [r10] [all...] |