/external/libvpx/vp8/common/arm/neon/ |
buildintrapredictorsmby_neon.asm | 45 vdup.u8 q0, r12 126 vdup.u8 q0, r5 129 vst1.u8 {q0}, [r1]! 130 vst1.u8 {q0}, [r1]! 131 vst1.u8 {q0}, [r1]! 132 vst1.u8 {q0}, [r1]! 133 vst1.u8 {q0}, [r1]! 134 vst1.u8 {q0}, [r1]! 135 vst1.u8 {q0}, [r1]! 136 vst1.u8 {q0}, [r1] [all...] |
loopfilterhorizontaledge_uv_neon.asm | 45 vld1.u8 {d14}, [r0], r1 ; q0 46 vld1.u8 {d15}, [r2], r1 ; q0 63 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 66 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 71 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 74 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 78 vadd.u8 q0, q0, q0 ; flimit * 2 79 vadd.u8 q0, q0, q1 ; flimit * 2 + limi [all...] |
loopfilterhorizontaledge_y_neon.asm | 40 vld1.u8 {q7}, [r0], r1 ; q0 50 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 53 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 58 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 61 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 65 vadd.u8 q0, q0, q0 ; flimit * 2 66 vadd.u8 q0, q0, q1 ; flimit * 2 + limi [all...] |
mbloopfilterhorizontaledge_uv_neon.asm | 42 vld1.u8 {d14}, [r0], r1 ; q0 43 vld1.u8 {d15}, [r3], r1 ; q0 60 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 62 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 67 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 69 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 73 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 76 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 81 vand q3, q3, q0 [all...] |
loopfiltersimplehorizontaledge_neon.asm | 36 vld1.u8 {q0}, [r12]! ; 0x80 37 vld1.u8 {q7}, [r0], r1 ; q0 42 vabd.u8 q15, q6, q7 ; abs(p0 - q0) 44 vqadd.u8 q15, q15, q15 ; abs(p0 - q0) * 2 46 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 49 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value 50 veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value 51 veor q5, q5, q0 ; ps1: p1 offset to convert to a signed value 52 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed valu [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 42 vld1.u8 {q7}, [r0], r1 ; q0 47 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 50 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 55 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 57 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 61 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 64 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 69 vand q3, q3, q0 71 vld1.u8 {q0}, [r12] [all...] |
mbloopfilterverticaledge_uv_neon.asm | 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 81 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 86 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 88 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 92 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 95 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 100 vand q3, q3, q0 102 vld1.u8 {q0}, [r12]! 108 vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * [all...] |
mbloopfilterverticaledge_y_neon.asm | 77 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 79 vabd.u8 q0, q10, q9 ; abs(q3 - q2) 84 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 86 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1 90 vabd.u8 q12, q6, q7 ; abs(p0 - q0) 93 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 98 vand q3, q3, q0 100 vld1.u8 {q0}, [r12]! 106 vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * [all...] |
loopfilterverticaledge_uv_neon.asm | 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 82 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 87 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 90 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 94 vadd.u8 q0, q0, q0 ; flimit * 2 95 vadd.u8 q0, q0, q1 ; flimit * 2 + limit 102 vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * [all...] |
loopfilterverticaledge_y_neon.asm | 75 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 78 vabd.u8 q9, q6, q7 ; abs(p0 - q0) 83 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 86 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 90 vadd.u8 q0, q0, q0 ; flimit * 2 91 vadd.u8 q0, q0, q1 ; flimit * 2 + limit 98 vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * [all...] |
recon16x16mb_neon.asm | 35 vmovl.u8 q0, d24 ;modify Pred data from 8 bits to 16 bits 50 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 59 vqmovun.s16 d0, q0 ;CLAMP() saturation 65 vst1.u8 {q0}, [r2], r3 ;store result 86 vmovl.u8 q0, d24 ;modify Pred data from 8 bits to 16 bits 97 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together 105 vqmovun.s16 d0, q0 ;CLAMP() saturation
|
loopfiltersimpleverticaledge_neon.asm | 44 vld1.u8 {q0}, [r12]! ; 0x80 57 ;vswp q4, q5 ; p1:q3, p0:q5, q0:q4, q1:q6 62 vabd.u8 q15, q5, q4 ; abs(p0 - q0) 64 vqadd.u8 q15, q15, q15 ; abs(p0 - q0) * 2 66 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 68 veor q4, q4, q0 ; qs0: q0 offset to convert to a signed value 69 veor q5, q5, q0 ; ps0: p0 offset to convert to a signed value 70 veor q3, q3, q0 ; ps1: p1 offset to convert to a signed value 71 veor q6, q6, q0 ; qs1: q1 offset to convert to a signed valu [all...] |
/bionic/libm/src/ |
k_rem_pio2.c | 108 * q0 the corresponding exponent of q[0]. Note that the 109 * exponent for q[i] would be q0-24*i. 158 int32_t jz,jx,jv,jp,jk,carry,n,iq[20],i,j,k,m,q0,ih; local 165 /* determine jx,jv,q0, note that 3>q0 */ 168 q0 = e0-24*(jv+1); 189 z = scalbn(z,q0); /* actual value of z */ 194 if(q0>0) { /* need iq[jz-1] to determine n */ 195 i = (iq[jz-1]>>(24-q0)); n += i; 196 iq[jz-1] -= i<<(24-q0); [all...] |
k_rem_pio2f.c | 50 int32_t jz,jx,jv,jp,jk,carry,n,iq[20],i,j,k,m,q0,ih; local 57 /* determine jx,jv,q0, note that 3>q0 */ 60 q0 = e0-8*(jv+1); 81 z = scalbnf(z,q0); /* actual value of z */ 86 if(q0>0) { /* need iq[jz-1] to determine n */ 87 i = (iq[jz-1]>>(8-q0)); n += i; 88 iq[jz-1] -= i<<(8-q0); 89 ih = iq[jz-1]>>(7-q0); 91 else if(q0==0) ih = iq[jz-1]>>7 [all...] |
e_jnf.c | 110 float q0,q1,h,tmp; int32_t k,m; local 112 q0 = w; z = w+h; q1 = w*z - (float)1.0; k=1; 115 tmp = z*q1 - q0; 116 q0 = q1;
|
/external/fdlibm/ |
k_rem_pio2.c | 104 * q0 the corresponding exponent of q[0]. Note that the 105 * exponent for q[i] would be q0-24*i. 170 int jz,jx,jv,jp,jk,carry,n,iq[20],i,j,k,m,q0,ih; local 177 /* determine jx,jv,q0, note that 3>q0 */ 180 q0 = e0-24*(jv+1); 201 z = ieee_scalbn(z,q0); /* actual value of z */ 206 if(q0>0) { /* need iq[jz-1] to determine n */ 207 i = (iq[jz-1]>>(24-q0)); n += i; 208 iq[jz-1] -= i<<(24-q0); [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 31 vld1.16 {q0, q1}, [r0] ;load z 34 vabs.s16 q4, q0 ;calculate x = abs(z) 52 vshr.s16 q2, q0, #15 ; sz 66 vld1.16 {q0, q1}, [r0] ;load rvsplus1_scan_order 91 vand q0, q0, q14 ;get all valid number from rvsplus1_scan_order array 94 vmax.u16 q0, q0, q1 ;find maximum value in q0, q1 96 vmovl.u16 q0, d [all...] |
vp8_memcpy_neon.asm | 30 vld1.8 {q0, q1}, [r1]! ;load src data 33 vst1.8 {q0, q1}, [r0]! ;copy to dst_ptr 59 vld1.8 {q0}, [r1]! ;load src data 61 vst1.8 {q0}, [r0]!
|
vp8_subpixelvariance16x16s_neon.asm | 55 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] 60 vrhadd.u8 q0, q0, q1 ;(src_ptr[0]+src_ptr[1])/round/shift right 1 70 vsubl.u8 q0, d4, d26 91 vpadal.s16 q8, q0 ;sum 107 vpaddl.s32 q0, q8 ;accumulate sum 137 vld1.u8 {q0}, [r0], r1 ;load src data 153 vrhadd.u8 q0, q0, q2 163 vsubl.u8 q0, d8, d1 [all...] |
/external/libvpx/vp8/common/x86/ |
loopfilter_mmx.asm | 68 movq mm4, [rsi] ; q0 69 movq mm0, mm4 ; q0 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 118 movq mm3, [rsi] ; q0 119 psubusb mm5, mm3 ; p0-=q0 120 psubusb mm3, mm6 ; q0-=p0 121 por mm5, mm3 ; abs(p0 - q0) 122 paddusb mm5, mm5 ; abs(p0-q0)* [all...] |
loopfilter_sse2.asm | 57 movdqa xmm4, [rsi] ; q0 59 movq xmm4, [rsi + rax] ; q0 65 movdqa xmm0, xmm4 ; q0 66 psubusb xmm4, xmm3 ; q0-=q1 67 psubusb xmm3, xmm0 ; q1-=q0 68 por xmm4, xmm3 ; abs(q0-q1) 153 movdqa xmm3, xmm0 ; q0 154 psubusb xmm5, xmm3 ; p0-=q0 155 psubusb xmm3, xmm6 ; q0-=p0 156 por xmm5, xmm3 ; abs(p0 - q0) [all...] |
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 48 vld1.8 {q0, q1}, [r8]! 59 vst1.8 {q0, q1}, [r9]! 119 vmov q1, q0 130 vst1.8 {q0, q1}, [r5], lr 153 vld1.8 {q0, q1}, [r1]! 167 vst1.8 {q0, q1}, [r5]! 200 vld1.8 {q0}, [r1]! 208 vst1.8 {q0}, [r5], lr 210 vst1.8 {q0}, [r5], lr 212 vst1.8 {q0}, [r5], l [all...] |
vp8_vpxyv12_extendframeborders_neon.asm | 61 vmov q1, q0 72 vst1.8 {q0, q1}, [r5], lr 95 vld1.8 {q0, q1}, [r1]! 109 vst1.8 {q0, q1}, [r5]! 177 vst1.8 {q0}, [r5], lr 205 vld1.8 {q0, q1}, [r1]! 215 vst1.8 {q0, q1}, [r5]! 248 vld1.8 {q0}, [r1]! 256 vst1.8 {q0}, [r5], lr 258 vst1.8 {q0}, [r5], l [all...] |
/external/libvpx/vp8/common/arm/armv6/ |
simpleloopfilter_v6.asm | 69 ldr r5, [src] ; q0 84 uqsub8 r10, r4, r5 ; p0 - q0 85 uqsub8 r11, r5, r4 ; q0 - p0 87 orr r10, r10, r11 ; abs(p0 - q0) 88 uqadd8 r10, r10, r10 ; abs(p0 - q0) * 2 90 uqadd8 r10, r10, r8 ; abs(p0 - q0)*2 + abs(p1 - q1)/2 102 eor r5, r5, r2 ; q0 offset to convert to a signed value 105 qsub8 r6, r5, r4 ; q0 - p0 106 qadd8 r3, r3, r6 ; += q0 - p0 108 qadd8 r3, r3, r6 ; += q0 - p [all...] |
/external/libvpx/vp8/common/ |
loopfilter_filters.c | 31 uc p3, uc p2, uc p1, uc p0, uc q0, uc q1, uc q2, uc q3) 37 mask |= (abs(q1 - q0) > limit) * -1; 41 mask |= (abs(p0 - q0) > flimit) * -1; 43 mask |= (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 > flimit * 2 + limit) * -1; 50 static __inline signed char vp8_hevmask(signed char thresh, uc p1, uc p0, uc q0, uc q1) 54 hev |= (abs(q1 - q0) > thresh) * -1; 284 static __inline signed char vp8_simple_filter_mask(signed char limit, signed char flimit, uc p1, uc p0, uc q0, uc q1) 290 signed char mask = (abs(p0 - q0) <= flimit) * -1; 292 signed char mask = (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 <= flimit * 2 + limit) * -1; 302 signed char q0 = (signed char) * oq0 ^ 0x80 local [all...] |