/bionic/libm/src/ |
e_sqrt.c | 99 u_int32_t r,t1,s1,ix1,q1; local 137 q = q1 = s0 = s1 = 0; /* [q,q1] = sqrt(x) */ 162 q1 += r; 174 if (q1==(u_int32_t)0xffffffff) { q1=0; q += 1;} 176 if (q1==(u_int32_t)0xfffffffe) q+=1; 177 q1+=2; 179 q1 += (q1&1) [all...] |
e_jnf.c | 110 float q0,q1,h,tmp; int32_t k,m; local 112 q0 = w; z = w+h; q1 = w*z - (float)1.0; k=1; 113 while(q1<(float)1.0e9) { 115 tmp = z*q1 - q0; 116 q0 = q1; 117 q1 = tmp;
|
e_jn.c | 157 double q0,q1,h,tmp; int32_t k,m; local 159 q0 = w; z = w+h; q1 = w*z - 1.0; k=1; 160 while(q1<1.0e9) { 162 tmp = z*q1 - q0; 163 q0 = q1; 164 q1 = tmp;
|
/external/fdlibm/ |
e_sqrt.c | 100 unsigned r,t1,s1,ix1,q1; local 140 q = q1 = s0 = s1 = 0; /* [q,q1] = ieee_sqrt(x) */ 165 q1 += r; 177 if (q1==(unsigned)0xffffffff) { q1=0; q += 1;} 179 if (q1==(unsigned)0xfffffffe) q+=1; 180 q1+=2; 182 q1 += (q1&1) [all...] |
e_jn.c | 161 double q0,q1,h,tmp; int k,m; local 163 q0 = w; z = w+h; q1 = w*z - 1.0; k=1; 164 while(q1<1.0e9) { 166 tmp = z*q1 - q0; 167 q0 = q1; 168 q1 = tmp;
|
/external/libvpx/vp8/common/arm/neon/ |
loopfilterhorizontaledge_uv_neon.asm | 47 vld1.u8 {d16}, [r0], r1 ; q1 48 vld1.u8 {d17}, [r2], r1 ; q1 63 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 64 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 68 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 69 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 70 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 71 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 74 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*- [all...] |
loopfilterhorizontaledge_y_neon.asm | 45 vld1.u8 {q8}, [r0], r1 ; q1 50 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 51 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 55 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 56 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 57 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 58 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 61 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 63 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*- [all...] |
loopfilterverticaledge_uv_neon.asm | 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 84 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 85 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 86 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 87 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 90 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 92 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*- [all...] |
loopfilterverticaledge_y_neon.asm | 75 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 76 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 80 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 81 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 82 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 83 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 86 vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1 88 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*- [all...] |
mbloopfilterhorizontaledge_uv_neon.asm | 44 vld1.u8 {d16}, [r0], r1 ; q1 45 vld1.u8 {d17}, [r3], r1 ; q1 60 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 61 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 64 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 65 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 66 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 67 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 68 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*- [all...] |
mbloopfilterhorizontaledge_y_neon.asm | 44 vld1.u8 {q8}, [r0], r1 ; q1 47 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 49 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 52 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 53 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 54 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 55 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 56 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*- [all...] |
loopfiltersimpleverticaledge_neon.asm | 57 ;vswp q4, q5 ; p1:q3, p0:q5, q0:q4, q1:q6 63 vabd.u8 q14, q3, q6 ; abs(p1 - q1) 65 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 66 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 71 veor q6, q6, q0 ; qs1: q1 offset to convert to a signed value 73 vadd.u8 q1, q1, q1 ; flimit * 2 74 vadd.u8 q1, q1, q13 ; flimit * 2 + limi [all...] |
mbloopfilterverticaledge_uv_neon.asm | 79 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 80 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 83 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 84 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 85 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 86 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 87 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 88 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*- [all...] |
mbloopfilterverticaledge_y_neon.asm | 77 vabd.u8 q14, q8, q7 ; abs(q1 - q0) 78 vabd.u8 q3, q9, q8 ; abs(q2 - q1) 81 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1 82 vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1 83 vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1 84 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1 85 vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1 86 vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*- [all...] |
loopfiltersimplehorizontaledge_neon.asm | 39 vld1.u8 {q8}, [r0] ; q1 43 vabd.u8 q14, q5, q8 ; abs(p1 - q1) 45 vshr.u8 q14, q14, #1 ; abs(p1 - q1) / 2 46 vqadd.u8 q15, q15, q14 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2 52 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value 54 vadd.u8 q1, q1, q1 ; flimit * 2 55 vadd.u8 q1, q1, q13 ; flimit * 2 + limi [all...] |
buildintrapredictorsmby_neon.asm | 59 vld1.8 {q1}, [r6] 60 vpaddl.u8 q2, q1 179 vdup.u8 q1, r4 183 vst1.u8 {q1}, [r1]! 192 vdup.u8 q1, r4 196 vst1.u8 {q1}, [r1]! 206 vdup.u8 q1, r4 210 vst1.u8 {q1}, [r1]! 219 vdup.u8 q1, r4 223 vst1.u8 {q1}, [r1] [all...] |
recon16x16mb_neon.asm | 36 vmovl.u8 q1, d25 51 vadd.s16 q1, q1, q9 60 vqmovun.s16 d1, q1 67 vst1.u8 {q1}, [r2], r3 87 vmovl.u8 q1, d25 98 vadd.s16 q1, q1, q9 107 vqmovun.s16 d1, q1
|
/external/qemu/distrib/sdl-1.2.12/src/video/ |
e_sqrt.h | 146 u_int32_t r,t1,s1,ix1,q1; local 184 q = q1 = s0 = s1 = 0; /* [q,q1] = sqrt(x) */ 209 q1 += r; 221 if (q1==(u_int32_t)0xffffffff) { q1=0; q += 1;} 223 if (q1==(u_int32_t)0xfffffffe) q+=1; 224 q1+=2; 226 q1 += (q1&1) [all...] |
/external/libvpx/vp8/common/x86/ |
loopfilter_mmx.asm | 59 movq mm4, [rsi+rax] ; q1 60 movq mm3, mm4 ; q1 61 psubusb mm4, mm6 ; q1-=q2 62 psubusb mm6, mm3 ; q2-=q1 63 por mm4, mm6 ; abs(q2-q1) 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 109 movq mm3, [rdi] ; q1 110 movq mm4, mm3 ; q1 [all...] |
loopfilter_sse2.asm | 39 movdqa xmm4, [rsi+rax] ; q1 41 movq xmm0, [rsi] ; q1 45 movdqa XMMWORD PTR [rsp + 16], xmm4 ; store q1 48 movdqa xmm3, xmm4 ; q1 49 psubusb xmm4, xmm6 ; q1-=q2 50 psubusb xmm6, xmm3 ; q2-=q1 51 por xmm4, xmm6 ; abs(q2-q1) 66 psubusb xmm4, xmm3 ; q0-=q1 67 psubusb xmm3, xmm0 ; q1-=q0 68 por xmm4, xmm3 ; abs(q0-q1) [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 31 vld1.16 {q0, q1}, [r0] ;load z 35 vabs.s16 q5, q1 53 vshr.s16 q3, q1, #15 66 vld1.16 {q0, q1}, [r0] ;load rvsplus1_scan_order 92 vand q1, q1, q15 94 vmax.u16 q0, q0, q1 ;find maximum value in q0, q1
|
vp8_subpixelvariance16x16s_neon.asm | 55 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] 60 vrhadd.u8 q0, q0, q1 ;(src_ptr[0]+src_ptr[1])/round/shift right 1 62 vrhadd.u8 q1, q2, q3 71 vsubl.u8 q1, d5, d27 94 vpadal.s16 q8, q1 109 vpaddl.u32 q1, q10 146 vld1.8 {q1}, [r2], r3 164 vsubl.u8 q1, d9, d11 187 vpadal.s16 q8, q1 [all...] |
/external/v8/test/mjsunit/ |
indexed-accessors.js | 103 var q1 = {}; 104 q1.__defineSetter__('0', function() {q1.b = 17;}); 105 assertEquals(q1[0], undefined); 107 q1[0] = 3; 108 assertEquals(q1[0], undefined); 109 assertEquals(q1.b, 17);
|
/external/libvpx/vp8/common/arm/armv6/ |
simpleloopfilter_v6.asm | 70 ldr r6, [src, pstep] ; q1 82 uqsub8 r7, r3, r6 ; p1 - q1 83 uqsub8 r8, r6, r3 ; q1 - p1 86 orr r8, r8, r7 ; abs(p1 - q1) 90 uqadd8 r10, r10, r8 ; abs(p0 - q0)*2 + abs(p1 - q1)/2 100 eor r6, r6, r2 ; q1 offset to convert to a signed value 104 qsub8 r3, r3, r6 ; vp8_filter = p1 - q1 110 qadd8 r3, r3, r6 ; vp8_filter = p1-q1 + 3*(q0-p0)) 138 ldrne r6, [src, pstep] ; q1 184 uqsub8 r7, r3, r6 ; p1 - q1 [all...] |
/external/libvpx/vp8/common/ |
loopfilter_filters.c | 31 uc p3, uc p2, uc p1, uc p0, uc q0, uc q1, uc q2, uc q3) 37 mask |= (abs(q1 - q0) > limit) * -1; 38 mask |= (abs(q2 - q1) > limit) * -1; 43 mask |= (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 > flimit * 2 + limit) * -1; 50 static __inline signed char vp8_hevmask(signed char thresh, uc p1, uc p0, uc q0, uc q1) 54 hev |= (abs(q1 - q0) > thresh) * -1; 284 static __inline signed char vp8_simple_filter_mask(signed char limit, signed char flimit, uc p1, uc p0, uc q0, uc q1) 292 signed char mask = (abs(p0 - q0) * 2 + abs(p1 - q1) / 2 <= flimit * 2 + limit) * -1; 303 signed char q1 = (signed char) * oq1 ^ 0x80; local 306 vp8_filter = vp8_signed_char_clamp(p1 - q1); [all...] |