/external/skia/legacy/src/opts/ |
memset32_neon.S | 32 vdup.32 q0, r1 33 vmov q1, q0 44 vst1.64 {q0, q1}, [r0]! 45 vst1.64 {q0, q1}, [r0]! 46 vst1.64 {q0, q1}, [r0]! 47 vst1.64 {q0, q1}, [r0]! 48 vst1.64 {q0, q1}, [r0]! 49 vst1.64 {q0, q1}, [r0]! 50 vst1.64 {q0, q1}, [r0]! 51 vst1.64 {q0, q1}, [r0] [all...] |
memset16_neon.S | 77 * build q0 and q1 depending on if we'll need it, so that's 86 vmov q1, q0 92 vst1.64 {q0, q1}, [r0]! 93 vst1.64 {q0, q1}, [r0]! 94 vst1.64 {q0, q1}, [r0]! 95 vst1.64 {q0, q1}, [r0]! 105 vst1.64 {q0, q1}, [r0]! 114 vst1.32 {q0}, [r0]!
|
/external/skia/src/opts/ |
memset32_neon.S | 32 vdup.32 q0, r1 33 vmov q1, q0 44 vst1.64 {q0, q1}, [r0]! 45 vst1.64 {q0, q1}, [r0]! 46 vst1.64 {q0, q1}, [r0]! 47 vst1.64 {q0, q1}, [r0]! 48 vst1.64 {q0, q1}, [r0]! 49 vst1.64 {q0, q1}, [r0]! 50 vst1.64 {q0, q1}, [r0]! 51 vst1.64 {q0, q1}, [r0] [all...] |
memset16_neon.S | 77 * build q0 and q1 depending on if we'll need it, so that's 86 vmov q1, q0 92 vst1.64 {q0, q1}, [r0]! 93 vst1.64 {q0, q1}, [r0]! 94 vst1.64 {q0, q1}, [r0]! 95 vst1.64 {q0, q1}, [r0]! 105 vst1.64 {q0, q1}, [r0]! 114 vst1.32 {q0}, [r0]!
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/reference/vc/m4p10/src/ |
armVCM4P10_DeBlockPixel.c | 34 * [in] pQ0 Pointer to pixel q0 35 * [in] Step Step between pixels q0 and q1 46 OMX_U8 *pQ0, /* pointer to the pixel q0 */ 47 int Step, /* step between pixels q0 and q1 */ 55 int p3, p2, p1, p0, q0, q1, q2, q3; local 67 q0 = pQ0[ 0*Step]; 72 if (armAbs(p0-q0)>=alpha || armAbs(p1-p0)>=beta || armAbs(q1-q0)>=beta) 75 p3, p2, p1, p0, q0, q1, q2, q3, alpha, beta); 80 aq = armAbs(q2 - q0); [all...] |
/external/valgrind/main/none/tests/arm/ |
neon128.c | 355 TESTINSN_imm("vmov.i32 q0", q0, 0x7); 365 TESTINSN_imm("vmov.f32 q0", q0, 0.328125); 366 TESTINSN_imm("vmov.f32 q0", q0, -0.328125); 369 TESTINSN_imm("vmvn.i32 q0", q0, 0x7); 381 TESTINSN_imm("vorr.i32 q0", q0, 0x7) [all...] |
neon128.stdout.exp | 2 vmov.i32 q0, #0x7 :: Qd 0x00000007 0x00000007 0x00000007 0x00000007 3 vmov.i32 q0, #0x7 :: Qd 0x00000007 0x00000007 0x00000007 0x00000007 22 vmov.f32 q0, #0.328125 :: Qd 0x3ea80000 0x3ea80000 0x3ea80000 0x3ea80000 23 vmov.f32 q0, #0.328125 :: Qd 0x3ea80000 0x3ea80000 0x3ea80000 0x3ea80000 24 vmov.f32 q0, #-0.328125 :: Qd 0xbea80000 0xbea80000 0xbea80000 0xbea80000 25 vmov.f32 q0, #-0.328125 :: Qd 0xbea80000 0xbea80000 0xbea80000 0xbea80000 27 vmvn.i32 q0, #0x7 :: Qd 0xfffffff8 0xfffffff8 0xfffffff8 0xfffffff8 28 vmvn.i32 q0, #0x7 :: Qd 0xfffffff8 0xfffffff8 0xfffffff8 0xfffffff8 48 vorr.i32 q0, #0x7 :: Qd 0x55555557 0x55555557 0x55555557 0x55555557 49 vorr.i32 q0, #0x7 :: Qd 0x151d191f 0x141c1f1f 0x131b1a1f 0x121f1e1 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
buildintrapredictorsmby_neon.asm | 45 vdup.u8 q0, r12 126 vdup.u8 q0, r5 129 vst1.u8 {q0}, [r1]! 130 vst1.u8 {q0}, [r1]! 131 vst1.u8 {q0}, [r1]! 132 vst1.u8 {q0}, [r1]! 133 vst1.u8 {q0}, [r1]! 134 vst1.u8 {q0}, [r1]! 135 vst1.u8 {q0}, [r1]! 136 vst1.u8 {q0}, [r1] [all...] |
vp8_subpixelvariance16x16s_neon.asm | 55 vext.8 q1, q0, q1, #1 ;construct src_ptr[1] 60 vrhadd.u8 q0, q0, q1 ;(src_ptr[0]+src_ptr[1])/round/shift right 1 70 vsubl.u8 q0, d4, d26 91 vpadal.s16 q8, q0 ;sum 107 vpaddl.s32 q0, q8 ;accumulate sum 137 vld1.u8 {q0}, [r0], r1 ;load src data 153 vrhadd.u8 q0, q0, q2 163 vsubl.u8 q0, d8, d1 [all...] |
/external/webp/src/dsp/ |
dec_sse2.c | 279 #define GET_NOTHEV(p1, p0, q0, q1, hev_thresh, not_hev) { \ 282 const __m128i t_2 = MM_ABS(q1, q0); \ 286 const __m128i t_4 = _mm_subs_epu8(t_2, h); /* abs(q1 - q0) - hev_tresh */ \ 292 #define GET_BASE_DELTA(p1, p0, q0, q1, o) { \ 293 const __m128i qp0 = _mm_subs_epi8(q0, p0); /* q0 - p0 */ \ 295 o = _mm_adds_epi8(o, qp0); /* p1 - q1 + 1 * (q0 - p0) */ \ 296 o = _mm_adds_epi8(o, qp0); /* p1 - q1 + 2 * (q0 - p0) */ \ 297 o = _mm_adds_epi8(o, qp0); /* p1 - q1 + 3 * (q0 - p0) */ \ 300 #define DO_SIMPLE_FILTER(p0, q0, fl) { 601 __m128i q0 = _mm_loadu_si128((__m128i*)&p[0]); local 612 __m128i p1, p0, q0, q1; local 691 __m128i p2, p1, p0, q0, q1, q2; local 716 __m128i p3, p2, p1, p0, q0, q1, q2, q3; local 737 __m128i t1, t2, p1, p0, q0, q1; local 766 __m128i t1, t2, p1, p0, q0, q1; local 791 __m128i t1, p2, p1, p0, q0, q1, q2; local 816 __m128i p3, p2, p1, p0, q0, q1, q2, q3; local 836 __m128i t1, t2, p1, p0, q0, q1; local 862 __m128i t1, t2, p1, p0, q0, q1; local [all...] |
dec_neon.c | 23 #define QRegs "q0", "q1", "q2", "q3", "q4", "q5", "q6", "q7", \ 34 #define NEEDS_FILTER(p1, p0, q0, q1, thresh, mask) \ 35 "vabd.u8 q15," #p0 "," #q0 " \n" /* abs(p0 - q0) */ \ 37 "vqadd.u8 q15, q15, q15 \n" /* abs(p0 - q0) * 2 */ \ 39 "vqadd.u8 q15, q15, q14 \n" /* abs(p0 - q0) * 2 + abs(p1 - q1) / 2 */ \ 43 #define GET_BASE_DELTA(p1, p0, q0, q1, o) \ 44 "vqsub.s8 q15," #q0 "," #p0 " \n" /* (q0 - p0) */ \ 46 "vqadd.s8 " #o "," #o ", q15 \n" /* (p1 - q1) + 1 * (p0 - q0) */ \ [all...] |
/external/llvm/test/MC/AArch64/ |
elf-reloc-ldstunsimm.s | 8 str q0, [sp, #:lo12:some_label]
|
/external/fdlibm/ |
k_rem_pio2.c | 104 * q0 the corresponding exponent of q[0]. Note that the 105 * exponent for q[i] would be q0-24*i. 170 int jz,jx,jv,jp,jk,carry,n,iq[20],i,j,k,m,q0,ih; local 177 /* determine jx,jv,q0, note that 3>q0 */ 180 q0 = e0-24*(jv+1); 201 z = ieee_scalbn(z,q0); /* actual value of z */ 206 if(q0>0) { /* need iq[jz-1] to determine n */ 207 i = (iq[jz-1]>>(24-q0)); n += i; 208 iq[jz-1] -= i<<(24-q0); [all...] |
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_ARGB8888_to_YUV420SP_NEON.s | 34 @q0: temp1, R 84 vmls.u16 q8,q4,q11 @q0:U -(38 * R[k]) @128<<6+ 32 + u>>2 90 vmls.u16 q7,q5,q14 @q0:U -(94 * G[k]) @128<<6+ 32 + v>>2 106 vmul.u16 q7,q4,q14 @q0 = 66 *R[k] 107 vmla.u16 q7,q5,q15 @q0 += 129 *G[k] 108 vmla.u16 q7,q6,q8 @q0 += 25 *B[k] 124 vmul.u16 q0,q4,q14 @q0 = 66 *R[k] 125 vmla.u16 q0,q5,q15 @q0 += 129 *G[k [all...] |
/external/libvpx/libvpx/vp8/common/x86/ |
loopfilter_mmx.asm | 68 movq mm4, [rsi] ; q0 69 movq mm0, mm4 ; q0 70 psubusb mm4, mm3 ; q0-=q1 71 psubusb mm3, mm0 ; q1-=q0 72 por mm4, mm3 ; abs(q0-q1) 118 movq mm3, [rsi] ; q0 119 psubusb mm5, mm3 ; p0-=q0 120 psubusb mm3, mm6 ; q0-=p0 121 por mm5, mm3 ; abs(p0 - q0) 122 paddusb mm5, mm5 ; abs(p0-q0)* [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 33 vld1.16 {q0, q1}, [r4@128] ; load z 37 vabs.s16 q4, q0 ; calculate x = abs(z) 41 vshr.s16 q2, q0, #15 ; sz 52 vld1.16 {q0, q1}, [r4@128] ; load z2 57 vabs.s16 q10, q0 ; calculate x2 = abs(z_2) 59 vshr.s16 q12, q0, #15 ; sz2 119 vand q0, q6, q14 ; get all valid numbers from scan array 127 vmax.u16 q0, q0, q1 ; find maximum value in q0, q [all...] |
shortfdct_neon.asm | 105 vst1.16 {q0, q1}, [r1@128] 116 vld1.16 {q0}, [r0@128], r2 124 ; transpose q0=ip[0], q1=ip[1], q2=ip[2], q3=ip[3] 125 vtrn.32 q0, q2 ; [A0|B0] 127 vtrn.16 q0, q1 ; [A2|B2] 130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3] 133 vsub.s16 q14, q0, q3 ; d1 = ip[0] - ip[3] 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 165 ; transpose q0=ip[0], q1=ip[4], q2=ip[8], q3=ip[12] 166 vtrn.32 q0, q2 ; q0=[A0 | B0 [all...] |
vp8_memcpy_neon.asm | 32 vld1.8 {q0, q1}, [r1]! ;load src data 35 vst1.8 {q0, q1}, [r0]! ;copy to dst_ptr 61 vld1.8 {q0}, [r1]! ;load src data 63 vst1.8 {q0}, [r0]!
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 26 VADDL.U8 q0,d1,d11 32 VMLAL.U8 q0,d5,d31 36 VMLSL.U8 q0,d3,d30 40 VMLAL.U8 q0,d7,d31 44 VMLSL.U8 q0,d9,d30 74 VADDL.S16 q0,d18,d29 78 VMLAL.S16 q0,d27,d31 82 VMLSL.S16 q0,d26,d30 107 VQRSHRUN.S32 d0,q0,#10 111 VQMOVN.U16 d0,q0 [all...] |
/external/libvpx/libvpx/vp8/common/arm/armv6/ |
simpleloopfilter_v6.asm | 64 ldr r5, [src] ; q0 77 uqsub8 r10, r4, r5 ; p0 - q0 78 uqsub8 r11, r5, r4 ; q0 - p0 80 orr r10, r10, r11 ; abs(p0 - q0) 81 uqadd8 r10, r10, r10 ; abs(p0 - q0) * 2 83 uqadd8 r10, r10, r8 ; abs(p0 - q0)*2 + abs(p1 - q1)/2 95 eor r5, r5, r2 ; q0 offset to convert to a signed value 98 qsub8 r6, r5, r4 ; q0 - p0 99 qadd8 r3, r3, r6 ; += q0 - p0 101 qadd8 r3, r3, r6 ; += q0 - p [all...] |
/frameworks/native/services/sensorservice/ |
quat.h | 32 TYPE q0(q.w); 40 TYPE q3_q0 = 2 * q3 * q0; 42 TYPE q2_q0 = 2 * q2 * q0; 44 TYPE q1_q0 = 2 * q1 * q0;
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/source/ |
h264bsd_deblocking.c | 660 u8 p0, q0, p1, q1, p2, q2; local 677 q0 = data[0]; q1 = data[1]; 678 if ( ((unsigned)ABS(p0-q0) < thresholds->alpha) && 680 ((unsigned)ABS(q1-q0) < thresholds->beta) ) 688 (p2 + ((p0 + q0 + 1) >> 1) - (p1 << 1)) >> 1)); 692 if ((unsigned)ABS(q2-q0) < thresholds->beta) 695 (q2 + ((p0 + q0 + 1) >> 1) - (q1 << 1)) >> 1)); 699 delta = CLIP3(-tmp, tmp, ((((q0 - p0) << 2) + 703 q0 = clp[q0 - delta] 771 u8 p0, q0, p1, q1, p2, q2; local 840 u8 p0, q0, p1, q1, p2, q2; local 952 u8 p0, q0, p1, q1; local 1028 u8 p0, q0, p1, q1; local 1076 u8 p0, q0, p1, q1; local [all...] |
/bionic/libc/arch-arm/krait/bionic/ |
memset.S | 50 vdup.8 q0, r1 55 vmov q1, q0
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
lpc_masking_model_neon.S | 70 vmull.s16 q0, d0, d1 71 vmull.s32 q0, d0, d25 73 vshl.s64 q0, q11 75 vshl.s64 q0, #1 78 vqadd.s64 q14, q0, q15 @ Sum and test overflow. 81 vshr.s64 q0, #1 83 vadd.s64 q14, q0, q15 96 vqadd.s64 q0, q13, q15 @ Sum and test overflow. 100 vadd.s64 q0, q13, q15 104 vmov.s64 q13, q0 @ update sum64 [all...] |
/frameworks/rs/scriptc/ |
rs_quaternion.rsh | 135 * @param q0 first quaternion 137 * @return dot product between q0 and q1 140 rsQuaternionDot(const rs_quaternion *q0, const rs_quaternion *q1) { 141 return q0->w*q1->w + q0->x*q1->x + q0->y*q1->y + q0->z*q1->z; 177 * @param q0 first param 182 rsQuaternionSlerp(rs_quaternion *q, const rs_quaternion *q0, const rs_quaternion *q1, float t) { 184 rsQuaternionSet(q, q0); [all...] |