HomeSort by relevance Sort by last modified time
    Searched refs:q4 (Results 1 - 25 of 42) sorted by null

1 2

  /external/libvpx/vp8/decoder/arm/neon/
dequant_dc_idct_neon.asm 29 vld1.16 {q3, q4}, [r0]
37 vmul.i16 q2, q4, q6
54 vqdmulh.s16 q4, q2, d0[0]
60 vshr.s16 q4, q4, #1
63 vqadd.s16 q4, q4, q2
83 vqdmulh.s16 q4, q2, d0[0]
91 vshr.s16 q4, q4, #
    [all...]
dequant_idct_neon.asm 28 vld1.16 {q3, q4}, [r0]
41 vmul.i16 q2, q4, q6
48 vqdmulh.s16 q4, q2, d0[0]
54 vshr.s16 q4, q4, #1
57 vqadd.s16 q4, q4, q2
77 vqdmulh.s16 q4, q2, d0[0]
85 vshr.s16 q4, q4, #
    [all...]
  /external/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 34 vabs.s16 q4, q0 ;calculate x = abs(z)
37 vcge.s16 q10, q4, q10 ;x>=zbin
58 vadd.s16 q4, q6 ;x + Round
63 vqdmulh.s16 q4, q8 ;y = ((Round + abs(z)) * Quant) >> 16
69 vshr.s16 q4, #1 ;right shift 1 after vqdmulh
73 veor.s16 q4, q2 ; y^sz
78 vsub.s16 q4, q2 ; x1 = (y^sz) - sz = (y^sz) - (-1) (two's complement)
81 vand.s16 q4, q10 ;mask off x1 elements
86 vtst.16 q14, q4, q8 ;now find eob
87 vtst.16 q15, q5, q8 ;non-zero element is set to all 1 in q4, q
    [all...]
fastfdct4x4_neon.asm 50 vshl.i16 q4, q4, #1 ; c1, d1
56 vqdmulh.s16 q8, q4, d0[0]
57 vqdmulh.s16 q7, q4, d0[2]
62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1
86 vqdmulh.s16 q8, q4, d0[0]
87 vqdmulh.s16 q7, q4, d0[2]
92 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1
100 vclt.s16 q4, q2, #0
103 vsub.s16 q2, q2, q4
    [all...]
vp8_subpixelvariance16x16s_neon.asm 57 vext.8 q5, q4, q5, #1
63 vrhadd.u8 q2, q4, q5
66 vsubl.u8 q4, d0, d22 ;diff
75 vpadal.s16 q8, q4 ;sum
147 vld1.u8 {q4}, [r0], r1
155 vrhadd.u8 q2, q2, q4
156 vrhadd.u8 q4, q4, q6
255 vext.8 q5, q4, q5, #1
260 vrhadd.u8 q2, q4, q
    [all...]
vp8_memcpy_neon.asm 34 vld1.8 {q4, q5}, [r1]!
37 vst1.8 {q4, q5}, [r0]!
shortfdct_neon.asm 61 vmull.s16 q4, d22, d4[0] ;i=0
66 vmlal.s16 q4, d24, d5[0]
71 vmlal.s16 q4, d26, d6[0]
76 vmlal.s16 q4, d28, d7[0] ;sumtemp for i=0
81 vrshr.s32 q0, q4, #16
fastfdct8x4_neon.asm 36 vld1.16 {q4}, [r0], r2
148 vclt.s16 q8, q4, #0
153 vsub.s16 q4, q4, q8
158 vshr.s16 q4, q4, #1
161 vst1.16 {q3, q4}, [r1]
vp8_subpixelvariance8x8_neon.asm 47 vld1.u8 {q4}, [r0], r1
70 vld1.u8 {q4}, [r0], r1
116 vmull.u8 q4, d25, d0
125 vmlal.u8 q4, d26, d1
134 vqrshrn.u16 d25, q4, #7
170 vsubl.u8 q4, d22, d0 ;calculate diff
176 vpadal.s16 q8, q4 ;sum
  /external/libvpx/vp8/common/arm/neon/
shortidct4x4llm_neon.asm 41 vqdmulh.s16 q4, q2, d0[0]
47 vshr.s16 q4, q4, #1
50 vqadd.s16 q4, q4, q2
73 vqdmulh.s16 q4, q2, d0[0]
79 vshr.s16 q4, q4, #1
82 vqadd.s16 q4, q4, q
    [all...]
loopfiltersimplehorizontaledge_neon.asm 63 vqsub.s8 q4, q5, q8 ; q4: vp8_filter = vp8_signed_char_clamp(ps1-qs1)
77 ;vqadd.s8 q4, q4, q2 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0))
82 vand q4, q4, q15 ; vp8_filter &= mask
84 vqadd.s8 q2, q4, q10 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3)
85 vqadd.s8 q4, q4, q9 ; Filter1 = vp8_signed_char_clamp(vp8_filter+4)
87 vshr.s8 q4, q4, #3 ; Filter1 >>=
    [all...]
sixtappredict4x4_neon.asm 51 vld1.u8 {q4}, [r0], r1
77 vmov q4, q3 ;keep original src data in q4 q6
82 vshr.u64 q9, q4, #8 ;construct src_ptr[-1]
89 vshr.u64 q3, q4, #32 ;construct src_ptr[2]
96 vshr.u64 q9, q4, #16 ;construct src_ptr[0]
103 vshr.u64 q3, q4, #24 ;construct src_ptr[1]
114 vld1.u8 {q4}, [r0], r1
143 vmov q4, q3 ;keep original src data in q4 q
    [all...]
recon16x16mb_neon.asm 39 vmovl.u8 q4, d28
54 vadd.s16 q4, q4, q12
63 vqmovun.s16 d4, q4
90 vmovl.u8 q4, d28
101 vadd.s16 q4, q4, q12
111 vqmovun.s16 d4, q4
loopfilterhorizontaledge_y_neon.asm 34 vld1.u8 {q4}, [r0], r1 ; p2
44 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
46 vabd.u8 q12, q4, q5 ; abs(p2 - p1)
52 vabd.u8 q4, q10, q9 ; abs(q3 - q2)
64 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
70 vand q3, q3, q4
95 vmovl.u8 q4, d20
101 vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0)
102 vmul.i16 q11, q11, q4
    [all...]
loopfilterhorizontaledge_uv_neon.asm 60 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
61 vabd.u8 q12, q4, q5 ; abs(p2 - p1)
65 vabd.u8 q4, q10, q9 ; abs(q3 - q2)
77 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
83 vand q3, q3, q4
108 vmovl.u8 q4, d20
114 vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0)
115 vmul.i16 q11, q11, q4
120 ;vld1.u8 {q4}, [r12]! ;no need 7 any mor
    [all...]
loopfilterverticaledge_uv_neon.asm 56 vtrn.32 q4, q8
61 vtrn.16 q4, q6
65 vtrn.8 q3, q4
76 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
77 vabd.u8 q12, q4, q5 ; abs(p2 - p1)
81 vabd.u8 q4, q10, q9 ; abs(q3 - q2)
93 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
99 vand q3, q3, q4
125 vmovl.u8 q4, d2
    [all...]
loopfilterverticaledge_y_neon.asm 56 vtrn.32 q4, q8
61 vtrn.16 q4, q6
65 vtrn.8 q3, q4
72 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
73 vabd.u8 q12, q4, q5 ; abs(p2 - p1)
77 vabd.u8 q4, q10, q9 ; abs(q3 - q2)
89 vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
95 vand q3, q3, q4
121 vmovl.u8 q4, d2
    [all...]
mbloopfilterverticaledge_uv_neon.asm 54 vtrn.32 q4, q8
59 vtrn.16 q4, q6
63 vtrn.8 q3, q4
76 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
77 vabd.u8 q12, q4, q5 ; abs(p2 - p1)
120 veor q4, q4, q0 ; ps2: p2 offset to convert to a signed value
231 vqadd.s8 q10, q4, q10 ; s = vp8_signed_char_clamp(ps2 + u)
237 veor q4, q10, q0 ; *op2 = s^0x80
247 vtrn.32 q4, q
    [all...]
mbloopfilterverticaledge_y_neon.asm 52 vtrn.32 q4, q8
57 vtrn.16 q4, q6
61 vtrn.8 q3, q4
74 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
75 vabd.u8 q12, q4, q5 ; abs(p2 - p1)
118 veor q4, q4, q0 ; ps2: p2 offset to convert to a signed value
231 vqadd.s8 q10, q4, q10 ; s = vp8_signed_char_clamp(ps2 + u)
237 veor q4, q10, q0 ; *op2 = s^0x80
247 vtrn.32 q4, q
    [all...]
buildintrapredictorsmby_neon.asm 62 vpaddl.u32 q4, q3
244 vmull.u8 q4, d16, d0
247 vsub.s16 q4, q4, q7
264 vqadd.s16 q8, q0, q4
267 vqadd.s16 q10, q1, q4
270 vqadd.s16 q12, q2, q4
273 vqadd.s16 q14, q3, q4
345 vpaddl.u32 q4, q3
527 vmull.u8 q4, d16, d
    [all...]
sixtappredict8x8_neon.asm 61 vld1.u8 {q4}, [r0], r1
123 vmull.u8 q4, d29, d3
130 vqadd.s16 q8, q4
142 vld1.u8 {q4}, [r0], r1
153 ;vld1.u8 {q4}, [r0], r1
219 vmull.u8 q4, d28, d3
225 vqadd.s16 q9, q4
262 vmull.u8 q4, d19, d0
267 vmlsl.u8 q4, d20, d1
272 vmlsl.u8 q4, d23, d
    [all...]
sixtappredict8x4_neon.asm 58 vld1.u8 {q4}, [r0], r1
119 vmull.u8 q4, d29, d3
124 vqadd.s16 q8, q4
135 vld1.u8 {q4}, [r0], r1
206 vmull.u8 q4, d28, d3
212 vqadd.s16 q9, q4
244 vmull.u8 q4, d23, d0
249 vmlsl.u8 q4, d24, d1
254 vmlsl.u8 q4, d27, d4
259 vmlal.u8 q4, d25, d
    [all...]
loopfiltersimpleverticaledge_neon.asm 57 ;vswp q4, q5 ; p1:q3, p0:q5, q0:q4, q1:q6
62 vabd.u8 q15, q5, q4 ; abs(p0 - q0)
68 veor q4, q4, q0 ; qs0: q0 offset to convert to a signed value
79 ;vqsub.s8 q2, q5, q4 ; ( qs0 - ps0)
110 vqsub.s8 q10, q4, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1)
bilinearpredict8x4_neon.asm 44 vld1.u8 {q4}, [r0], r1
88 vmull.u8 q4, d25, d0
93 vmlal.u8 q4, d26, d1
100 vqrshrn.u16 d5, q4, #7
  /external/libvpx/vpx_scale/arm/neon/
vp8_vpxyv12_copyframeyonly_neon.asm 52 vld1.8 {q4, q5}, [r8]!
63 vst1.8 {q4, q5}, [r9]!
121 vmov q5, q4
132 vst1.8 {q4, q5}, [r5], lr
157 vld1.8 {q4, q5}, [r1]!
171 vst1.8 {q4, q5}, [r5]!
262 vst1.8 {q4}, [r5], lr
287 vld1.8 {q4, q5}, [r1]!
301 vst1.8 {q4, q5}, [r5]!
429 vld1.8 {q4, q5}, [r8]
    [all...]

Completed in 117 milliseconds

1 2