HomeSort by relevance Sort by last modified time
    Searched refs:q8 (Results 1 - 25 of 39) sorted by null

1 2

  /external/libvpx/vp8/encoder/arm/neon/
variance_neon.asm 29 vmov.i8 q8, #0 ;q8 - sum
49 vpadal.s16 q8, q11 ;calculate sum
55 vpadal.s16 q8, q12
58 vpadal.s16 q8, q13
61 vpadal.s16 q8, q14
68 vpaddl.s32 q0, q8 ;accumulate sum
102 vmov.i8 q8, #0 ;q8 - sum
119 vpadal.s16 q8, q11 ;calculate su
    [all...]
vp8_mse16x16_neon.asm 31 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse
32 vmov.i8 q8, #0
50 vmlal.s16 q8, d23, d23
57 vmlal.s16 q8, d27, d27
63 vadd.u32 q7, q7, q8
85 vmov.i8 q8, #0 ;q8 - sum
102 vpadal.s16 q8, q11
108 vpadal.s16 q8, q12
111 vpadal.s16 q8, q1
    [all...]
vp8_subpixelvariance16x16s_neon.asm 37 vmov.i8 q8, #0 ;q8 - sum
75 vpadal.s16 q8, q4 ;sum
81 vpadal.s16 q8, q5
84 vpadal.s16 q8, q6
87 vpadal.s16 q8, q7
91 vpadal.s16 q8, q0 ;sum
94 vpadal.s16 q8, q1
97 vpadal.s16 q8, q2
100 vpadal.s16 q8, q
    [all...]
vp8_subpixelvariance8x8_neon.asm 51 vmull.u8 q8, d6, d0
61 vmlal.u8 q8, d7, d1
69 vqrshrn.u16 d24, q8, #7
78 vmull.u8 q8, d6, d0
90 vmlal.u8 q8, d7, d1
96 vqrshrn.u16 d28, q8, #7
120 vmull.u8 q8, d29, d0
129 vmlal.u8 q8, d30, d1
138 vqrshrn.u16 d29, q8, #7
159 vmov.i8 q8, #0 ;q8 - su
    [all...]
fastquantizeb_neon.asm 56 vld1.s16 {q8, q9}, [r12] ;load quant_ptr [0-15]
63 vqdmulh.s16 q4, q8 ;y = ((Round + abs(z)) * Quant) >> 16
67 vceq.s16 q8, q8 ;set q8 to all 1
86 vtst.16 q14, q4, q8 ;now find eob
87 vtst.16 q15, q5, q8 ;non-zero element is set to all 1 in q4, q5
fastfdct4x4_neon.asm 56 vqdmulh.s16 q8, q4, d0[0]
60 vshr.s16 q8, q8, #1
62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1
86 vqdmulh.s16 q8, q4, d0[0]
90 vshr.s16 q8, q8, #1
92 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d
    [all...]
vp8_subpixelvariance16x16_neon.asm 66 vmull.u8 q8, d3, d0
89 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * Filter[1])
97 vqrshrn.u16 d15, q8, #7
202 vmull.u8 q8, d29, d0
211 vmlal.u8 q8, d31, d1
222 vqrshrn.u16 d9, q8, #7
254 vmull.u8 q8, d3, d0
277 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * Filter[1])
285 vqrshrn.u16 d15, q8, #7
329 vmull.u8 q8, d29, d
    [all...]
subtract_neon.asm 65 vsubl.u8 q8, d0, d2
74 vst1.16 {q8}, [r0]! ;store diff
115 vsubl.u8 q8, d0, d1
124 vst1.16 {q8}, [r0]! ;store diff
151 vsubl.u8 q8, d0, d1
160 vst1.16 {q8}, [r0]! ;store diff
fastfdct8x4_neon.asm 69 vqdmulh.s16 q8, q7, d0[1]
76 vshr.s16 q8, q8, #1
120 vqdmulh.s16 q8, q7, d0[1]
127 vshr.s16 q8, q8, #1
148 vclt.s16 q8, q4, #0
153 vsub.s16 q4, q4, q8
vp8_memcpy_neon.asm 38 vld1.8 {q8, q9}, [r1]!
41 vst1.8 {q8, q9}, [r0]!
  /system/core/libpixelflinger/
col32cb16blend_neon.S 70 // q8 = dst red0
78 vshr.u16 q8, q10, #11 // shift dst red0 to low 5 bits
83 vmul.u16 q8, q8, q3 // multiply dst red0 by src alpha
90 vadd.u16 q8, q8, q0 // add src red to dst red0
96 vshr.u16 q8, q8, #8 // shift down red0
104 vsli.u16 q10, q8, #11 // shift & insert red0 into blue0
  /external/libvpx/vp8/common/arm/neon/
sixtappredict4x4_neon.asm 75 vmull.u8 q8, d20, d5
85 vmlal.u8 q8, d10, d0
92 vmlsl.u8 q8, d20, d1
99 vmlsl.u8 q8, d10, d4
106 vmlal.u8 q8, d20, d2
117 vqadd.s16 q8, q10
123 vqrshrun.s16 d28, q8, #7
140 vmull.u8 q8, d20, d5
152 vmlal.u8 q8, d10, d0
162 vmlsl.u8 q8, d20, d
    [all...]
sixtappredict8x4_neon.asm 69 vmull.u8 q8, d8, d0
79 vmlsl.u8 q8, d29, d1
89 vmlsl.u8 q8, d29, d4
99 vmlal.u8 q8, d29, d2
109 vmlal.u8 q8, d29, d5
124 vqadd.s16 q8, q4
131 vqrshrun.s16 d23, q8, #7
145 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
157 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1])
169 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]
    [all...]
sixtappredict8x8_neon.asm 73 vmull.u8 q8, d8, d0
83 vmlsl.u8 q8, d29, d1
93 vmlsl.u8 q8, d29, d4
103 vmlal.u8 q8, d29, d2
113 vmlal.u8 q8, d29, d5
130 vqadd.s16 q8, q4
137 vqrshrun.s16 d23, q8, #7
158 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
170 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1])
182 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]
    [all...]
mbloopfilterverticaledge_uv_neon.asm 54 vtrn.32 q4, q8
61 vtrn.16 q8, q10
65 vtrn.8 q7, q8
79 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
80 vabd.u8 q3, q9, q8 ; abs(q2 - q1)
107 vabd.u8 q1, q5, q8 ; abs(p1 - q1)
119 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
129 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
232 vqsub.s8 q13, q8, q12 ; s = vp8_signed_char_clamp(qs1 - u
    [all...]
mbloopfilterverticaledge_y_neon.asm 52 vtrn.32 q4, q8
59 vtrn.16 q8, q10
63 vtrn.8 q7, q8
77 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
78 vabd.u8 q3, q9, q8 ; abs(q2 - q1)
105 vabd.u8 q1, q5, q8 ; abs(p1 - q1)
117 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
127 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
232 vqsub.s8 q13, q8, q12 ; s = vp8_signed_char_clamp(qs1 - u
    [all...]
loopfilterhorizontaledge_y_neon.asm 45 vld1.u8 {q8}, [r0], r1 ; q1
50 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
51 vabd.u8 q3, q9, q8 ; abs(q2 - q1)
72 vabd.u8 q2, q5, q8 ; abs(p1 - q1)
86 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
97 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
157 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter)
164 veor q8, q12, q0 ; *oq1 = u^0x80
171 vst1.u8 {q8}, [r12] ; store oq
    [all...]
bilinearpredict8x8_neon.asm 48 vmull.u8 q8, d6, d0
58 vmlal.u8 q8, d7, d1
66 vqrshrn.u16 d24, q8, #7
75 vmull.u8 q8, d6, d0
87 vmlal.u8 q8, d7, d1
93 vqrshrn.u16 d28, q8, #7
118 vmull.u8 q8, d29, d0
127 vmlal.u8 q8, d30, d1
136 vqrshrn.u16 d9, q8, #7
sixtappredict16x16_neon.asm 78 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
89 vmlsl.u8 q8, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
105 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
121 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5])
137 vmlal.u8 q8, d28, d2 ;(src_ptr[0] * vp8_filter[2])
161 vqadd.s16 q8, q4 ;sum of all (src_data*filter_parameters)
175 vqrshrun.s16 d6, q8, #7 ;shift/round/saturate to u8
196 vabs.s32 q8, q6
247 vmull.u8 q8, d22, d3
254 vqadd.s16 q8, q
    [all...]
loopfilterverticaledge_uv_neon.asm 56 vtrn.32 q4, q8
63 vtrn.16 q8, q10
67 vtrn.8 q7, q8
79 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
80 vabd.u8 q3, q9, q8 ; abs(q2 - q1)
101 vabd.u8 q2, q5, q8 ; abs(p1 - q1)
116 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
127 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
186 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter
    [all...]
loopfilterverticaledge_y_neon.asm 56 vtrn.32 q4, q8
63 vtrn.16 q8, q10
67 vtrn.8 q7, q8
75 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
76 vabd.u8 q3, q9, q8 ; abs(q2 - q1)
97 vabd.u8 q2, q5, q8 ; abs(p1 - q1)
112 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
123 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
182 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter
    [all...]
loopfilterhorizontaledge_uv_neon.asm 63 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
64 vabd.u8 q3, q9, q8 ; abs(q2 - q1)
85 vabd.u8 q2, q5, q8 ; abs(p1 - q1)
99 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
110 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
172 vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter)
178 veor q8, q12, q0 ; *oq1 = u^0x80
loopfiltersimplehorizontaledge_neon.asm 39 vld1.u8 {q8}, [r0] ; q1
43 vabd.u8 q14, q5, q8 ; abs(p1 - q1)
52 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
63 vqsub.s8 q4, q5, q8 ; q4: vp8_filter = vp8_signed_char_clamp(ps1-qs1)
mbloopfilterhorizontaledge_y_neon.asm 44 vld1.u8 {q8}, [r0], r1 ; q1
47 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
49 vabd.u8 q3, q9, q8 ; abs(q2 - q1)
76 vabd.u8 q1, q5, q8 ; abs(p1 - q1)
88 veor q8, q8, q0 ; qs1: q1 offset to convert to a signed value
98 vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
200 vqsub.s8 q13, q8, q12 ; s = vp8_signed_char_clamp(qs1 - u)
208 veor q8, q13, q0 ; *oq1 = s^0x80
216 vst1.u8 {q8}, [r12], r1 ; store oq
    [all...]
bilinearpredict16x16_neon.asm 63 vmull.u8 q8, d3, d0
86 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * vp8_filter[1])
94 vqrshrn.u16 d15, q8, #7
196 vmull.u8 q8, d29, d0
205 vmlal.u8 q8, d31, d1
216 vqrshrn.u16 d9, q8, #7
248 vmull.u8 q8, d3, d0
271 vmlal.u8 q8, d3, d1 ;(src_ptr[0] * vp8_filter[1])
279 vqrshrn.u16 d15, q8, #7
320 vmull.u8 q8, d29, d
    [all...]

Completed in 54 milliseconds

1 2