HomeSort by relevance Sort by last modified time
    Searched refs:q7 (Results 1 - 25 of 39) sorted by null

1 2

  /external/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 31 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse
49 vmlal.s16 q7, d22, d22
56 vmlal.s16 q7, d26, d26
63 vadd.u32 q7, q7, q8
68 vadd.u32 q10, q7, q9
156 vmull.s16 q7, d22, d22
161 vadd.u32 q7, q7, q
    [all...]
fastquantizeb_neon.asm 55 vld1.s16 {q6, q7}, [r0] ;load round_ptr [0-15]
59 vadd.s16 q5, q7
84 vld1.s16 {q6, q7}, [r12] ;load dequant_ptr[i]
99 vmul.s16 q7, q5
104 vst1.s16 {q6, q7}, [r3] ;store dqcoeff = x * Dequant
vp8_subpixelvariance8x8_neon.asm 50 vmull.u8 q7, d4, d0
60 vmlal.u8 q7, d5, d1
67 vqrshrn.u16 d23, q7, #7
77 vmull.u8 q7, d4, d0
89 vmlal.u8 q7, d5, d1
95 vqrshrn.u16 d27, q7, #7
119 vmull.u8 q7, d28, d0
128 vmlal.u8 q7, d29, d1
137 vqrshrn.u16 d28, q7, #7
180 vsubl.u8 q7, d25, d
    [all...]
fastfdct4x4_neon.asm 57 vqdmulh.s16 q7, q4, d0[2]
61 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16
87 vqdmulh.s16 q7, q4, d0[2]
91 vshr.s16 q7, q7, #1 ;d14:temp1 = ( c1 * x_c3)>>16; d15:temp1 = (d1 * x_c3)>>16
vp8_subpixelvariance16x16s_neon.asm 58 vext.8 q7, q6, q7, #1
64 vrhadd.u8 q3, q6, q7
69 vsubl.u8 q7, d3, d25
87 vpadal.s16 q8, q7
154 vld1.8 {q7}, [r2], r3
256 vext.8 q7, q6, q7, #1
261 vrhadd.u8 q3, q6, q7
268 vld1.8 {q7}, [r2], r
    [all...]
vp8_memcpy_neon.asm 36 vld1.8 {q6, q7}, [r1]!
39 vst1.8 {q6, q7}, [r0]!
shortfdct_neon.asm 64 vmull.s16 q7, d22, d4[3] ;i=3
69 vmlal.s16 q7, d24, d5[3]
74 vmlal.s16 q7, d26, d6[3]
79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3
84 vrshr.s32 q3, q7, #16
vp8_subpixelvariance16x16_neon.asm 65 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0])
79 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1])
96 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8
201 vmull.u8 q7, d28, d0
210 vmlal.u8 q7, d30, d1
221 vqrshrn.u16 d8, q7, #7
253 vmull.u8 q7, d2, d0 ;(src_ptr[0] * Filter[0])
267 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * Filter[1])
284 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8
328 vmull.u8 q7, d28, d
    [all...]
  /external/libvpx/vp8/common/arm/neon/
mbloopfilterverticaledge_uv_neon.asm 53 vtrn.32 q3, q7
60 vtrn.16 q7, q9
65 vtrn.8 q7, q8
79 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
92 vabd.u8 q12, q6, q7 ; abs(p0 - q0)
116 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
125 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
176 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2
    [all...]
mbloopfilterverticaledge_y_neon.asm 51 vtrn.32 q3, q7
58 vtrn.16 q7, q9
63 vtrn.8 q7, q8
77 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
90 vabd.u8 q12, q6, q7 ; abs(p0 - q0)
114 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
123 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
176 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2
    [all...]
sixtappredict4x4_neon.asm 74 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5])
84 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0])
91 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1])
98 vmlsl.u8 q7, d6, d4 ;-(src_ptr[2] * vp8_filter[4])
105 vmlal.u8 q7, d18, d2 ;(src_ptr[0] * vp8_filter[2])
116 vqadd.s16 q7, q9 ;sum of all (src_data*filter_parameters)
122 vqrshrun.s16 d27, q7, #7 ;shift/round/saturate to u8
139 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5])
151 vmlal.u8 q7, d6, d0 ;+(src_ptr[-2] * vp8_filter[0])
161 vmlsl.u8 q7, d18, d1 ;-(src_ptr[-1] * vp8_filter[1]
    [all...]
loopfiltersimplehorizontaledge_neon.asm 37 vld1.u8 {q7}, [r0], r1 ; q0
42 vabd.u8 q15, q6, q7 ; abs(p0 - q0)
49 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
59 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
93 vqsub.s8 q10, q7, q4 ; u = vp8_signed_char_clamp(qs0 - Filter1)
98 veor q7, q10, q0 ; *oq0 = u^0x80
101 vst1.u8 {q7}, [r3] ; store oq0
recon16x16mb_neon.asm 43 vmovl.u8 q7, d31
57 vadd.s16 q7, q7, q15
68 vqmovun.s16 d7, q7
94 vmovl.u8 q7, d31
106 vadd.s16 q7, q7, q15
117 vqmovun.s16 d7, q7
loopfilterhorizontaledge_y_neon.asm 40 vld1.u8 {q7}, [r0], r1 ; q0
50 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
53 vabd.u8 q9, q6, q7 ; abs(p0 - q0)
83 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
90 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
131 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
142 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1)
163 veor q7, q10, q0 ; *oq0 = u^0x80
170 vst1.u8 {q7}, [r3] ; store oq
    [all...]
mbloopfilterhorizontaledge_y_neon.asm 42 vld1.u8 {q7}, [r0], r1 ; q0
47 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
61 vabd.u8 q12, q6, q7 ; abs(p0 - q0)
85 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
94 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
146 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2)
168 vqsub.s8 q7, q7, q2 ; qs0 = vp8_signed_char_clamp(qs0 - Filter1
    [all...]
sixtappredict8x4_neon.asm 68 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
78 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
88 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
98 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
108 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
123 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters)
130 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
141 vld1.u8 {q7}, [r0], r1
209 vmull.u8 q7, d31, d3
215 vqadd.s16 q12, q7
    [all...]
sixtappredict8x8_neon.asm 72 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
129 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters)
136 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
156 vld1.u8 {q7}, [r0], r1
222 vmull.u8 q7, d31, d3
228 vqadd.s16 q12, q7
    [all...]
bilinearpredict8x8_neon.asm 47 vmull.u8 q7, d4, d0
57 vmlal.u8 q7, d5, d1
64 vqrshrn.u16 d23, q7, #7
74 vmull.u8 q7, d4, d0
86 vmlal.u8 q7, d5, d1
92 vqrshrn.u16 d27, q7, #7
117 vmull.u8 q7, d28, d0
126 vmlal.u8 q7, d29, d1
135 vqrshrn.u16 d8, q7, #7
loopfilterverticaledge_uv_neon.asm 55 vtrn.32 q3, q7
62 vtrn.16 q7, q9
67 vtrn.8 q7, q8
79 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
82 vabd.u8 q9, q6, q7 ; abs(p0 - q0)
113 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
120 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
161 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
171 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1
    [all...]
loopfilterverticaledge_y_neon.asm 55 vtrn.32 q3, q7
62 vtrn.16 q7, q9
67 vtrn.8 q7, q8
75 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
78 vabd.u8 q9, q6, q7 ; abs(p0 - q0)
109 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
116 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
157 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
167 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1
    [all...]
mbloopfilterhorizontaledge_uv_neon.asm 60 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
73 vabd.u8 q12, q6, q7 ; abs(p0 - q0)
97 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
106 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
159 ; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2)
182 vqsub.s8 q7, q7, q2 ; qs0 = vp8_signed_char_clamp(qs0 - Filter1)
218 vqsub.s8 q15, q7, q14 ; s = vp8_signed_char_clamp(qs0 - u
    [all...]
loopfilterhorizontaledge_uv_neon.asm 63 vabd.u8 q14, q8, q7 ; abs(q1 - q0)
66 vabd.u8 q9, q6, q7 ; abs(p0 - q0)
96 veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
103 ;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
144 ; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
155 vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - Filter1)
177 veor q7, q10, q0 ; *oq0 = u^0x80
bilinearpredict16x16_neon.asm 62 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0])
76 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1])
93 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8
195 vmull.u8 q7, d28, d0
204 vmlal.u8 q7, d30, d1
215 vqrshrn.u16 d8, q7, #7
247 vmull.u8 q7, d2, d0 ;(src_ptr[0] * vp8_filter[0])
261 vmlal.u8 q7, d2, d1 ;(src_ptr[0] * vp8_filter[1])
278 vqrshrn.u16 d14, q7, #7 ;shift/round/saturate to u8
319 vmull.u8 q7, d28, d
    [all...]
sixtappredict16x16_neon.asm 166 vmull.u8 q7, d31, d3
172 vqadd.s16 q11, q7
195 vabs.s32 q7, q5
246 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3])
253 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters)
258 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8
309 vmull.u8 q7, d7, d0
326 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1])
330 vmlsl.u8 q7, d26, d4 ;-(src_ptr[2] * vp8_filter[4])
347 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5]
    [all...]
  /external/libvpx/vpx_scale/arm/neon/
vp8_vpxyv12_copyframeyonly_neon.asm 54 vld1.8 {q6, q7}, [r8]!
65 vst1.8 {q6, q7}, [r9]!
122 vmov q7, q6
133 vst1.8 {q6, q7}, [r6], lr
159 vld1.8 {q6, q7}, [r1]!
173 vst1.8 {q6, q7}, [r5]!
289 vld1.8 {q6, q7}, [r1]!
303 vst1.8 {q6, q7}, [r5]!
431 vld1.8 {q6, q7}, [r8]!
442 vst1.8 {q6, q7}, [r9]
    [all...]

Completed in 87 milliseconds

1 2