HomeSort by relevance Sort by last modified time
    Searched refs:q11 (Results 1 - 25 of 33) sorted by null

1 2

  /system/core/libpixelflinger/
col32cb16blend_neon.S 75 // q11 = dst blue1
84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits
86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits
89 vand q11, q11, q14 // extract dst blue1
95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha
101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
106 vshr.u16 q11, q11, #8 // shift down blue
    [all...]
  /external/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 32 vld1.16 {q10, q11}, [r1] ;load zbin
38 vcge.s16 q11, q5, q11
40 ;if x<zbin (q10 & q11 are all 0), go to zero_output
41 vorr.s16 q6, q10, q11
82 vand.s16 q5, q11
110 vst1.s16 {q10, q11}, [r2] ; qcoeff = 0
111 vst1.s16 {q10, q11}, [r3] ; dqcoeff = 0
subtract_neon.asm 36 vsubl.u8 q11, d2, d3
68 vsubl.u8 q11, d5, d7
77 vst1.16 {q11}, [r0]!
118 vsubl.u8 q11, d6, d7
127 vst1.16 {q11}, [r0]!
154 vsubl.u8 q11, d6, d7
163 vst1.16 {q11}, [r0]!
variance_neon.asm 41 vsubl.u8 q11, d0, d4 ;calculate diff
49 vpadal.s16 q8, q11 ;calculate sum
114 vsubl.u8 q11, d0, d4 ;calculate diff
119 vpadal.s16 q8, q11 ;calculate sum
177 vsubl.u8 q11, d0, d4 ;calculate diff
180 vpadal.s16 q8, q11 ;calculate sum
234 vsubl.u8 q11, d0, d4 ;calculate diff
239 vpadal.s16 q8, q11 ;calculate sum
vp8_memcpy_neon.asm 40 vld1.8 {q10, q11}, [r1]!
43 vst1.8 {q10, q11}, [r0]!
shortfdct_neon.asm 34 vmull.s16 q11, d4, d0[0] ;i=0
39 vmlal.s16 q11, d5, d0[1]
44 vmlal.s16 q11, d6, d0[2]
49 vmlal.s16 q11, d7, d0[3] ;sumtemp for i=0
55 vrshrn.i32 d22, q11, #14
vp8_subpixelvariance16x16_neon.asm 69 vmull.u8 q11, d8, d0
81 vmlal.u8 q11, d8, d1
100 vqrshrn.u16 d18, q11, #7
120 vmull.u8 q11, d5, d0
130 vmlal.u8 q11, d5, d1
160 vqrshrn.u16 d12, q11, #7
227 vmov q11, q15
257 vmull.u8 q11, d8, d0
269 vmlal.u8 q11, d8, d1
288 vqrshrn.u16 d18, q11, #
    [all...]
vp8_mse16x16_neon.asm 44 vsubl.u8 q11, d0, d4
97 vsubl.u8 q11, d0, d4
102 vpadal.s16 q8, q11
151 vsubl.u8 q11, d0, d4
  /external/libvpx/vp8/common/arm/neon/
loopfilterhorizontaledge_uv_neon.asm 60 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
68 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
71 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
82 vand q10, q10, q11
105 vsubl.s8 q11, d15, d13
115 vmul.i16 q11, q11, q4
124 vaddw.s8 q11, q11, d3
129 vqmovn.s16 d3, q11
    [all...]
loopfilterhorizontaledge_y_neon.asm 44 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
55 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
58 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
69 vand q10, q10, q11
92 vsubl.s8 q11, d15, d13
102 vmul.i16 q11, q11, q4
111 vaddw.s8 q11, q11, d3
116 vqmovn.s16 d3, q11
    [all...]
mbloopfilterhorizontaledge_uv_neon.asm 57 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
64 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
67 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
80 vand q10, q10, q11
114 vadd.s16 q11, q13, q13
120 vadd.s16 q13, q13, q11
129 vld1.u8 {q11}, [r12]! ;#4
147 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
154 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
160 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2
    [all...]
mbloopfilterhorizontaledge_y_neon.asm 41 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
52 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
55 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
68 vand q10, q10, q11
102 vadd.s16 q11, q13, q13
108 vadd.s16 q13, q13, q11
117 vld1.u8 {q11}, [r12]! ;#4
135 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
142 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
147 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2
    [all...]
mbloopfilterverticaledge_uv_neon.asm 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
83 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
86 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
99 vand q10, q10, q11
133 vadd.s16 q11, q13, q13
139 vadd.s16 q13, q13, q11
148 vld1.u8 {q11}, [r12]! ;#4
166 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
174 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
177 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2
    [all...]
mbloopfilterverticaledge_y_neon.asm 74 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
81 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
84 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
97 vand q10, q10, q11
131 vadd.s16 q11, q13, q13
137 vadd.s16 q13, q13, q11
146 vld1.u8 {q11}, [r12]! ;#4
164 ; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
172 ; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
177 ; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2
    [all...]
loopfilterverticaledge_uv_neon.asm 76 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
84 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
87 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
98 vand q10, q10, q11
122 vsubl.s8 q11, d15, d13
132 vmul.i16 q11, q11, q4
141 vaddw.s8 q11, q11, d3
146 vqmovn.s16 d3, q11
    [all...]
loopfilterverticaledge_y_neon.asm 72 vabd.u8 q11, q3, q4 ; abs(p3 - p2)
80 vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
83 vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
94 vand q10, q10, q11
118 vsubl.s8 q11, d15, d13
128 vmul.i16 q11, q11, q4
137 vaddw.s8 q11, q11, d3
142 vqmovn.s16 d3, q11
    [all...]
loopfiltersimplehorizontaledge_neon.asm 66 vadd.s16 q11, q2, q2 ; 3 * ( qs0 - ps0)
71 vadd.s16 q2, q2, q11
92 vqadd.s8 q11, q6, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2)
97 veor q6, q11, q0 ; *op0 = u^0x80
recon16x16mb_neon.asm 33 vld1.16 {q10, q11}, [r1]!
53 vadd.s16 q3, q3, q11
84 vld1.16 {q10, q11}, [r1]!
100 vadd.s16 q3, q3, q11
bilinearpredict16x16_neon.asm 66 vmull.u8 q11, d8, d0
78 vmlal.u8 q11, d8, d1
97 vqrshrn.u16 d18, q11, #7
117 vmull.u8 q11, d5, d0
127 vmlal.u8 q11, d5, d1
157 vqrshrn.u16 d12, q11, #7
221 vmov q11, q15
251 vmull.u8 q11, d8, d0
263 vmlal.u8 q11, d8, d1
282 vqrshrn.u16 d18, q11, #
    [all...]
loopfiltersimpleverticaledge_neon.asm 46 vld1.u8 {q11}, [r12]! ; 0x03
85 ;vmul.i8 q2, q2, q11 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0))
104 vqadd.s8 q2, q1, q11 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3)
111 vqadd.s8 q11, q5, q2 ; u = vp8_signed_char_clamp(ps0 + Filter2)
114 veor q6, q11, q0 ; *op0 = u^0x80
sixtappredict8x8_neon.asm 161 vmull.u8 q11, d12, d0
173 vmlsl.u8 q11, d30, d1
185 vmlsl.u8 q11, d30, d4
197 vmlal.u8 q11, d30, d2
209 vmlal.u8 q11, d30, d5
227 vqadd.s16 q11, q6
241 vqrshrun.s16 d29, q11, #7
242 vld1.u8 {q11}, [lr]!
303 vmov q9, q11
307 vmov q11, q1
    [all...]
sixtappredict16x16_neon.asm 81 vmull.u8 q11, d10, d0
98 vmlsl.u8 q11, d29, d1
114 vmlsl.u8 q11, d29, d4
130 vmlal.u8 q11, d29, d5
146 vmlal.u8 q11, d29, d2
172 vqadd.s16 q11, q7
178 vqrshrun.s16 d9, q11, #7
264 vmov q9, q11
355 vmull.u8 q11, d27, d3
360 vqadd.s16 q8, q11
    [all...]
  /external/libvpx/vpx_scale/arm/neon/
vp8_vpxyv12_copyframe_func_neon.asm 61 vld1.8 {q10, q11}, [r10]!
72 vst1.8 {q10, q11}, [r11]!
119 vld1.8 {q10, q11}, [r10]!
126 vst1.8 {q10, q11}, [r11]!
vp8_vpxyv12_copyframeyonly_neon.asm 51 vld1.8 {q10, q11}, [r10]!
62 vst1.8 {q10, q11}, [r11]!
124 vmov q11, q10
135 vst1.8 {q10, q11}, [r6], lr
156 vld1.8 {q10, q11}, [r2]!
170 vst1.8 {q10, q11}, [r6]!
286 vld1.8 {q10, q11}, [r2]!
300 vst1.8 {q10, q11}, [r6]!
428 vld1.8 {q10, q11}, [r10]!
439 vst1.8 {q10, q11}, [r11]
    [all...]
vp8_vpxyv12_extendframeborders_neon.asm 66 vmov q11, q10
77 vst1.8 {q10, q11}, [r6], lr
98 vld1.8 {q10, q11}, [r2]!
112 vst1.8 {q10, q11}, [r6]!
188 vst1.8 {q11}, [r6], lr
208 vld1.8 {q10, q11}, [r2]!
218 vst1.8 {q10, q11}, [r6]!
369 vld1.8 {q10, q11}, [r2]!
383 vst1.8 {q10, q11}, [r6]!
479 vld1.8 {q10, q11}, [r2]
    [all...]

Completed in 97 milliseconds

1 2