HomeSort by relevance Sort by last modified time
    Searched refs:q13 (Results 1 - 25 of 130) sorted by null

1 2 3 4 5 6

  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 147 vaddl.u8 q13, d3, d18 @ temp2 = src[0_0] + src[5_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 134 vmov.u16 q13, #0x14 @ Filter coeff 20 into Q13
145 vmov.u16 q14, #0x14 @ Filter coeff 20 into Q13
173 vaddl.u8 q13, d3, d9
178 vmls.u16 q10, q13, q15
179 vaddl.u8 q13, d13, d16
181 vmls.u16 q11, q13, q15
185 vext.16 q13, q9, q10, #3
188 vadd.s16 q0, q12, q13
190 vext.16 q13, q9, q10, #
    [all...]
  /external/libavc/encoder/arm/
ih264e_half_pel.s 321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
323 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set1)
324 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
325 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
326 vmlsl.s16 q13, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set1)
357 vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set1)
360 vaddl.s16 q13, d31, d23 @// a0 + a5 (set4)
363 vmlal.s16 q13, d30, d0[1] @// a0 + a5 + 20a2 (set4)
364 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
365 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4
    [all...]
  /system/core/libpixelflinger/
col32cb16blend_neon.S 73 // q13 = dst red1
86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits
91 vmul.u16 q13, q13, q3 // multiply dst red1 by src alpha
97 vadd.u16 q13, q13, q0 // add src red to dst red1
103 vshr.u16 q13, q13, #8 // shift down red1
109 vsli.u16 q11, q13, #11 // shift & insert red1 into blue1
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
202 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
235 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
246 vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of r1,r6)
261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
273 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct)
303 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
308 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1
    [all...]
ihevc_itrans_recon_32x32.s 212 vmull.s16 q13,d8,d0[3] @// y1 * cos3(part of b1)
217 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
252 vmlal.s16 q13,d14,d3[3]
258 vmlal.s16 q13,d15,d5[1]
282 vmlal.s16 q13,d8,d6[3] @// y1 * cos3(part of b1)
287 vmlsl.s16 q13,d9,d7[3] @// y1 * cos3 - y3 * sin1(part of b1)
326 vmlsl.s16 q13,d14,d6[1]
332 vmlsl.s16 q13,d15,d4[3]
358 vmlsl.s16 q13,d8,d3[1] @// y1 * cos3(part of b1)
363 vmlsl.s16 q13,d9,d1[3] @// y1 * cos3 - y3 * sin1(part of b1
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
208 vmlal.s16 q13,d3,d13
209 vmlal.s16 q13,d4,d14
211 vmlal.s16 q13,d5,d15
226 vqshrn.s32 d26,q13,#6 @right shift
241 vqrshrun.s16 d26,q13,#6 @rounding shift
256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
258 vmlal.s16 q13,d3,d13
261 vmlal.s16 q13,d4,d14
263 vmlal.s16 q13,d5,d1
    [all...]
ihevc_itrans_recon_16x16.s 243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
248 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
270 vmlal.s16 q13,d8,d3[3]
276 vmlsl.s16 q13,d9,d2[3]
318 vmlsl.s16 q13,d6,d1[1] @// y1 * cos3(part of b1)
323 vmlsl.s16 q13,d7,d0[1] @// y1 * cos3 - y3 * sin1(part of b1)
330 vmlsl.s16 q13,d8,d1[3]
336 vmlsl.s16 q13,d9,d3[1]
373 vadd.s32 q6,q7,q13
374 vsub.s32 q12,q7,q13
    [all...]
ihevc_inter_pred_chroma_vert.s 250 vmull.u8 q13,d7,d1
252 vmlsl.u8 q13,d6,d0
254 vmlal.u8 q13,d8,d2
256 vmlsl.u8 q13,d9,d3
271 vqrshrun.s16 d26,q13,#6
304 vmull.u8 q13,d7,d1
310 vmlsl.u8 q13,d6,d0
313 vmlal.u8 q13,d8,d2
316 vmlsl.u8 q13,d9,d3
337 vqrshrun.s16 d26,q13,#
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
206 vmlal.s16 q13,d3,d13
207 vmlal.s16 q13,d4,d14
210 vmlal.s16 q13,d5,d15
224 vqshrn.s32 d26,q13,#6 @right shift
251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
253 vmlal.s16 q13,d3,d13
256 vmlal.s16 q13,d4,d14
258 vmlal.s16 q13,d5,d15
273 vqshrn.s32 d26,q13,#6 @right shif
    [all...]
ihevc_inter_pred_chroma_vert_w16out.s 249 vmull.u8 q13,d7,d1
251 vmlsl.u8 q13,d6,d0
253 vmlal.u8 q13,d8,d2
255 vmlsl.u8 q13,d9,d3
282 vst1.8 {q13},[r7],r3 @stores the loaded value
297 vmull.u8 q13,d7,d1
301 vmlsl.u8 q13,d6,d0
305 vmlal.u8 q13,d8,d2
308 vmlsl.u8 q13,d9,d3
336 vst1.8 {q13},[r7],r3 @stores the loaded valu
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
sad_neon.c 118 uint16x8_t q12, q13; local
129 q13 = vabdl_u8(vget_high_u8(q0), vget_high_u8(q4));
137 q13 = vabal_u8(q13, vget_high_u8(q0), vget_high_u8(q4));
140 q12 = vaddq_u16(q12, q13);
155 uint16x8_t q12, q13; local
166 q13 = vabdl_u8(vget_high_u8(q0), vget_high_u8(q4));
174 q13 = vabal_u8(q13, vget_high_u8(q0), vget_high_u8(q4));
177 q12 = vaddq_u16(q12, q13);
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 86 vmull.u8 q13, d15, d3
96 vrshrn.u16 d11, q13, #8
105 vaddw.u8 q13, d11
114 vrshrn.u16 d3, q13, #8
132 vmull.u8 q13, d15, d19
142 vrshrn.u16 d11, q13, #8
151 vaddw.u8 q13, d11
160 vrshrn.u16 d19, q13, #8
176 vmull.u8 q13, d7, d19
186 vrshrn.u16 d11, q13, #
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 60 vshr.s16 q13, q1, #15
88 veor.s16 q11, q13
94 vsub.s16 q11, q13
108 vmul.s16 q13, q7, q11
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
171 vabs.s16 q13, q1
182 vadd.s16 q13, q15
187 vqdmulh.s16 q13, q9
196 vshr.s16 q13, #1
206 veor.s16 q13, q
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 60 vshr.s16 q13, q1, #15
88 veor.s16 q11, q13
94 vsub.s16 q11, q13
108 vmul.s16 q13, q7, q11
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
171 vabs.s16 q13, q1
182 vadd.s16 q13, q15
187 vqdmulh.s16 q13, q9
196 vshr.s16 q13, #1
206 veor.s16 q13, q
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_idct16x16_add_neon.asm 31 vtrn.32 q13, q15
34 vtrn.16 q12, q13
57 vld2.s16 {q12,q13}, [r0]!
58 vld2.s16 {q13,q14}, [r0]!
170 vsub.s32 q13, q2, q0
178 vqrshrn.s32 d18, q13, #14 ; >> 14
188 vmull.s16 q13, d21, d30
196 vmlsl.s16 q13, d29, d31
204 vqrshrn.s32 d21, q13, #14 ; >> 14
206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
    [all...]
vp9_idct32x32_1_add_neon.asm 26 vld1.8 {q13}, [$src], $stride
38 vqadd.u8 q13, q13, $diff
50 vqsub.u8 q13, q13, $diff
62 vst1.8 {q13},[$dst], $stride
vp9_iht8x8_add_neon.asm 111 vtrn.32 q13, q15
114 vtrn.16 q12, q13
160 vmull.s16 q13, d27, d3
168 vmlal.s16 q13, d23, d2
179 vqrshrn.s32 d13, q13, #14 ; >> 14
186 vmull.s16 q13, d16, d0
194 vmlsl.s16 q13, d24, d0
205 vqrshrn.s32 d22, q13, #14 ; >> 14
233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2]
234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_idct16x16_add_neon.asm 31 vtrn.32 q13, q15
34 vtrn.16 q12, q13
57 vld2.s16 {q12,q13}, [r0]!
58 vld2.s16 {q13,q14}, [r0]!
170 vsub.s32 q13, q2, q0
178 vqrshrn.s32 d18, q13, #14 ; >> 14
188 vmull.s16 q13, d21, d30
196 vmlsl.s16 q13, d29, d31
204 vqrshrn.s32 d21, q13, #14 ; >> 14
206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
    [all...]
vp9_idct32x32_1_add_neon.asm 26 vld1.8 {q13}, [$src], $stride
38 vqadd.u8 q13, q13, $diff
50 vqsub.u8 q13, q13, $diff
62 vst1.8 {q13},[$dst], $stride
vp9_iht8x8_add_neon.asm 111 vtrn.32 q13, q15
114 vtrn.16 q12, q13
160 vmull.s16 q13, d27, d3
168 vmlal.s16 q13, d23, d2
179 vqrshrn.s32 d13, q13, #14 ; >> 14
186 vmull.s16 q13, d16, d0
194 vmlsl.s16 q13, d24, d0
205 vqrshrn.s32 d22, q13, #14 ; >> 14
233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2]
234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2
    [all...]
  /external/libmpeg2/common/arm/
impeg2_idct.s 449 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1)
457 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
490 vmlsl.s16 q13, d14, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
501 vmlsl.s16 q13, d15, d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of r1,r6)
516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1)
517 vsub.s32 q9, q9, q13 @// a1 - b1(part of r6)
519 vadd.s32 q13, q5, q15 @// a3 + b3(part of r3)
528 vqrshrn.s32 d7, q13, #idct_stg1_shift @// r3 = (a3 + b3 + rnd) >> 7(IDCT_STG1_SHIFT)
562 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1)
567 vmlsl.s16 q13, d7, d1[3] @// y1 * cos3 - y3 * sin1(part of b1
    [all...]
  /external/jpeg/
jsimd_arm_neon.S 203 vmul.s16 q5, q5, q13
211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
342 vmull.s16 q13, \x16, d1[2]
343 vmlal.s16 q13, \x12, d1[3]
344 vmlal.s16 q13, \x10, d2[0]
345 vmlal.s16 q13, \x6, d2[1]
356 vadd.s32 q10, q14, q13
357 vsub.s32 q14, q14, q13
427 vmul.s16 q6, q6, q13
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingLuma_unsafe_s.S 84 VADDL.U8 q13,d7,d6
87 VSRA.U16 q13,q12,#1
95 VQRSHRN.U16 d31,q13,#2
96 VADDL.U8 q13,d11,d10
103 VSRA.U16 q13,q12,#1
110 VQRSHRN.U16 d28,q13,#2
  /external/boringssl/linux-arm/crypto/aes/
bsaes-armv7.S 101 veor q13, q3, q9
105 vtbl.8 d6, {q13}, d16
106 vtbl.8 d7, {q13}, d17
244 veor q13, q4, q0
256 vand q13, q13, q9
259 veor q11, q11, q13
260 veor q10, q10, q13
261 vand q13, q9, q12
264 veor q8, q8, q13
    [all...]

Completed in 733 milliseconds

1 2 3 4 5 6