HomeSort by relevance Sort by last modified time
    Searched refs:q11 (Results 1 - 25 of 118) sorted by null

1 2 3 4 5

  /system/core/libpixelflinger/
col32cb16blend_neon.S 75 // q11 = dst blue1
84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits
86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits
89 vand q11, q11, q14 // extract dst blue1
95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha
101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
106 vshr.u16 q11, q11, #8 // shift down blue
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 169 vaddl.u8 q11, d2, d8
176 vmls.u16 q9, q11, q15
177 vaddl.u8 q11, d12, d17
180 vmla.u16 q11, q12, q14
181 vmls.u16 q11, q13, q15
186 vst1.32 {q11}, [r9]
187 vext.16 q11, q9, q10, #5
197 vaddl.s16 q11, d19, d23
198 vmlal.s16 q11, d1, d28
199 vmlsl.s16 q11, d25, d3
    [all...]
ih264_inter_pred_luma_bilinear_a9q.s 141 vaddl.u8 q11, d1, d5
151 vqrshrun.s16 d29, q11, #1
156 vaddl.u8 q11, d11, d15
164 vqrshrun.s16 d31, q11, #1
170 vaddl.u8 q11, d1, d5
176 vqrshrun.s16 d29, q11, #1
184 vaddl.u8 q11, d11, d15
190 vqrshrun.s16 d31, q11, #1
200 vaddl.u8 q11, d1, d5
204 vqrshrun.s16 d29, q11, #
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0]
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
180 vqmovun.s16 d22, q11
    [all...]
ih264_inter_pred_filters_luma_vert_a9q.s 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
141 vmla.u16 q8, q6, q11
148 vmla.u16 q7, q6, q11
155 vmla.u16 q9, q6, q11
162 vmla.u16 q8, q6, q11
170 vmla.u16 q7, q6, q11
176 vmla.u16 q9, q6, q11
    [all...]
ih264_iquant_itrans_recon_a9.s 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
212 vrshr.s16 q11, q11, #6
215 vaddw.u8 q11, q11, d31
218 vqmovun.s16 d1, q11
318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..1
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingLuma_unsafe_s.S 30 VSUBL.U8 q11,d5,d9
34 VSHR.S16 q11,q11,#2
38 VRHADD.S16 q10,q11,q10
75 VADDL.U8 q11,d6,d9
78 VSHR.U16 q11,q11,#1
79 VHADD.U16 q11,q12,q11
86 VQRSHRN.U16 d29,q11,#
    [all...]
armVCM4P10_DeblockingChroma_unsafe_s.S 31 VSUBL.U8 q11,d5,d9
34 VSHR.S16 q11,q11,#2
37 VRHADD.S16 q10,q11,q10
omxVCM4P10_PredictIntra_16x16_s.S 211 VMULL.S16 q11,d8,d20
213 VMLAL.S16 q11,d9,d21
217 VPADDL.S32 q11,q11
218 VSHL.I64 q12,q11,#2
219 VADD.I64 q11,q11,q12
220 VRSHR.S64 q11,q11,#6
221 VSHL.I64 q12,q11,#
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
326 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2
    [all...]
ihevc_itrans_recon_32x32.s 229 vmull.s16 q11,d10,d0[0]
230 vmlal.s16 q11,d11,d1[2]
265 vmlal.s16 q11,d12,d3[0]
266 vmlal.s16 q11,d13,d4[2]
299 vmlal.s16 q11,d10,d6[0]
300 vmlal.s16 q11,d11,d7[2]
339 vmlsl.s16 q11,d12,d7[0]
340 vmlsl.s16 q11,d13,d5[2]
375 vmlsl.s16 q11,d10,d0[0]
376 vmlsl.s16 q11,d11,d2[2
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
177 vmovn.s16 d6, q11
184 vshr.s16 q11, q11, #5
190 vqmovn.s16 d8, q11
220 vmull.u8 q11, d16, d7 @mul (row 1)
221 vmlal.u8 q11, d17, d6 @mul (row 1)
228 vrshrn.i16 d22, q11, #5 @round shft (row 1)
264 vmull.u8 q11, d16, d7 @mul (row 5)
265 vmlal.u8 q11, d17, d6 @mul (row 5
    [all...]
ihevc_inter_pred_chroma_horz.s 207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
254 vqrshrun.s16 d22,q11,#6
265 vst1.16 {q11},[r1],r6 @store the result pu1_dst
292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
297 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
301 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)
    [all...]
ihevc_itrans_recon_16x16.s 371 vsub.s32 q11,q6,q12
390 vqrshrn.s32 d19,q11,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
434 vmull.s16 q11,d10,d0[0]
435 vmlsl.s16 q11,d11,d3[2]
460 vmlsl.s16 q11,d4,d1[0]
461 vmlal.s16 q11,d5,d2[2]
515 vmlal.s16 q11,d10,d0[0]
516 vmlsl.s16 q11,d11,d1[2]
517 vmlsl.s16 q11,d4,d3[0]
518 vmlal.s16 q11,d5,d0[2
    [all...]
ihevc_inter_pred_luma_copy_w16out.s 112 vmovl.u8 q11,d22 @vmovl_u8(vld1_u8(pu1_src_tmp)
114 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6)
155 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp)
160 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6)
190 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp)
209 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6)
229 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp)
236 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6)
  /external/libavc/encoder/arm/
ih264e_half_pel.s 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5
    [all...]
  /external/libmpeg2/common/arm/
icv_variance_a9.s 90 vmull.u8 q11, d1, d1
95 vaddl.u16 q11, d22, d23
99 vadd.u32 q10, q10, q11
100 vadd.u32 q11, q12, q13
101 vadd.u32 q10, q10, q11
impeg2_idct.s 181 vaddw.u8 q11, q15, d7
185 vqmovun.s16 d7, q11
463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
idct_dequant_full_2x_neon.c 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
92 q11 = vqsubq_s16(q2, q3);
104 q5 = vqaddq_s16(q11, q2);
105 q6 = vqsubq_s16(q11, q2);
119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1);
125 q11 = vshrq_n_s16(q11, 1);
128 q11 = vqaddq_s16(q2tmp3.val[1], q11);
130 q8 = vqsubq_s16(q8, q11);
    [all...]
  /external/llvm/test/MC/ARM/
directive-fpu-instrs.s 10 vmov q4, q11 @ v4si
neon-mul-accum-encoding.s 41 vqdmlal.s16 q11, d11, d7[0]
42 vqdmlal.s16 q11, d11, d7[1]
43 vqdmlal.s16 q11, d11, d7[2]
44 vqdmlal.s16 q11, d11, d7[3]
48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2]
49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2]
50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2]
51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
  /external/boringssl/linux-arm/crypto/aes/
bsaes-armv7.S 95 veor q11, q1, q9
99 vtbl.8 d2, {q11}, d16
100 vtbl.8 d3, {q11}, d17
113 veor q11, q7, q9
116 vtbl.8 d14, {q11}, d16
117 vtbl.8 d15, {q11}, d17
121 vshr.u64 q11, q4, #1
123 veor q11, q11, q5
125 vand q11, q11, q
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Resize.S 62 vmovl.u8 q11, d22
90 vmovl.u8 q11, d22
249 vdup.u32 q11, d24[0]
250 vst1.s16 {q11,q12}, [r12]
263 vld1.s16 {q11,q12}, [r8]
264 vst1.s16 {q11,q12}, [r9]
461 vshll.s16 q11, d18, #2
464 vmlsl.s16 q11, d20, d10
473 vaddw.s16 q1, q11, d18
483 vaddw.s16 q2, q11, d1
    [all...]
  /external/boringssl/linux-arm/crypto/modes/
ghashv8-armx32.S 13 vmov.i8 q11,#0xe1
14 vshl.i64 q11,q11,#57 @ 0xc2.0
16 vshr.u64 q10,q11,#63
18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
40 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
47 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
64 vmov.i8 q11,#0xe1
66 vshl.u64 q11,q11,#5
    [all...]
  /external/valgrind/none/tests/arm/
neon128.c 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF);
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7);
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed)
    [all...]

Completed in 719 milliseconds

1 2 3 4 5