HomeSort by relevance Sort by last modified time
    Searched refs:q11 (Results 1 - 25 of 147) sorted by null

1 2 3 4 5 6

  /system/core/libpixelflinger/
col32cb16blend_neon.S 75 // q11 = dst blue1
84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits
86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits
89 vand q11, q11, q14 // extract dst blue1
95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha
101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
106 vshr.u16 q11, q11, #8 // shift down blue
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 169 vaddl.u8 q11, d2, d8
176 vmls.u16 q9, q11, q15
177 vaddl.u8 q11, d12, d17
180 vmla.u16 q11, q12, q14
181 vmls.u16 q11, q13, q15
186 vst1.32 {q11}, [r9]
187 vext.16 q11, q9, q10, #5
197 vaddl.s16 q11, d19, d23
198 vmlal.s16 q11, d1, d28
199 vmlsl.s16 q11, d25, d3
    [all...]
ih264_inter_pred_luma_bilinear_a9q.s 141 vaddl.u8 q11, d1, d5
151 vqrshrun.s16 d29, q11, #1
156 vaddl.u8 q11, d11, d15
164 vqrshrun.s16 d31, q11, #1
170 vaddl.u8 q11, d1, d5
176 vqrshrun.s16 d29, q11, #1
184 vaddl.u8 q11, d11, d15
190 vqrshrun.s16 d31, q11, #1
200 vaddl.u8 q11, d1, d5
204 vqrshrun.s16 d29, q11, #
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0]
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0]
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
180 vqmovun.s16 d22, q11
    [all...]
ih264_inter_pred_filters_luma_vert_a9q.s 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
141 vmla.u16 q8, q6, q11
148 vmla.u16 q7, q6, q11
155 vmla.u16 q9, q6, q11
162 vmla.u16 q8, q6, q11
170 vmla.u16 q7, q6, q11
176 vmla.u16 q9, q6, q11
    [all...]
ih264_iquant_itrans_recon_a9.s 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined
212 vrshr.s16 q11, q11, #6
215 vaddw.u8 q11, q11, d31
218 vqmovun.s16 d1, q11
318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..1
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 214 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2
    [all...]
ihevc_itrans_recon_32x32.s 235 vmull.s16 q11,d10,d0[0]
236 vmlal.s16 q11,d11,d1[2]
271 vmlal.s16 q11,d12,d3[0]
272 vmlal.s16 q11,d13,d4[2]
305 vmlal.s16 q11,d10,d6[0]
306 vmlal.s16 q11,d11,d7[2]
345 vmlsl.s16 q11,d12,d7[0]
346 vmlsl.s16 q11,d13,d5[2]
381 vmlsl.s16 q11,d10,d0[0]
382 vmlsl.s16 q11,d11,d2[2
    [all...]
  /external/libavc/encoder/arm/
ih264e_half_pel.s 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5)
376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5
    [all...]
  /external/libmpeg2/common/arm/
icv_variance_a9.s 90 vmull.u8 q11, d1, d1
95 vaddl.u16 q11, d22, d23
99 vadd.u32 q10, q10, q11
100 vadd.u32 q11, q12, q13
101 vadd.u32 q10, q10, q11
impeg2_idct.s 181 vaddw.u8 q11, q15, d7
185 vqmovun.s16 d7, q11
463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
idct_dequant_full_2x_neon.c 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
92 q11 = vqsubq_s16(q2, q3);
104 q5 = vqaddq_s16(q11, q2);
105 q6 = vqsubq_s16(q11, q2);
119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1);
125 q11 = vshrq_n_s16(q11, 1);
128 q11 = vqaddq_s16(q2tmp3.val[1], q11);
130 q8 = vqsubq_s16(q8, q11);
    [all...]
  /external/valgrind/none/tests/arm/
v8crypto_a.stdout.exp     [all...]
v8crypto_t.stdout.exp     [all...]
neon128.c 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF);
408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7);
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed)
    [all...]
  /external/llvm/test/MC/ARM/
directive-fpu-instrs.s 10 vmov q4, q11 @ v4si
neon-mul-accum-encoding.s 41 vqdmlal.s16 q11, d11, d7[0]
42 vqdmlal.s16 q11, d11, d7[1]
43 vqdmlal.s16 q11, d11, d7[2]
44 vqdmlal.s16 q11, d11, d7[3]
48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2]
49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2]
50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2]
51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
  /external/boringssl/ios-arm/crypto/fipsmodule/
bsaes-armv7.S 104 veor q11, q1, q9
108 vtbl.8 d2, {q11}, d16
109 vtbl.8 d3, {q11}, d17
122 veor q11, q7, q9
125 vtbl.8 d14, {q11}, d16
126 vtbl.8 d15, {q11}, d17
130 vshr.u64 q11, q4, #1
132 veor q11, q11, q5
134 vand q11, q11, q
    [all...]
ghashv8-armx32.S 15 vmov.i8 q11,#0xe1
16 vshl.i64 q11,q11,#57 @ 0xc2.0
18 vshr.u64 q10,q11,#63
20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
49 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
68 vmov.i8 q11,#0xe1
70 vshl.u64 q11,q11,#5
    [all...]
  /external/boringssl/linux-arm/crypto/fipsmodule/
bsaes-armv7.S 103 veor q11, q1, q9
107 vtbl.8 d2, {q11}, d16
108 vtbl.8 d3, {q11}, d17
121 veor q11, q7, q9
124 vtbl.8 d14, {q11}, d16
125 vtbl.8 d15, {q11}, d17
129 vshr.u64 q11, q4, #1
131 veor q11, q11, q5
133 vand q11, q11, q
    [all...]
ghashv8-armx32.S 14 vmov.i8 q11,#0xe1
15 vshl.i64 q11,q11,#57 @ 0xc2.0
17 vshr.u64 q10,q11,#63
19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
48 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11
65 vmov.i8 q11,#0xe1
67 vshl.u64 q11,q11,#5
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Resize.S 62 vmovl.u8 q11, d22
90 vmovl.u8 q11, d22
249 vdup.u32 q11, d24[0]
250 vst1.s16 {q11,q12}, [r12]
263 vld1.s16 {q11,q12}, [r8]
264 vst1.s16 {q11,q12}, [r9]
461 vshll.s16 q11, d18, #2
464 vmlsl.s16 q11, d20, d10
473 vaddw.s16 q1, q11, d18
483 vaddw.s16 q2, q11, d1
    [all...]
  /bionic/libc/arch-arm/kryo/bionic/
memcpy.S 62 vld1.32 {q10, q11}, [r1]!
67 vst1.32 {q10, q11}, [r0]!
74 vld1.32 {q10, q11}, [r1]!
79 vst1.32 {q10, q11}, [r0]!
  /external/libxaac/decoder/armv7/
ixheaacd_imdct_using_fft.s 250 VADD.I32 q10, q11, q2
251 VSUB.I32 q1, q11, q2
255 VADD.S32 q11, q7, q15
273 VADD.S32 q3, q4, q11
276 VSUB.S32 q10, q4, q11
283 VSUB.S32 q11, q8, q7
327 VPUSH {q11}
355 VADD.S32 q11, q9, q14
420 VTRN.32 q15, q11
426 VSHL.S32 q11, q11, #
    [all...]
ixheaacd_sbr_imdct_using_fft.s 254 VADD.I32 q10, q11, q2
255 VSUB.I32 q1, q11, q2
259 VADD.S32 q11, q7, q15
277 VADD.S32 q3, q4, q11
280 VSUB.S32 q10, q4, q11
287 VSUB.S32 q11, q8, q7
331 VPUSH {q11}
359 VADD.S32 q11, q9, q14
425 VTRN.32 q15, q11
431 VSHL.S32 q11, q11, #
    [all...]

Completed in 458 milliseconds

1 2 3 4 5 6