HomeSort by relevance Sort by last modified time
    Searched refs:q11 (Results 51 - 75 of 118) sorted by null

1 23 4 5

  /external/libpng/arm/
filter_neon.S 87 vld1.8 {q11}, [r0], r12
94 vld1.8 {q11}, [r0], r12
148 vld1.8 {q11}, [r0], lr
160 vld1.8 {q11}, [r0], lr
223 vld1.8 {q11}, [r0], lr
237 vld1.8 {q11}, [r0], lr
  /external/pdfium/third_party/libpng16/arm/
filter_neon.S 87 vld1.8 {q11}, [r0], r12
94 vld1.8 {q11}, [r0], r12
148 vld1.8 {q11}, [r0], lr
160 vld1.8 {q11}, [r0], lr
223 vld1.8 {q11}, [r0], lr
237 vld1.8 {q11}, [r0], lr
  /external/skia/third_party/libpng/arm/
filter_neon.S 87 vld1.8 {q11}, [r0], r12
94 vld1.8 {q11}, [r0], r12
148 vld1.8 {q11}, [r0], lr
160 vld1.8 {q11}, [r0], lr
223 vld1.8 {q11}, [r0], lr
237 vld1.8 {q11}, [r0], lr
  /external/boringssl/linux-arm/crypto/chacha/
chacha-armv4.S 850 vadd.i32 q11,q7,q12 @ counter+2
869 veor q11,q11,q8
875 vrev32.16 q11,q11
881 vadd.i32 q10,q10,q11
911 veor q14,q11,q8
917 vshr.u32 q11,q14,#24
923 vsli.32 q11,q14,#8
929 vadd.i32 q10,q10,q11
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
intrapred_neon_asm.asm 443 vadd.s16 q11, q8, q2
447 vqmovun.s16 d22, q11
457 vadd.s16 q11, q8, q2
461 vqmovun.s16 d22, q11
470 vadd.s16 q11, q8, q2
474 vqmovun.s16 d22, q11
484 vadd.s16 q11, q8, q2
488 vqmovun.s16 d22, q11
525 vsubl.u8 q11, d5, d0
540 vadd.s16 q15, q0, q11
    [all...]
  /external/libavc/common/arm/
ih264_resi_trans_quant_a9.s 202 vshl.s32 q11, q4, q10 @Shift row 1
207 vmovn.s32 d30, q11 @Narrow row 1
397 vshl.s32 q11, q4, q10 @Shift row 1
402 vmovn.s32 d30, q11 @Narrow row 1
504 vadd.s32 q11, q7, q10 @x0 = x4 + x7;
512 vadd.s32 q0, q11, q12 @(x0 + x1)
514 vsub.s32 q2, q11, q12 @(x0 - x1)
517 vdup.s32 q11, d31[0] @u4_round_factor
534 vneg.s32 q11, q11 @-u4_round_facto
    [all...]
ih264_deblk_luma_a9.s 109 vabd.u8 q11, q3, q0 @Q11 = ABS(p0 - q0)
122 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha )
126 vcgt.u8 q11, q8, q15 @Q11=(Aq<Beta)
143 vsub.i8 q9, q9, q11 @Q9 = C0 + (Ap < Beta) + (Aq < Beta)
145 vand.i8 q11, q11, q6 @
179 vand.i8 q15, q11, q15 @condition check Aq<beta
255 vabd.u8 q11, q7, q2 @Aq = ABS(q2 - q0
    [all...]
ih264_weighted_pred_a9q.s 221 vmovl.u8 q11, d9 @converting row 3H to 16-bit
226 vmul.s16 q11, q11, d2[0] @weight mult. for row 3H
241 vrshl.s16 q11, q11, q0 @rounds off the weighted samples from row 3H
248 vaddw.s8 q11, q11, d3 @adding offset for row 3H
252 vqmovun.s16 d9, q11 @saturating row 3H to unsigned 8-bit
429 vmovl.u8 q11, d10 @converting row 3L to 16-bit
432 vmul.s16 q11, q11, q1 @weight mult. for row 3
    [all...]
ih264_intra_pred_luma_4x4_a9q.s 410 vaddl.u8 q11, d1, d2
411 vadd.u16 q12, q10, q11
490 vaddl.u8 q11, d1, d2
491 vadd.u16 q12, q10, q11
570 vaddl.u8 q11, d1, d2
571 vadd.u16 q12, q10, q11
651 vaddl.u8 q11, d1, d2
652 vadd.u16 q12, q10, q11
733 vaddl.u8 q11, d1, d2
734 vadd.u16 q12, q10, q11
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s 142 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11
159 vmla.u16 q3, q4, q11
173 vmla.u16 q4, q5, q11
187 vmla.u16 q5, q6, q11
201 vmla.u16 q6, q7, q11
215 vmla.u16 q7, q8, q11
231 vmla.u16 q8, q9, q11
259 vmla.u16 q10, q1, q11
299 vmla.u16 q4, q1, q11
    [all...]
ih264_weighted_bi_pred_a9q.s 272 vmovl.u8 q11, d6 @converting row 1L in source 2 to 16-bit
280 vmla.s16 q10, q11, d2[2] @weight 2 mult. for row 1L
301 vmovl.u8 q11, d16 @converting row 4L in source 1 to 16-bit
309 vmul.s16 q11, q11, d2[0] @weight 1 mult. for row 4L
310 vmla.s16 q11, q3, d2[2] @weight 2 mult. for row 4L
325 vrshl.s16 q11, q11, q0 @rounds off the weighted samples from row 4L
331 vaddw.s8 q11, q11, d3 @adding offset for row 4
    [all...]
  /external/libhevc/common/arm/
ihevc_inter_pred_chroma_horz_w16out.s 221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
270 vst1.16 {q11},[r1]! @store the result pu1_dst
302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
338 vst1.16 {q11},[r1]! @store the result pu1_ds
    [all...]
ihevc_intra_pred_luma_dc.s 234 vmovl.u8 q11, d1
238 vadd.i16 q11, q11, q12 @row 1::7 add 3dc+2 (prol)
241 vqshrun.s16 d3, q11, #2 @rows shr2 movn (prol)
299 vmovl.u8 q11, d1
307 vadd.i16 q11, q11, q12 @row 8::15 add 3dc+2 (prol extra)
319 vqshrun.s16 d3, q11, #2 @rows shr2 movn (prol)
463 vmovl.u8 q11, d1
466 vadd.i16 q11, q11, q12 @row 1::7 add 3dc+2 (prol
    [all...]
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 325 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
329 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
348 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5)
407 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
410 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
432 vrshrn.i16 d22,q11,#5 @(viii)shift_res = vrshrn_n_u16(add_res, 5)
473 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
476 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
491 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5)
552 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_inter_pred_filters_luma_horz.s 366 vmull.u8 q11,d3,d25
368 vmlsl.u8 q11,d1,d24
371 vmlal.u8 q11,d7,d27
377 vmlsl.u8 q11,d5,d26
379 vmlal.u8 q11,d13,d28
381 vmlal.u8 q11,d17,d30
384 vmlsl.u8 q11,d15,d29
387 vmlsl.u8 q11,d19,d31
395 vqrshrun.s16 d11,q11,#6
415 vqrshrun.s16 d11,q11,#
    [all...]
ihevc_inter_pred_luma_horz_w16out.s 529 vmull.u8 q11,d3,d25
532 vmlsl.u8 q11,d1,d24
535 vmlal.u8 q11,d7,d27
538 vmlsl.u8 q11,d5,d26
541 vmlal.u8 q11,d13,d28
544 vmlal.u8 q11,d17,d30
547 vmlsl.u8 q11,d15,d29
549 vmlsl.u8 q11,d19,d31
570 vst1.8 {q11},[r6]! @store the result pu1_dst
578 @ vqrshrun.s16 d11,q11,#
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 37 VADDL.U8 q11,d22,d10
78 VQRSHRUN.S16 d22,q11,#5
  /external/boringssl/linux-arm/crypto/aes/
aesv8-armx32.S 308 vld1.32 {q10,q11},[r7]!
366 .byte 0x26,0x03,0xb0,0xf3 @ aese q0,q11
405 .byte 0x26,0x03,0xb0,0xf3 @ aese q0,q11
428 vorr q11,q10,q10
435 vorr q11,q10,q10
475 vorr q6,q11,q11
497 vld1.8 {q11},[r0]!
512 vorr q10,q11,q11
    [all...]
  /external/llvm/test/MC/ARM/
neon-cmp-encoding.s 181 vaclt.f32 q9, q11, q12
183 vaclt.f32 q11, q12
185 vacle.f32 q9, q11, q12
187 vacle.f32 q11, q12
190 @ CHECK: vacgt.f32 q9, q12, q11 @ encoding: [0xf6,0x2e,0x68,0xf3]
192 @ CHECK: vacgt.f32 q11, q12, q11 @ encoding: [0xf6,0x6e,0x68,0xf3]
194 @ CHECK: vacge.f32 q9, q12, q11 @ encoding: [0xf6,0x2e,0x48,0xf3]
196 @ CHECK: vacge.f32 q11, q12, q11 @ encoding: [0xf6,0x6e,0x48,0xf3
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Convolve.S 155 vmovl.u8 q11, d26
201 vmovl.u8 q11, d26
244 vmovl.u8 q11, d26
rsCpuIntrinsics_neon_YuvToRGB.S 54 vmull.u8 q11, d21, d14 // r2 = v * 204
57 vhadd.u16 q0, q11 // r0 = (r0 + r2) >> 1
58 vhadd.u16 q4, q11 // r1 = (r1 + r2) >> 1
  /external/libavc/encoder/arm/
ih264e_evaluate_intra16x16_modes_a9q.s 158 vabdl.u8 q11, d0, d30
165 vabal.u8 q11, d2, d30
193 vadd.i16 q12, q11, q12 @/DC
254 vdup.8 q11, d9[1] @6
ime_distortion_metrics_a9q.s 469 vabdl.u8 q11, d5, d1
481 vabal.u8 q11, d13, d9
495 vabal.u8 q11, d5, d1
508 vabal.u8 q11, d13, d9
518 vadd.u16 q10, q10, q11 @ Q10 : sad_ref2
608 vabdl.u8 q11, d2, d0 @ y ABS1
616 vabal.u8 q11, d3, d1 @ y ABS2
637 vabal.u8 q11, d2, d0 @ y ABS1
645 vabal.u8 q11, d3, d1 @ y ABS2
825 vabdl.u8 q11, d0, d
    [all...]
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
neon-omit.s 74 vqadd.s16 q1,q11,q3
89 vtst.i32 q2,q11,q3
  /bionic/libc/arch-arm/krait/bionic/
memcpy_base.S 149 vld1.32 {q10, q11}, [r1]!
152 vst1.32 {q10, q11}, [r0]!

Completed in 459 milliseconds

1 23 4 5