/external/libpng/arm/ |
filter_neon.S | 87 vld1.8 {q11}, [r0], r12 94 vld1.8 {q11}, [r0], r12 148 vld1.8 {q11}, [r0], lr 160 vld1.8 {q11}, [r0], lr 223 vld1.8 {q11}, [r0], lr 237 vld1.8 {q11}, [r0], lr
|
/external/pdfium/third_party/libpng16/arm/ |
filter_neon.S | 87 vld1.8 {q11}, [r0], r12 94 vld1.8 {q11}, [r0], r12 148 vld1.8 {q11}, [r0], lr 160 vld1.8 {q11}, [r0], lr 223 vld1.8 {q11}, [r0], lr 237 vld1.8 {q11}, [r0], lr
|
/external/skia/third_party/libpng/arm/ |
filter_neon.S | 87 vld1.8 {q11}, [r0], r12 94 vld1.8 {q11}, [r0], r12 148 vld1.8 {q11}, [r0], lr 160 vld1.8 {q11}, [r0], lr 223 vld1.8 {q11}, [r0], lr 237 vld1.8 {q11}, [r0], lr
|
/external/boringssl/linux-arm/crypto/chacha/ |
chacha-armv4.S | 850 vadd.i32 q11,q7,q12 @ counter+2 869 veor q11,q11,q8 875 vrev32.16 q11,q11 881 vadd.i32 q10,q10,q11 911 veor q14,q11,q8 917 vshr.u32 q11,q14,#24 923 vsli.32 q11,q14,#8 929 vadd.i32 q10,q10,q11 [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
intrapred_neon_asm.asm | 443 vadd.s16 q11, q8, q2 447 vqmovun.s16 d22, q11 457 vadd.s16 q11, q8, q2 461 vqmovun.s16 d22, q11 470 vadd.s16 q11, q8, q2 474 vqmovun.s16 d22, q11 484 vadd.s16 q11, q8, q2 488 vqmovun.s16 d22, q11 525 vsubl.u8 q11, d5, d0 540 vadd.s16 q15, q0, q11 [all...] |
/external/libavc/common/arm/ |
ih264_resi_trans_quant_a9.s | 202 vshl.s32 q11, q4, q10 @Shift row 1 207 vmovn.s32 d30, q11 @Narrow row 1 397 vshl.s32 q11, q4, q10 @Shift row 1 402 vmovn.s32 d30, q11 @Narrow row 1 504 vadd.s32 q11, q7, q10 @x0 = x4 + x7; 512 vadd.s32 q0, q11, q12 @(x0 + x1) 514 vsub.s32 q2, q11, q12 @(x0 - x1) 517 vdup.s32 q11, d31[0] @u4_round_factor 534 vneg.s32 q11, q11 @-u4_round_facto [all...] |
ih264_deblk_luma_a9.s | 109 vabd.u8 q11, q3, q0 @Q11 = ABS(p0 - q0) 122 vcge.u8 q9, q11, q10 @Q9 = ( ABS(p0 - q0) >= Alpha ) 126 vcgt.u8 q11, q8, q15 @Q11=(Aq<Beta) 143 vsub.i8 q9, q9, q11 @Q9 = C0 + (Ap < Beta) + (Aq < Beta) 145 vand.i8 q11, q11, q6 @ 179 vand.i8 q15, q11, q15 @condition check Aq<beta 255 vabd.u8 q11, q7, q2 @Aq = ABS(q2 - q0 [all...] |
ih264_weighted_pred_a9q.s | 221 vmovl.u8 q11, d9 @converting row 3H to 16-bit 226 vmul.s16 q11, q11, d2[0] @weight mult. for row 3H 241 vrshl.s16 q11, q11, q0 @rounds off the weighted samples from row 3H 248 vaddw.s8 q11, q11, d3 @adding offset for row 3H 252 vqmovun.s16 d9, q11 @saturating row 3H to unsigned 8-bit 429 vmovl.u8 q11, d10 @converting row 3L to 16-bit 432 vmul.s16 q11, q11, q1 @weight mult. for row 3 [all...] |
ih264_intra_pred_luma_4x4_a9q.s | 410 vaddl.u8 q11, d1, d2 411 vadd.u16 q12, q10, q11 490 vaddl.u8 q11, d1, d2 491 vadd.u16 q12, q10, q11 570 vaddl.u8 q11, d1, d2 571 vadd.u16 q12, q10, q11 651 vaddl.u8 q11, d1, d2 652 vadd.u16 q12, q10, q11 733 vaddl.u8 q11, d1, d2 734 vadd.u16 q12, q10, q11 [all...] |
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 142 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 159 vmla.u16 q3, q4, q11 173 vmla.u16 q4, q5, q11 187 vmla.u16 q5, q6, q11 201 vmla.u16 q6, q7, q11 215 vmla.u16 q7, q8, q11 231 vmla.u16 q8, q9, q11 259 vmla.u16 q10, q1, q11 299 vmla.u16 q4, q1, q11 [all...] |
ih264_weighted_bi_pred_a9q.s | 272 vmovl.u8 q11, d6 @converting row 1L in source 2 to 16-bit 280 vmla.s16 q10, q11, d2[2] @weight 2 mult. for row 1L 301 vmovl.u8 q11, d16 @converting row 4L in source 1 to 16-bit 309 vmul.s16 q11, q11, d2[0] @weight 1 mult. for row 4L 310 vmla.s16 q11, q3, d2[2] @weight 2 mult. for row 4L 325 vrshl.s16 q11, q11, q0 @rounds off the weighted samples from row 4L 331 vaddw.s8 q11, q11, d3 @adding offset for row 4 [all...] |
/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_horz_w16out.s | 221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 270 vst1.16 {q11},[r1]! @store the result pu1_dst 302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 338 vst1.16 {q11},[r1]! @store the result pu1_ds [all...] |
ihevc_intra_pred_luma_dc.s | 234 vmovl.u8 q11, d1 238 vadd.i16 q11, q11, q12 @row 1::7 add 3dc+2 (prol) 241 vqshrun.s16 d3, q11, #2 @rows shr2 movn (prol) 299 vmovl.u8 q11, d1 307 vadd.i16 q11, q11, q12 @row 8::15 add 3dc+2 (prol extra) 319 vqshrun.s16 d3, q11, #2 @rows shr2 movn (prol) 463 vmovl.u8 q11, d1 466 vadd.i16 q11, q11, q12 @row 1::7 add 3dc+2 (prol [all...] |
ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 325 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 329 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 348 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 407 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 410 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 432 vrshrn.i16 d22,q11,#5 @(viii)shift_res = vrshrn_n_u16(add_res, 5) 473 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 476 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 491 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 552 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_inter_pred_filters_luma_horz.s | 366 vmull.u8 q11,d3,d25 368 vmlsl.u8 q11,d1,d24 371 vmlal.u8 q11,d7,d27 377 vmlsl.u8 q11,d5,d26 379 vmlal.u8 q11,d13,d28 381 vmlal.u8 q11,d17,d30 384 vmlsl.u8 q11,d15,d29 387 vmlsl.u8 q11,d19,d31 395 vqrshrun.s16 d11,q11,#6 415 vqrshrun.s16 d11,q11,# [all...] |
ihevc_inter_pred_luma_horz_w16out.s | 529 vmull.u8 q11,d3,d25 532 vmlsl.u8 q11,d1,d24 535 vmlal.u8 q11,d7,d27 538 vmlsl.u8 q11,d5,d26 541 vmlal.u8 q11,d13,d28 544 vmlal.u8 q11,d17,d30 547 vmlsl.u8 q11,d15,d29 549 vmlsl.u8 q11,d19,d31 570 vst1.8 {q11},[r6]! @store the result pu1_dst 578 @ vqrshrun.s16 d11,q11,# [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 37 VADDL.U8 q11,d22,d10 78 VQRSHRUN.S16 d22,q11,#5
|
/external/boringssl/linux-arm/crypto/aes/ |
aesv8-armx32.S | 308 vld1.32 {q10,q11},[r7]! 366 .byte 0x26,0x03,0xb0,0xf3 @ aese q0,q11 405 .byte 0x26,0x03,0xb0,0xf3 @ aese q0,q11 428 vorr q11,q10,q10 435 vorr q11,q10,q10 475 vorr q6,q11,q11 497 vld1.8 {q11},[r0]! 512 vorr q10,q11,q11 [all...] |
/external/llvm/test/MC/ARM/ |
neon-cmp-encoding.s | 181 vaclt.f32 q9, q11, q12 183 vaclt.f32 q11, q12 185 vacle.f32 q9, q11, q12 187 vacle.f32 q11, q12 190 @ CHECK: vacgt.f32 q9, q12, q11 @ encoding: [0xf6,0x2e,0x68,0xf3] 192 @ CHECK: vacgt.f32 q11, q12, q11 @ encoding: [0xf6,0x6e,0x68,0xf3] 194 @ CHECK: vacge.f32 q9, q12, q11 @ encoding: [0xf6,0x2e,0x48,0xf3] 196 @ CHECK: vacge.f32 q11, q12, q11 @ encoding: [0xf6,0x6e,0x48,0xf3 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Convolve.S | 155 vmovl.u8 q11, d26 201 vmovl.u8 q11, d26 244 vmovl.u8 q11, d26
|
rsCpuIntrinsics_neon_YuvToRGB.S | 54 vmull.u8 q11, d21, d14 // r2 = v * 204 57 vhadd.u16 q0, q11 // r0 = (r0 + r2) >> 1 58 vhadd.u16 q4, q11 // r1 = (r1 + r2) >> 1
|
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra16x16_modes_a9q.s | 158 vabdl.u8 q11, d0, d30 165 vabal.u8 q11, d2, d30 193 vadd.i16 q12, q11, q12 @/DC 254 vdup.8 q11, d9[1] @6
|
ime_distortion_metrics_a9q.s | 469 vabdl.u8 q11, d5, d1 481 vabal.u8 q11, d13, d9 495 vabal.u8 q11, d5, d1 508 vabal.u8 q11, d13, d9 518 vadd.u16 q10, q10, q11 @ Q10 : sad_ref2 608 vabdl.u8 q11, d2, d0 @ y ABS1 616 vabal.u8 q11, d3, d1 @ y ABS2 637 vabal.u8 q11, d2, d0 @ y ABS1 645 vabal.u8 q11, d3, d1 @ y ABS2 825 vabdl.u8 q11, d0, d [all...] |
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/ |
neon-omit.s | 74 vqadd.s16 q1,q11,q3 89 vtst.i32 q2,q11,q3
|
/bionic/libc/arch-arm/krait/bionic/ |
memcpy_base.S | 149 vld1.32 {q10, q11}, [r1]! 152 vst1.32 {q10, q11}, [r0]!
|