/external/libhevc/common/arm/ |
ihevc_inter_pred_luma_horz_w16out.s | 229 vld1.u32 {d17},[r4],r11 232 vzip.32 d5,d17 239 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 376 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 399 vld1.u32 {d17},[r4],r11 404 vmlsl.u8 q5,d17,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@ 495 vmlal.u8 q10,d17,d30 544 vmlal.u8 q11,d17,d30
|
ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 324 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 1) 332 vmlal.u8 q11, d17, d6 @mul (row 1) 367 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 5) 378 vmlal.u8 q11, d17, d6 @mul (row 5) 500 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 1) 512 vmlal.u8 q11, d17, d6 @mul (row 1) 552 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 5) 569 vmlal.u8 q11, d17, d6 @mul (row 5)
|
ihevc_intra_pred_luma_dc.s | 118 vmov d17, r11, r9 210 vadd.i64 d11, d11, d17 @3*dc + 2 451 vadd.i64 d11, d11, d17 @3*dc + 2
|
ihevc_inter_pred_chroma_horz.s | 475 @vld1.u32 {d17},[r12],r2 @(3)vector load pu1_src 476 vld1.u32 {d17},[r12],r8 @(3)vector load pu1_src 513 vmlsl.u8 q6,d17,d27 @(3)mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 547 @vld1.u32 {d17},[r12],r2 @(3_1)vector load pu1_src 548 vld1.u32 {d17},[r12],r8 @(3_1)vector load pu1_src 588 vmlsl.u8 q6,d17,d27 @(3)mul_res = vmlal_u8(src[0_1], coeffabs_1)@
|
ihevc_deblk_luma_horz.s | 209 vqsub.u8 d17,d27,d1 240 vmax.u8 d5,d18,d17 283 vqsub.u8 d17,d24,d1 386 vmax.u8 d5,d18,d17
|
/external/libmpeg2/common/arm/ |
ideint_cac_a9.s | 128 vabd.u16 d16, d16, d17 129 vabd.u16 d17, d18, d19
|
impeg2_inter_pred.s | 331 vld1.8 {d17, d18}, [r1], r2 @load row4 342 vext.8 d5, d17, d18, #1 @Extract pixels (1-8) of row4 456 vld1.8 {d16, d17}, [r14], r2 @load row9 472 vext.8 d17, d16, d17, #1 @Extract pixels (1-8) of row9 493 vaddl.u8 q8, d16, d17 @operate row9
|
ideint_spatial_filter_a9.s | 127 vpadd.u16 d16, d16, d17
|
/external/llvm/test/MC/ARM/ |
invalid-neon-v8.s | 69 vmullge.p64 q0, d16, d17
|
/external/libjpeg-turbo/simd/ |
jsimd_arm_neon.S | 213 ROW0R .req d17 233 * 0 | d16 | d17 ( q8 ) 243 vld1.16 {d16, d17, d18, d19}, [COEF_BLOCK, :128]! 503 vqrshrn.s16 d17, q9, #2 514 vtrn.8 d16, d17 525 vst1.8 {d17}, [TMP2] 720 * 0 | d16 | d17 ( q8 ) 730 vld1.16 {d16, d17, d18, d19}, [COEF_BLOCK, :128]! [all...] |
/external/libavc/common/arm/ |
ih264_iquant_itrans_recon_a9.s | 140 vld4.s16 {d16, d17, d18, d19}, [r0] @pi2_src_tmp[i], i =0..15 148 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7 201 vadd.s16 d17, d11, d19 @x3 = q0+ (q1 >> 1); 204 vswp d16, d17 @Reverse positions of x2 and x3 316 vld4.s16 {d16, d17, d18, d19}, [r0] @pi2_src_tmp[i], i =0..15 321 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7 376 vadd.s16 d17, d11, d19 @x3 = q0+ (q1 >> 1); 379 vswp d16, d17 @Reverse positions of x2 and x3 510 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7 533 vmull.s16 q3, d17, d21 @ p[i] = (x[i] * trns_coeff[i]) where i=20..2 [all...] |
ih264_intra_pred_chroma_a9q.s | 413 vpadd.s16 d17, d17 417 vpadd.s16 d17, d17 425 vmull.s16 q14, d17, d18
|
ih264_intra_pred_luma_8x8_a9q.s | 492 vst1.32 {d17[0]}, [r1], r5 575 vst1.8 {d17}, [r1], r3 583 vst1.32 {d17[0]}, [r1], r5 692 vst1.16 {d17[1]}, [r1]! 795 vst1.8 {d17}, [r1] 1017 vst1.8 {d17}, [r1], r3
|
ih264_deblk_luma_a9.s | 147 vaddl.u8 q14, d17, d11 @ 149 vaddl.u8 q15, d17, d5 @ 282 vrshrn.u16 d17, q0, #2 @(2*q1+q0+p1+2)>>2 H [q0"] [all...] |
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra4x4_modes_a9q.s | 290 vbit.32 d17, d30, d26 293 vbit.32 d17, d31, d28 298 vabal.u8 q14, d17, d21
|
ime_distortion_metrics_a9q.s | 422 vadd.u16 d16, d16, d17 521 vadd.u16 d16, d16, d17 656 vadd.i16 d7, d16, d17 @ xy top left 1067 vadd.s16 d17, d12, d13 @I (s1 + s2) (s3 + s4) 1069 @D17 S12 S34 A12 A34 1085 vpadd.s16 d10, d16, d17 @I Get sad by adding s1 s2 s3 s4 [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 248 vld1.u8 {d16, d17, d18, d19}, [r0], r1 281 vsubl.u8 q6, d7, d17 375 vld1.u8 {d16, d17, d18, d19}, [r0], r1 423 vld1.u8 {d16, d17, d18, d19}, [r0], r1 476 vld1.u8 {d16, d17}, [r0], r1
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 104 vswp d17, d24 183 vmull.s16 q3, d17, d0 187 vmull.s16 q15, d17, d0 303 vmlal.s16 q2, d17, d15 307 vmlsl.s16 q4, d17, d14
|
vp9_idct16x16_add_neon.asm | 24 vswp d17, d24 152 vmull.s16 q11, d17, d30 175 vqrshrn.s32 d17, q12, #14 ; >> 14 259 vst1.64 {d17}, [r1], r2 336 vmull.s16 q3, d17, d12 340 vmull.s16 q4, d17, d13 769 vst1.64 {d17}, [r1], r5 [all...] |
/external/valgrind/none/tests/arm/ |
vfp.c | 1076 TESTINSN_core_to_scalar("vmov.16 d17[3], r1", d17, r1, 17); 1082 TESTINSN_core_to_scalar("vmov.8 d17[5], r5", d17, r5, 1343); [all...] |
/external/boringssl/src/crypto/chacha/ |
chacha_vec_arm.S | 546 vldr d17, [r1, #88] 630 vldr d17, [r3, #88] 633 vstr d17, [r3, #88] 648 vldr d17, [r3, #88] 651 vstr d17, [r3, #88] 900 vldr d17, [r6, #88] 903 vstr d17, [r6, #88] 1405 vstr d17, [r3, #40]
|
/external/libhevc/common/arm64/ |
ihevc_intra_pred_luma_dc.s | 218 add d23, d23 , d17 //3*dc + 2 461 add d23, d23 , d17 //3*dc + 2
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
idct16x16_add_neon.asm | 24 vswp d17, d24 152 vmull.s16 q11, d17, d30 175 vqrshrn.s32 d17, q12, #14 ; >> 14 259 vst1.64 {d17}, [r1], r2 336 vmull.s16 q3, d17, d12 340 vmull.s16 q4, d17, d13 769 vst1.64 {d17}, [r1], r5 [all...] |
/external/v8/src/compiler/ |
c-linkage.cc | 122 d14.bit() | d15.bit() | d16.bit() | d17.bit() | d18.bit() | d19.bit() | \
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Convolve.S | 90 vshrn.i32 d17, q9, #8
|