/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_shortwalsh4x4_neon.c | 25 int32x4_t q9s32, q10s32, q11s32, q15s32; local 78 q9s32 = vaddl_s16(v2tmp1.val[1], v2tmp0.val[1]); 82 q0s32 = vaddq_s32(q8s32, q9s32); 85 q3s32 = vsubq_s32(q8s32, q9s32); 93 q9s32 = vreinterpretq_s32_u32(q9u32); 98 q1s32 = vsubq_s32(q1s32, q9s32); 103 q9s32 = vaddq_s32(q1s32, q15s32); 108 d1s16 = vshrn_n_s32(q9s32, 3);
|
shortfdct_neon.c | 18 int32x4_t q9s32, q10s32, q11s32, q12s32; local 24 q9s32 = vdupq_n_s32(14500); 59 q9s32 = vmlal_s16(q9s32, d7s16, d16s16); 61 q9s32 = vmlal_s16(q9s32, d6s16, d17s16); 64 d1s16 = vshrn_n_s32(q9s32, 12); 118 int32x4_t q9s32, q10s32, q11s32, q12s32; local 124 q9s32 = vdupq_n_s32(14500); 159 q11s32 = q9s32; [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
variance_neon.c | 267 int32x4_t q7s32, q8s32, q9s32, q10s32; local 273 q9s32 = vdupq_n_s32(0); 298 q9s32 = vmlal_s16(q9s32, d24s16, d24s16); 308 q9s32 = vmlal_s16(q9s32, d28s16, d28s16); 313 q9s32 = vaddq_s32(q9s32, q10s32); 314 q10s32 = vaddq_s32(q7s32, q9s32); 330 int32x4_t q7s32, q8s32, q9s32, q10s32 local [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_iht4x4_add_neon.c | 27 int32x4_t q8s32, q9s32; local 35 q9s32 = vreinterpretq_s32_s16(vcombine_s16(d1x2s16.val[0], d1x2s16.val[1])); 36 q0x2s32 = vtrnq_s32(q8s32, q9s32); 96 int32x4_t q8s32, q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32; local 114 q9s32 = vmull_s16(*d5s16, d19s16); 120 q11s32 = vsubq_s32(q11s32, q9s32);
|
vp9_iht8x8_add_neon.c | 44 int32x4_t q2s32, q3s32, q5s32, q6s32, q8s32, q9s32; local 88 q9s32 = vmull_s16(d26s16, d3s16); 93 q9s32 = vmlal_s16(q9s32, d22s16, d2s16); 98 d12s16 = vrshrn_n_s32(q9s32, 14); 158 q9s32 = vmull_s16(d28s16, d16s16); 163 q9s32 = vmlsl_s16(q9s32, d26s16, d16s16); 168 d10s16 = vrshrn_n_s32(q9s32, 14); 195 int32x4_t q9s32, q10s32, q11s32, q12s32, q13s32, q14s32, q15s32 local [all...] |