/external/libvpx/libvpx/vpx_dsp/arm/ |
variance_neon.c | 163 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; local 199 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); 202 q9s32 = vmlal_s16(q9s32, d24s16, d24s16); 243 int16x4_t d22s16, d23s16, d24s16, d25s16; local 276 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); 279 q9s32 = vmlal_s16(q9s32, d24s16, d24s16); 307 int16x4_t d22s16, d23s16, d24s16, d25s16, d26s16, d27s16, d28s16, d29s16; local 339 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)) 371 int16x4_t d22s16, d24s16, d26s16, d28s16; local [all...] |
vpx_convolve8_avg_neon.c | 64 int16x4_t d24s16, d25s16, d26s16, d27s16; local 171 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); 177 d18s16, d19s16, d23s16, d24s16, q0s16); 179 d19s16, d23s16, d24s16, d26s16, q0s16); 181 d23s16, d24s16, d26s16, d27s16, q0s16); 183 d24s16, d26s16, d27s16, d25s16, q0s16); 253 int16x4_t d24s16, d25s16, d26s16, d27s16; local 315 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); 323 d20s16, d21s16, d22s16, d24s16, q0s16); 327 d21s16, d22s16, d24s16, d26s16, q0s16) [all...] |
vpx_convolve8_neon.c | 64 int16x4_t d24s16, d25s16, d26s16, d27s16; local 164 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); 170 d18s16, d19s16, d23s16, d24s16, q0s16); 172 d19s16, d23s16, d24s16, d26s16, q0s16); 174 d23s16, d24s16, d26s16, d27s16, q0s16); 176 d24s16, d26s16, d27s16, d25s16, q0s16); 237 int16x4_t d24s16, d25s16, d26s16, d27s16; local 290 d24s16 = vreinterpret_s16_u16(vget_low_u16(q12u16)); 298 d20s16, d21s16, d22s16, d24s16, q0s16); 302 d21s16, d22s16, d24s16, d26s16, q0s16) [all...] |
idct4x4_add_neon.c | 21 int16x4_t d22s16, d23s16, d24s16, d26s16, d27s16, d28s16, d29s16; local 60 d24s16 = vsub_s16(d16s16, d18s16); 65 q14s32 = vmull_s16(d24s16, d21s16); 101 d24s16 = vsub_s16(d16s16, d18s16); 106 q14s32 = vmull_s16(d24s16, d21s16);
|
idct8x8_add_neon.c | 26 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 38 d24s16 = vget_low_s16(*q12s16); 47 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 97 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 115 d24s16 = vget_low_s16(*q12s16); 165 q2s32 = vmlal_s16(q2s32, d24s16, d0s16); 167 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16);
|
idct16x16_add_neon.c | 26 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 38 d24s16 = vget_low_s16(*q12s16); 47 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 92 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 136 d24s16 = vget_low_s16(q12s16); 191 q0s32 = vmull_s16(d24s16, d30s16); 335 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 381 d24s16 = vget_low_s16(q12s16); 414 q2s32 = vmull_s16(d24s16, d30s16); 416 q4s32 = vmull_s16(d24s16, d31s16) 1030 int16x4_t d24s16, d25s16, d26s16, d27s16, d30s16, d31s16; local [all...] |
idct32x32_add_neon.c | 175 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 206 d24s16 = vget_low_s16(q12s16); 215 q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.c | 44 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 56 d24s16 = vget_low_s16(*q12s16); 65 *q8s16 = vcombine_s16(d16s16, d24s16); // vswp d17, d24 115 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 133 d24s16 = vget_low_s16(*q12s16); 183 q2s32 = vmlal_s16(q2s32, d24s16, d0s16); 185 q13s32 = vmlsl_s16(q13s32, d24s16, d0s16); 271 int16x4_t d24s16, d25s16, d26s16, d27s16, d28s16, d29s16, d30s16, d31s16; local 284 d24s16 = vget_low_s16(*q12s16); 314 q5s32 = vmlal_s16(q5s32, d24s16, d31s16) [all...] |
vp9_iht4x4_add_neon.c | 73 int16x4_t d16s16, d17s16, d18s16, d19s16, d23s16, d24s16; local 84 d24s16 = vsub_s16(d16s16, d18s16); 89 q14s32 = vmull_s16(d24s16, *d1s16);
|