/external/libaom/libaom/av1/encoder/x86/ |
highbd_fwd_txfm_avx2.c | 79 in[0] = _mm256_add_epi32(in[0], rounding); 80 in[1] = _mm256_add_epi32(in[1], rounding); 81 in[2] = _mm256_add_epi32(in[2], rounding); 82 in[3] = _mm256_add_epi32(in[3], rounding); 83 in[4] = _mm256_add_epi32(in[4], rounding); 84 in[5] = _mm256_add_epi32(in[5], rounding); 85 in[6] = _mm256_add_epi32(in[6], rounding); 86 in[7] = _mm256_add_epi32(in[7], rounding); 189 in[stride * i] = _mm256_add_epi32(in[stride * i], round); 220 x = _mm256_add_epi32(x, y) [all...] |
av1_fwd_txfm_avx2.h | 27 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1); 28 temp0 = _mm256_add_epi32(temp0, _r); 33 temp1 = _mm256_add_epi32(temp1, _r); 46 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1); 47 temp0 = _mm256_add_epi32(temp0, _r); 52 temp1 = _mm256_add_epi32(temp1, _r); 66 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1); 67 temp0 = _mm256_add_epi32(temp0, _r); 72 temp1 = _mm256_add_epi32(temp1, _r); 86 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1) [all...] |
corner_match_avx2.c | 54 sumsq2_vec = _mm256_add_epi32(sumsq2_vec, _mm256_madd_epi16(v2_1, v2_1)); 57 cross_vec = _mm256_add_epi32(cross_vec, _mm256_madd_epi16(v1_1, v2_1)); 62 sum_vec = _mm256_add_epi32(sum_vec, sum_vec1); 68 temp1 = _mm256_add_epi32(unp_low, unp_hig);
|
wedge_utils_avx2.c | 121 const __m256i v_p01_d = _mm256_add_epi32(v_p0_d, v_p1_d); 122 const __m256i v_p23_d = _mm256_add_epi32(v_p2_d, v_p3_d); 124 const __m256i v_p0123_d = _mm256_add_epi32(v_p01_d, v_p23_d); 126 v_acc0_d = _mm256_add_epi32(v_acc0_d, v_p0123_d);
|
pickrst_avx2.c | 26 const __m256i r0 = _mm256_add_epi32(dst0, d0); 527 _mm256_srai_epi32(_mm256_add_epi32(v0, rounding), shift); 529 _mm256_srai_epi32(_mm256_add_epi32(v1, rounding), shift); 533 sum32 = _mm256_add_epi32(sum32, err0); 572 _mm256_srai_epi32(_mm256_add_epi32(v0, rounding), shift); 574 _mm256_srai_epi32(_mm256_add_epi32(v1, rounding), shift); 578 sum32 = _mm256_add_epi32(sum32, err0); 604 sum32 = _mm256_add_epi32(sum32, err0); 676 const __m256i vl = _mm256_add_epi32(v0l, v1l); 677 const __m256i vh = _mm256_add_epi32(v0h, v1h) [all...] |
/external/libvpx/libvpx/vpx_dsp/x86/ |
sad4d_avx2.c | 57 sums[0] = _mm256_add_epi32(sums[0], r[0]); 58 sums[1] = _mm256_add_epi32(sums[1], r[1]); 59 sums[2] = _mm256_add_epi32(sums[2], r[2]); 60 sums[3] = _mm256_add_epi32(sums[3], r[3]); 113 sums[0] = _mm256_add_epi32(sums[0], r_lo[0]); 114 sums[1] = _mm256_add_epi32(sums[1], r_lo[1]); 115 sums[2] = _mm256_add_epi32(sums[2], r_lo[2]); 116 sums[3] = _mm256_add_epi32(sums[3], r_lo[3]); 117 sums[0] = _mm256_add_epi32(sums[0], r_hi[0]); 118 sums[1] = _mm256_add_epi32(sums[1], r_hi[1]) [all...] |
fwd_dct32x32_impl_avx2.h | 383 _mm256_add_epi32(s2_20_2, k__DCT_CONST_ROUNDING); 385 _mm256_add_epi32(s2_20_3, k__DCT_CONST_ROUNDING); 387 _mm256_add_epi32(s2_21_2, k__DCT_CONST_ROUNDING); 389 _mm256_add_epi32(s2_21_3, k__DCT_CONST_ROUNDING); 391 _mm256_add_epi32(s2_22_2, k__DCT_CONST_ROUNDING); 393 _mm256_add_epi32(s2_22_3, k__DCT_CONST_ROUNDING); 395 _mm256_add_epi32(s2_23_2, k__DCT_CONST_ROUNDING); 397 _mm256_add_epi32(s2_23_3, k__DCT_CONST_ROUNDING); 399 _mm256_add_epi32(s2_24_2, k__DCT_CONST_ROUNDING); 401 _mm256_add_epi32(s2_24_3, k__DCT_CONST_ROUNDING) [all...] |
sad_avx2.c | 30 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \ 35 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \ 62 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \ 67 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \ 112 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \ 118 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \ 150 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); [all...] |
avg_intrin_avx2.c | 29 __m256i b0 = _mm256_add_epi32(a0, a1); 31 __m256i b2 = _mm256_add_epi32(a2, a3); 33 __m256i b4 = _mm256_add_epi32(a4, a5); 35 __m256i b6 = _mm256_add_epi32(a6, a7); 38 a0 = _mm256_add_epi32(b0, b2); 39 a1 = _mm256_add_epi32(b1, b3); 42 a4 = _mm256_add_epi32(b4, b6); 43 a5 = _mm256_add_epi32(b5, b7); 48 b0 = _mm256_add_epi32(a0, a4); 49 b7 = _mm256_add_epi32(a1, a5) [all...] |
/external/libaom/libaom/aom_dsp/x86/ |
sad4d_avx2.c | 47 sum_ref0 = _mm256_add_epi32(sum_ref0, ref0_reg); 48 sum_ref1 = _mm256_add_epi32(sum_ref1, ref1_reg); 49 sum_ref2 = _mm256_add_epi32(sum_ref2, ref2_reg); 50 sum_ref3 = _mm256_add_epi32(sum_ref3, ref3_reg); 75 sum_mlow = _mm256_add_epi32(sum_mlow, sum_mhigh); 128 sum_ref0 = _mm256_add_epi32(sum_ref0, ref0_reg); 129 sum_ref1 = _mm256_add_epi32(sum_ref1, ref1_reg); 130 sum_ref2 = _mm256_add_epi32(sum_ref2, ref2_reg); 131 sum_ref3 = _mm256_add_epi32(sum_ref3, ref3_reg); 132 sum_ref0 = _mm256_add_epi32(sum_ref0, ref0next_reg) [all...] |
sad_avx2.c | 33 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \ 38 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \ 66 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \ 71 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \ 119 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \ 125 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \ 158 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); [all...] |
sum_squares_avx2.c | 43 const __m256i v_sum_01_d = _mm256_add_epi32(v_sq_0_d, v_sq_1_d); 44 const __m256i v_sum_23_d = _mm256_add_epi32(v_sq_2_d, v_sq_3_d); 45 const __m256i v_sum_0123_d = _mm256_add_epi32(v_sum_01_d, v_sum_23_d); 47 v_acc_d = _mm256_add_epi32(v_acc_d, v_sum_0123_d);
|
obmc_variance_avx2.c | 58 _mm256_add_epi32(_mm256_add_epi32(v_diff0_d, v_bias_d), v_sign_d); 123 _mm256_add_epi32(_mm256_add_epi32(v_diff0_d, v_bias_d), v_sign0_d); 125 _mm256_add_epi32(_mm256_add_epi32(v_diff1_d, v_bias_d), v_sign1_d); 130 const __m256i v_rdiff1_d = _mm256_add_epi32(v_rdiff0_d, v_rdiff2_d); 134 v_sum_d = _mm256_add_epi32(v_sum_d, v_rdiff1_d); 135 v_sse_d = _mm256_add_epi32(v_sse_d, v_sqrdiff_d);
|
obmc_sad_avx2.c | 55 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff_d, v_bias_d); 58 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad_d); 96 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff0_d, v_bias_d); 99 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad0_d); 178 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff_d, v_bias_d); 181 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad_d); 222 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff0_d, v_bias_d); 225 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad0_d);
|
convolve_avx2.h | 92 _mm256_sra_epi32(_mm256_add_epi32(res_a, sum_round_v), sum_shift_v); \ 94 _mm256_sra_epi32(_mm256_add_epi32(res_b, sum_round_v), sum_shift_v); \ 97 _mm256_add_epi32(res_a, round_const_v), round_shift_v); \ 99 _mm256_add_epi32(res_b, round_const_v), round_shift_v); \ 172 _mm256_add_epi32(res_a, round_const_v), round_shift_v); \ 177 _mm256_add_epi32(res_b, round_const_v), round_shift_v); \ 324 const __m256i res = _mm256_add_epi32(_mm256_add_epi32(res_0, res_1), 325 _mm256_add_epi32(res_2, res_3)); 335 const __m256i res = _mm256_add_epi32(res_1, res_2) [all...] |
highbd_variance_avx2.c | 38 v_sse_d = _mm256_add_epi32(v_sse_d, v_sqrdiff); 44 __m256i v_sum0 = _mm256_add_epi32(v_sum00, v_sum01); 47 __m256i v_d_lh = _mm256_add_epi32(v_d_l, v_d_h); 68 v_sse_d = _mm256_add_epi32(v_sse_d, v_sqrdiff); 75 __m256i v_d_lh = _mm256_add_epi32(v_d_l, v_d_h);
|
sad_impl_avx2.c | 29 sum = _mm256_add_epi32(sum, _mm256_add_epi32(s1, s2)); 34 sum = _mm256_add_epi32(sum, _mm256_srli_si256(sum, 8)); 182 sum_sad = _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); 188 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h);
|
sad_highbd_avx2.c | 26 u = _mm256_add_epi32(u, *v); 104 s0 = _mm256_add_epi32(s0, s1); 105 r0 = _mm256_add_epi32(r0, r1); 106 sum0 = _mm256_add_epi32(s0, r0); 150 sum = _mm256_add_epi32(sum, s0); 151 sum = _mm256_add_epi32(sum, s1); 205 r0 = _mm256_add_epi32(r0, r1); 206 *sad_acc = _mm256_add_epi32(*sad_acc, r0); 332 r[0] = _mm256_add_epi32(r[0], r[1]); 333 r[0] = _mm256_add_epi32(r[0], r[2]) [all...] |
txfm_common_avx2.h | 38 __m256i a0 = _mm256_add_epi32(u0, _r); 39 __m256i a1 = _mm256_add_epi32(u1, _r); 40 __m256i b0 = _mm256_add_epi32(v0, _r); 41 __m256i b1 = _mm256_add_epi32(v1, _r); 62 *in0 = _mm256_add_epi32(_in0, _in1); 78 *out0 = _mm256_add_epi32(_in0, _in1); 225 tmp = _mm256_add_epi32(vec, round);
|
/external/flac/libFLAC/ |
lpc_intrin_avx2.c | 81 mull = _mm256_madd_epi16(q10, _mm256_loadu_si256((const __m256i*)(data+i-11))); summ = _mm256_add_epi32(summ, mull); 82 mull = _mm256_madd_epi16(q9, _mm256_loadu_si256((const __m256i*)(data+i-10))); summ = _mm256_add_epi32(summ, mull); 83 mull = _mm256_madd_epi16(q8, _mm256_loadu_si256((const __m256i*)(data+i-9 ))); summ = _mm256_add_epi32(summ, mull); 84 mull = _mm256_madd_epi16(q7, _mm256_loadu_si256((const __m256i*)(data+i-8 ))); summ = _mm256_add_epi32(summ, mull); 85 mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_epi32(summ, mull); 86 mull = _mm256_madd_epi16(q5, _mm256_loadu_si256((const __m256i*)(data+i-6 ))); summ = _mm256_add_epi32(summ, mull); 87 mull = _mm256_madd_epi16(q4, _mm256_loadu_si256((const __m256i*)(data+i-5 ))); summ = _mm256_add_epi32(summ, mull); 88 mull = _mm256_madd_epi16(q3, _mm256_loadu_si256((const __m256i*)(data+i-4 ))); summ = _mm256_add_epi32(summ, mull); 89 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull); 90 mull = _mm256_madd_epi16(q1, _mm256_loadu_si256((const __m256i*)(data+i-2 ))); summ = _mm256_add_epi32(summ, mull) [all...] |
/external/libaom/libaom/av1/common/x86/ |
highbd_wiener_convolve_avx2.c | 116 const __m256i res_even_sum = _mm256_add_epi32( 117 _mm256_add_epi32(res_0, res_4), _mm256_add_epi32(res_2, res_6)); 119 _mm256_add_epi32(res_even_sum, round_const), conv_params->round_0); 121 const __m256i res_odd_sum = _mm256_add_epi32( 122 _mm256_add_epi32(res_1, res_5), _mm256_add_epi32(res_3, res_7)); 124 _mm256_add_epi32(res_odd_sum, round_const), conv_params->round_0); 201 const __m256i res_even = _mm256_add_epi32( 202 _mm256_add_epi32(res_0, res_2), _mm256_add_epi32(res_4, res_6)) [all...] |
wiener_convolve_avx2.c | 124 const __m256i res_even_sum = _mm256_add_epi32( 125 _mm256_add_epi32(res_0, res_4), _mm256_add_epi32(res_2, res_6)); 126 const __m256i res_odd_sum = _mm256_add_epi32( 127 _mm256_add_epi32(res_1, res_5), _mm256_add_epi32(res_3, res_7)); 130 _mm256_add_epi32(res_even_sum, round_const), conv_params->round_0); 132 _mm256_add_epi32(res_odd_sum, round_const), conv_params->round_0); 207 const __m256i res_even = _mm256_add_epi32( 208 _mm256_add_epi32(res_0, res_2), _mm256_add_epi32(res_4, res_6)) [all...] |
selfguided_avx2.c | 53 const __m256i x02 = _mm256_add_epi32(x, x01); 55 const __m256i x04 = _mm256_add_epi32(x02, x03); 59 return _mm256_add_epi32(x04, s02); 114 _mm256_add_epi32(_mm256_add_epi32(sc1, above1), ldiff1); 116 _mm256_add_epi32(_mm256_add_epi32(sc2, above2), ldiff2); 162 _mm256_add_epi32(_mm256_add_epi32(sc1, above1), ldiff1); 164 _mm256_add_epi32(_mm256_add_epi32(sc2, above2), ldiff2) [all...] |
highbd_inv_txfm_avx2.c | 56 x0 = _mm256_add_epi32(res0, x0); 57 x1 = _mm256_add_epi32(res1, x1); 79 x0 = _mm256_add_epi32(res, x0); 104 __m256i a0 = _mm256_add_epi32(offset, in0); 205 x = _mm256_add_epi32(x, *rounding); 217 x = _mm256_add_epi32(x, y); 218 x = _mm256_add_epi32(x, *rounding); 226 __m256i a0 = _mm256_add_epi32(in0, in1); 240 __m256i a0 = _mm256_add_epi32(in0, in1); 252 __m256i in0_w_offset = _mm256_add_epi32(in0, offset) [all...] |
/external/libvpx/libvpx/vp9/encoder/x86/ |
vp9_error_avx2.c | 44 dqcoeff_256 = _mm256_add_epi32(dqcoeff_256, dqcoeff_hi); 45 coeff_256 = _mm256_add_epi32(coeff_256, coeff_hi); 72 dqcoeff_0 = _mm256_add_epi32(dqcoeff_0, dqcoeff_1); 74 coeff_0 = _mm256_add_epi32(coeff_0, coeff_1); 129 const __m256i error = _mm256_add_epi32(error_lo, error_hi);
|