HomeSort by relevance Sort by last modified time
    Searched refs:_mm256_add_epi32 (Results 1 - 25 of 52) sorted by null

1 2 3

  /external/libaom/libaom/av1/encoder/x86/
highbd_fwd_txfm_avx2.c 79 in[0] = _mm256_add_epi32(in[0], rounding);
80 in[1] = _mm256_add_epi32(in[1], rounding);
81 in[2] = _mm256_add_epi32(in[2], rounding);
82 in[3] = _mm256_add_epi32(in[3], rounding);
83 in[4] = _mm256_add_epi32(in[4], rounding);
84 in[5] = _mm256_add_epi32(in[5], rounding);
85 in[6] = _mm256_add_epi32(in[6], rounding);
86 in[7] = _mm256_add_epi32(in[7], rounding);
189 in[stride * i] = _mm256_add_epi32(in[stride * i], round);
220 x = _mm256_add_epi32(x, y)
    [all...]
av1_fwd_txfm_avx2.h 27 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1);
28 temp0 = _mm256_add_epi32(temp0, _r);
33 temp1 = _mm256_add_epi32(temp1, _r);
46 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1);
47 temp0 = _mm256_add_epi32(temp0, _r);
52 temp1 = _mm256_add_epi32(temp1, _r);
66 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1);
67 temp0 = _mm256_add_epi32(temp0, _r);
72 temp1 = _mm256_add_epi32(temp1, _r);
86 __m256i temp0 = _mm256_add_epi32(in0_w0, in1_w1)
    [all...]
corner_match_avx2.c 54 sumsq2_vec = _mm256_add_epi32(sumsq2_vec, _mm256_madd_epi16(v2_1, v2_1));
57 cross_vec = _mm256_add_epi32(cross_vec, _mm256_madd_epi16(v1_1, v2_1));
62 sum_vec = _mm256_add_epi32(sum_vec, sum_vec1);
68 temp1 = _mm256_add_epi32(unp_low, unp_hig);
wedge_utils_avx2.c 121 const __m256i v_p01_d = _mm256_add_epi32(v_p0_d, v_p1_d);
122 const __m256i v_p23_d = _mm256_add_epi32(v_p2_d, v_p3_d);
124 const __m256i v_p0123_d = _mm256_add_epi32(v_p01_d, v_p23_d);
126 v_acc0_d = _mm256_add_epi32(v_acc0_d, v_p0123_d);
pickrst_avx2.c 26 const __m256i r0 = _mm256_add_epi32(dst0, d0);
527 _mm256_srai_epi32(_mm256_add_epi32(v0, rounding), shift);
529 _mm256_srai_epi32(_mm256_add_epi32(v1, rounding), shift);
533 sum32 = _mm256_add_epi32(sum32, err0);
572 _mm256_srai_epi32(_mm256_add_epi32(v0, rounding), shift);
574 _mm256_srai_epi32(_mm256_add_epi32(v1, rounding), shift);
578 sum32 = _mm256_add_epi32(sum32, err0);
604 sum32 = _mm256_add_epi32(sum32, err0);
676 const __m256i vl = _mm256_add_epi32(v0l, v1l);
677 const __m256i vh = _mm256_add_epi32(v0h, v1h)
    [all...]
  /external/libvpx/libvpx/vpx_dsp/x86/
sad4d_avx2.c 57 sums[0] = _mm256_add_epi32(sums[0], r[0]);
58 sums[1] = _mm256_add_epi32(sums[1], r[1]);
59 sums[2] = _mm256_add_epi32(sums[2], r[2]);
60 sums[3] = _mm256_add_epi32(sums[3], r[3]);
113 sums[0] = _mm256_add_epi32(sums[0], r_lo[0]);
114 sums[1] = _mm256_add_epi32(sums[1], r_lo[1]);
115 sums[2] = _mm256_add_epi32(sums[2], r_lo[2]);
116 sums[3] = _mm256_add_epi32(sums[3], r_lo[3]);
117 sums[0] = _mm256_add_epi32(sums[0], r_hi[0]);
118 sums[1] = _mm256_add_epi32(sums[1], r_hi[1])
    [all...]
fwd_dct32x32_impl_avx2.h 383 _mm256_add_epi32(s2_20_2, k__DCT_CONST_ROUNDING);
385 _mm256_add_epi32(s2_20_3, k__DCT_CONST_ROUNDING);
387 _mm256_add_epi32(s2_21_2, k__DCT_CONST_ROUNDING);
389 _mm256_add_epi32(s2_21_3, k__DCT_CONST_ROUNDING);
391 _mm256_add_epi32(s2_22_2, k__DCT_CONST_ROUNDING);
393 _mm256_add_epi32(s2_22_3, k__DCT_CONST_ROUNDING);
395 _mm256_add_epi32(s2_23_2, k__DCT_CONST_ROUNDING);
397 _mm256_add_epi32(s2_23_3, k__DCT_CONST_ROUNDING);
399 _mm256_add_epi32(s2_24_2, k__DCT_CONST_ROUNDING);
401 _mm256_add_epi32(s2_24_3, k__DCT_CONST_ROUNDING)
    [all...]
sad_avx2.c 30 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \
35 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \
62 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \
67 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \
112 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \
118 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \
150 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg));
    [all...]
avg_intrin_avx2.c 29 __m256i b0 = _mm256_add_epi32(a0, a1);
31 __m256i b2 = _mm256_add_epi32(a2, a3);
33 __m256i b4 = _mm256_add_epi32(a4, a5);
35 __m256i b6 = _mm256_add_epi32(a6, a7);
38 a0 = _mm256_add_epi32(b0, b2);
39 a1 = _mm256_add_epi32(b1, b3);
42 a4 = _mm256_add_epi32(b4, b6);
43 a5 = _mm256_add_epi32(b5, b7);
48 b0 = _mm256_add_epi32(a0, a4);
49 b7 = _mm256_add_epi32(a1, a5)
    [all...]
  /external/libaom/libaom/aom_dsp/x86/
sad4d_avx2.c 47 sum_ref0 = _mm256_add_epi32(sum_ref0, ref0_reg);
48 sum_ref1 = _mm256_add_epi32(sum_ref1, ref1_reg);
49 sum_ref2 = _mm256_add_epi32(sum_ref2, ref2_reg);
50 sum_ref3 = _mm256_add_epi32(sum_ref3, ref3_reg);
75 sum_mlow = _mm256_add_epi32(sum_mlow, sum_mhigh);
128 sum_ref0 = _mm256_add_epi32(sum_ref0, ref0_reg);
129 sum_ref1 = _mm256_add_epi32(sum_ref1, ref1_reg);
130 sum_ref2 = _mm256_add_epi32(sum_ref2, ref2_reg);
131 sum_ref3 = _mm256_add_epi32(sum_ref3, ref3_reg);
132 sum_ref0 = _mm256_add_epi32(sum_ref0, ref0next_reg)
    [all...]
sad_avx2.c 33 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \
38 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \
66 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \
71 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \
119 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg)); \
125 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h); \
158 _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg));
    [all...]
sum_squares_avx2.c 43 const __m256i v_sum_01_d = _mm256_add_epi32(v_sq_0_d, v_sq_1_d);
44 const __m256i v_sum_23_d = _mm256_add_epi32(v_sq_2_d, v_sq_3_d);
45 const __m256i v_sum_0123_d = _mm256_add_epi32(v_sum_01_d, v_sum_23_d);
47 v_acc_d = _mm256_add_epi32(v_acc_d, v_sum_0123_d);
obmc_variance_avx2.c 58 _mm256_add_epi32(_mm256_add_epi32(v_diff0_d, v_bias_d), v_sign_d);
123 _mm256_add_epi32(_mm256_add_epi32(v_diff0_d, v_bias_d), v_sign0_d);
125 _mm256_add_epi32(_mm256_add_epi32(v_diff1_d, v_bias_d), v_sign1_d);
130 const __m256i v_rdiff1_d = _mm256_add_epi32(v_rdiff0_d, v_rdiff2_d);
134 v_sum_d = _mm256_add_epi32(v_sum_d, v_rdiff1_d);
135 v_sse_d = _mm256_add_epi32(v_sse_d, v_sqrdiff_d);
obmc_sad_avx2.c 55 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff_d, v_bias_d);
58 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad_d);
96 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff0_d, v_bias_d);
99 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad0_d);
178 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff_d, v_bias_d);
181 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad_d);
222 const __m256i v_tmp_d = _mm256_add_epi32(v_absdiff0_d, v_bias_d);
225 v_sad_d = _mm256_add_epi32(v_sad_d, v_rad0_d);
convolve_avx2.h 92 _mm256_sra_epi32(_mm256_add_epi32(res_a, sum_round_v), sum_shift_v); \
94 _mm256_sra_epi32(_mm256_add_epi32(res_b, sum_round_v), sum_shift_v); \
97 _mm256_add_epi32(res_a, round_const_v), round_shift_v); \
99 _mm256_add_epi32(res_b, round_const_v), round_shift_v); \
172 _mm256_add_epi32(res_a, round_const_v), round_shift_v); \
177 _mm256_add_epi32(res_b, round_const_v), round_shift_v); \
324 const __m256i res = _mm256_add_epi32(_mm256_add_epi32(res_0, res_1),
325 _mm256_add_epi32(res_2, res_3));
335 const __m256i res = _mm256_add_epi32(res_1, res_2)
    [all...]
highbd_variance_avx2.c 38 v_sse_d = _mm256_add_epi32(v_sse_d, v_sqrdiff);
44 __m256i v_sum0 = _mm256_add_epi32(v_sum00, v_sum01);
47 __m256i v_d_lh = _mm256_add_epi32(v_d_l, v_d_h);
68 v_sse_d = _mm256_add_epi32(v_sse_d, v_sqrdiff);
75 __m256i v_d_lh = _mm256_add_epi32(v_d_l, v_d_h);
sad_impl_avx2.c 29 sum = _mm256_add_epi32(sum, _mm256_add_epi32(s1, s2));
34 sum = _mm256_add_epi32(sum, _mm256_srli_si256(sum, 8));
182 sum_sad = _mm256_add_epi32(sum_sad, _mm256_add_epi32(sad1_reg, sad2_reg));
188 sum_sad = _mm256_add_epi32(sum_sad, sum_sad_h);
sad_highbd_avx2.c 26 u = _mm256_add_epi32(u, *v);
104 s0 = _mm256_add_epi32(s0, s1);
105 r0 = _mm256_add_epi32(r0, r1);
106 sum0 = _mm256_add_epi32(s0, r0);
150 sum = _mm256_add_epi32(sum, s0);
151 sum = _mm256_add_epi32(sum, s1);
205 r0 = _mm256_add_epi32(r0, r1);
206 *sad_acc = _mm256_add_epi32(*sad_acc, r0);
332 r[0] = _mm256_add_epi32(r[0], r[1]);
333 r[0] = _mm256_add_epi32(r[0], r[2])
    [all...]
txfm_common_avx2.h 38 __m256i a0 = _mm256_add_epi32(u0, _r);
39 __m256i a1 = _mm256_add_epi32(u1, _r);
40 __m256i b0 = _mm256_add_epi32(v0, _r);
41 __m256i b1 = _mm256_add_epi32(v1, _r);
62 *in0 = _mm256_add_epi32(_in0, _in1);
78 *out0 = _mm256_add_epi32(_in0, _in1);
225 tmp = _mm256_add_epi32(vec, round);
  /external/flac/libFLAC/
lpc_intrin_avx2.c 81 mull = _mm256_madd_epi16(q10, _mm256_loadu_si256((const __m256i*)(data+i-11))); summ = _mm256_add_epi32(summ, mull);
82 mull = _mm256_madd_epi16(q9, _mm256_loadu_si256((const __m256i*)(data+i-10))); summ = _mm256_add_epi32(summ, mull);
83 mull = _mm256_madd_epi16(q8, _mm256_loadu_si256((const __m256i*)(data+i-9 ))); summ = _mm256_add_epi32(summ, mull);
84 mull = _mm256_madd_epi16(q7, _mm256_loadu_si256((const __m256i*)(data+i-8 ))); summ = _mm256_add_epi32(summ, mull);
85 mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_epi32(summ, mull);
86 mull = _mm256_madd_epi16(q5, _mm256_loadu_si256((const __m256i*)(data+i-6 ))); summ = _mm256_add_epi32(summ, mull);
87 mull = _mm256_madd_epi16(q4, _mm256_loadu_si256((const __m256i*)(data+i-5 ))); summ = _mm256_add_epi32(summ, mull);
88 mull = _mm256_madd_epi16(q3, _mm256_loadu_si256((const __m256i*)(data+i-4 ))); summ = _mm256_add_epi32(summ, mull);
89 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
90 mull = _mm256_madd_epi16(q1, _mm256_loadu_si256((const __m256i*)(data+i-2 ))); summ = _mm256_add_epi32(summ, mull)
    [all...]
  /external/libaom/libaom/av1/common/x86/
highbd_wiener_convolve_avx2.c 116 const __m256i res_even_sum = _mm256_add_epi32(
117 _mm256_add_epi32(res_0, res_4), _mm256_add_epi32(res_2, res_6));
119 _mm256_add_epi32(res_even_sum, round_const), conv_params->round_0);
121 const __m256i res_odd_sum = _mm256_add_epi32(
122 _mm256_add_epi32(res_1, res_5), _mm256_add_epi32(res_3, res_7));
124 _mm256_add_epi32(res_odd_sum, round_const), conv_params->round_0);
201 const __m256i res_even = _mm256_add_epi32(
202 _mm256_add_epi32(res_0, res_2), _mm256_add_epi32(res_4, res_6))
    [all...]
wiener_convolve_avx2.c 124 const __m256i res_even_sum = _mm256_add_epi32(
125 _mm256_add_epi32(res_0, res_4), _mm256_add_epi32(res_2, res_6));
126 const __m256i res_odd_sum = _mm256_add_epi32(
127 _mm256_add_epi32(res_1, res_5), _mm256_add_epi32(res_3, res_7));
130 _mm256_add_epi32(res_even_sum, round_const), conv_params->round_0);
132 _mm256_add_epi32(res_odd_sum, round_const), conv_params->round_0);
207 const __m256i res_even = _mm256_add_epi32(
208 _mm256_add_epi32(res_0, res_2), _mm256_add_epi32(res_4, res_6))
    [all...]
selfguided_avx2.c 53 const __m256i x02 = _mm256_add_epi32(x, x01);
55 const __m256i x04 = _mm256_add_epi32(x02, x03);
59 return _mm256_add_epi32(x04, s02);
114 _mm256_add_epi32(_mm256_add_epi32(sc1, above1), ldiff1);
116 _mm256_add_epi32(_mm256_add_epi32(sc2, above2), ldiff2);
162 _mm256_add_epi32(_mm256_add_epi32(sc1, above1), ldiff1);
164 _mm256_add_epi32(_mm256_add_epi32(sc2, above2), ldiff2)
    [all...]
highbd_inv_txfm_avx2.c 56 x0 = _mm256_add_epi32(res0, x0);
57 x1 = _mm256_add_epi32(res1, x1);
79 x0 = _mm256_add_epi32(res, x0);
104 __m256i a0 = _mm256_add_epi32(offset, in0);
205 x = _mm256_add_epi32(x, *rounding);
217 x = _mm256_add_epi32(x, y);
218 x = _mm256_add_epi32(x, *rounding);
226 __m256i a0 = _mm256_add_epi32(in0, in1);
240 __m256i a0 = _mm256_add_epi32(in0, in1);
252 __m256i in0_w_offset = _mm256_add_epi32(in0, offset)
    [all...]
  /external/libvpx/libvpx/vp9/encoder/x86/
vp9_error_avx2.c 44 dqcoeff_256 = _mm256_add_epi32(dqcoeff_256, dqcoeff_hi);
45 coeff_256 = _mm256_add_epi32(coeff_256, coeff_hi);
72 dqcoeff_0 = _mm256_add_epi32(dqcoeff_0, dqcoeff_1);
74 coeff_0 = _mm256_add_epi32(coeff_0, coeff_1);
129 const __m256i error = _mm256_add_epi32(error_lo, error_hi);

Completed in 7531 milliseconds

1 2 3