Home | History | Annotate | Download | only in opts

Lines Matching refs:da

80     __m128i da = SkGetPackedA32_SSE2(dst);
81 return SkAlphaMulQ_SSE2(src, SkAlpha255To256_SSE2(da));
101 __m128i da = SkGetPackedA32_SSE2(dst);
104 __m128i a = da;
106 __m128i r1 = SkAlphaMulAlpha_SSE2(da, SkGetPackedR32_SSE2(src));
110 __m128i g1 = SkAlphaMulAlpha_SSE2(da, SkGetPackedG32_SSE2(src));
114 __m128i b1 = SkAlphaMulAlpha_SSE2(da, SkGetPackedB32_SSE2(src));
123 __m128i da = SkGetPackedA32_SSE2(dst);
124 __m128i ida = _mm_sub_epi32(_mm_set1_epi32(255), da);
145 __m128i da = SkGetPackedA32_SSE2(dst);
147 __m128i ida = _mm_sub_epi32(_mm_set1_epi32(255), da);
149 __m128i a1 = _mm_add_epi32(sa, da);
150 __m128i a2 = SkAlphaMulAlpha_SSE2(sa, da);
205 const __m128i& sa, const __m128i& da) {
206 // sc * (255 - da)
207 __m128i ret1 = _mm_sub_epi32(_mm_set1_epi32(255), da);
225 __m128i da = SkGetPackedA32_SSE2(dst);
226 __m128i a = srcover_byte_SSE2(sa, da);
230 __m128i r = blendfunc_multiply_byte_SSE2(sr, dr, sa, da);
234 __m128i g = blendfunc_multiply_byte_SSE2(sg, dg, sa, da);
239 __m128i b = blendfunc_multiply_byte_SSE2(sb, db, sa, da);
258 const __m128i& sa, const __m128i& da) {
259 __m128i ida = _mm_sub_epi32(_mm_set1_epi32(255), da);
265 __m128i cmp = _mm_cmpgt_epi32(_mm_slli_epi32(dc, 1), da);
269 __m128i rc2 = _mm_mullo_epi16(sa, da); // sa * da
270 __m128i tmp3 = _mm_slli_epi32(_mm_sub_epi32(da, dc), 1); // 2 * (da - dc)
281 __m128i da = SkGetPackedA32_SSE2(dst);
283 __m128i a = srcover_byte_SSE2(sa, da);
285 SkGetPackedR32_SSE2(dst), sa, da);
287 SkGetPackedG32_SSE2(dst), sa, da);
289 SkGetPackedB32_SSE2(dst), sa, da);
294 const __m128i& sa, const __m128i& da) {
295 __m128i sd = _mm_mullo_epi16(sc, da);
310 __m128i da = SkGetPackedA32_SSE2(dst);
312 __m128i a = srcover_byte_SSE2(sa, da);
314 SkGetPackedR32_SSE2(dst), sa, da);
316 SkGetPackedG32_SSE2(dst), sa, da);
318 SkGetPackedB32_SSE2(dst), sa, da);
323 const __m128i& sa, const __m128i& da) {
324 __m128i sd = _mm_mullo_epi16(sc, da);
339 __m128i da = SkGetPackedA32_SSE2(dst);
341 __m128i a = srcover_byte_SSE2(sa, da);
343 SkGetPackedR32_SSE2(dst), sa, da);
345 SkGetPackedG32_SSE2(dst), sa, da);
347 SkGetPackedB32_SSE2(dst), sa, da);
352 const __m128i& sa, const __m128i& da) {
354 __m128i ida = _mm_sub_epi32(_mm_set1_epi32(255), da);
364 __m128i tmp1 = _mm_mullo_epi16(sa, da);
377 __m128i tmp4 = SkMin32_SSE2(da, diff);
393 __m128i da = SkGetPackedA32_SSE2(dst);
395 __m128i a = srcover_byte_SSE2(sa, da);
397 SkGetPackedR32_SSE2(dst), sa, da);
399 SkGetPackedG32_SSE2(dst), sa, da);
401 SkGetPackedB32_SSE2(dst), sa, da);
406 const __m128i& sa, const __m128i& da) {
407 __m128i ida = _mm_sub_epi32(_mm_set1_epi32(255), da);
410 // if (dc == da)
411 __m128i cmp1 = _mm_cmpeq_epi32(dc, da);
412 __m128i tmp1 = _mm_mullo_epi16(sa, da);
428 __m128i tmp4 = _mm_sub_epi32(da, dc);
432 __m128i tmp5 = _mm_sub_epi32(da, SkMin32_SSE2(da, tmp4));
447 __m128i da = SkGetPackedA32_SSE2(dst);
449 __m128i a = srcover_byte_SSE2(sa, da);
451 SkGetPackedR32_SSE2(dst), sa, da);
453 SkGetPackedG32_SSE2(dst), sa, da);
455 SkGetPackedB32_SSE2(dst), sa, da);
460 const __m128i& sa, const __m128i& da) {
469 tmp1 = _mm_mullo_epi16(sa, da);
470 __m128i tmp2 = Multiply32_SSE2(_mm_sub_epi32(da, dc),
478 __m128i ida = _mm_sub_epi32(_mm_set1_epi32(255), da);
489 __m128i da = SkGetPackedA32_SSE2(dst);
491 __m128i a = srcover_byte_SSE2(sa, da);
493 SkGetPackedR32_SSE2(dst), sa, da);
495 SkGetPackedG32_SSE2(dst), sa, da);
497 SkGetPackedB32_SSE2(dst), sa, da);
506 const __m128i& sa, const __m128i& da) {
509 // int m = da ? dc * 256 / da : 0;
510 __m128i cmp = _mm_cmpeq_epi32(da, _mm_setzero_si128());
513 __m128 y = _mm_cvtepi32_ps(da);
528 // else if (4 * dc <= da)
530 __m128i cmp2 = _mm_cmpgt_epi32(tmp2, da);
542 j = Multiply32_SSE2(da, j); // da * (2 * sc - sa)
553 tmp3 = Multiply32_SSE2(j, tmp3); // j = da * (2 * sc - sa)
560 tmp1 = _mm_sub_epi32(_mm_set1_epi32(255), da); // 255 - da
571 __m128i da = SkGetPackedA32_SSE2(dst);
573 __m128i a = srcover_byte_SSE2(sa, da);
575 SkGetPackedR32_SSE2(dst), sa, da);
577 SkGetPackedG32_SSE2(dst), sa, da);
579 SkGetPackedB32_SSE2(dst), sa, da);
584 const __m128i& sa, const __m128i& da) {
585 __m128i tmp1 = _mm_mullo_epi16(sc, da);
600 __m128i da = SkGetPackedA32_SSE2(dst);
602 __m128i a = srcover_byte_SSE2(sa, da);
604 SkGetPackedR32_SSE2(dst), sa, da);
606 SkGetPackedG32_SSE2(dst), sa, da);
608 SkGetPackedB32_SSE2(dst), sa, da);
626 __m128i da = SkGetPackedA32_SSE2(dst);
628 __m128i a = srcover_byte_SSE2(sa, da);
630 SkGetPackedR32_SSE2(dst), sa, da);
632 SkGetPackedG32_SSE2(dst), sa, da);
634 SkGetPackedB32_SSE2(dst), sa, da);