Home | History | Annotate | Download | only in source

Lines Matching refs:vec1

378   v8i16 vec0, vec1, vec2;
392 vec0, vec1, vec2);
393 STOREARGB(vec0, vec1, vec2, alpha, rgb_buf);
409 v8i16 vec0, vec1, vec2;
423 vec0, vec1, vec2);
424 STOREARGB(alpha, vec0, vec1, vec2, rgb_buf);
442 v8i16 vec0, vec1, vec2;
458 vec0, vec1, vec2);
460 STOREARGB(vec0, vec1, vec2, src3, rgb_buf);
478 v8i16 vec0, vec1, vec2, vec3, vec4, vec5;
503 vec0, vec1, vec2);
506 reg0 = (v16u8)__msa_ilvev_b((v16i8)vec1, (v16i8)vec0);
531 v8i16 vec0, vec1, vec2;
544 vec0, vec2, vec1);
546 vec1 = __msa_srai_h(vec1, 3);
548 vec1 = __msa_slli_h(vec1, 11);
550 vec0 |= vec1;
569 v8i16 vec0, vec1, vec2;
584 vec0, vec1, vec2);
586 reg1 = (v8u16)__msa_srai_h(vec1, 4);
609 v8i16 vec0, vec1, vec2;
624 vec0, vec1, vec2);
626 reg1 = (v8u16)__msa_srai_h(vec1, 3);
663 v16u8 vec0, vec1, dst0, dst1;
673 vec1 = __msa_aver_u_b(src1, src3);
674 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
675 dst1 = (v16u8)__msa_pckod_b((v16i8)vec1, (v16i8)vec0);
728 v16u8 vec0, vec1, dst0, dst1;
738 vec1 = __msa_aver_u_b(src1, src3);
739 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
740 dst1 = (v16u8)__msa_pckod_b((v16i8)vec1, (v16i8)vec0);
773 v16u8 src0, src1, src2, src3, vec0, vec1, vec2, vec3, dst0;
787 vec1 = (v16u8)__msa_pckev_b((v16i8)src3, (v16i8)src2);
791 reg1 = (v8u16)__msa_ilvev_b(zero, (v16i8)vec1);
795 reg5 = (v8u16)__msa_ilvod_b(zero, (v16i8)vec1);
825 v16u8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
845 vec1 = (v16u8)__msa_pckev_b((v16i8)src3, (v16i8)src2);
852 vec8 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
856 vec0 = (v16u8)__msa_pckod_b((v16i8)vec1, (v16i8)vec0);
857 vec1 = (v16u8)__msa_pckod_b((v16i8)vec3, (v16i8)vec2);
863 reg5 = __msa_hadd_u_h(vec1, vec1);
873 vec1 = (v16u8)__msa_pckev_b((v16i8)src3, (v16i8)src2);
880 vec8 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
884 vec0 = (v16u8)__msa_pckod_b((v16i8)vec1, (v16i8)vec0);
885 vec1 = (v16u8)__msa_pckod_b((v16i8)vec3, (v16i8)vec2);
891 reg5 += __msa_hadd_u_h(vec1, vec1);
986 v16u8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
993 vec1 = (v16u8)__msa_slli_b((v16i8)src0, 3);
998 vec1 = (v16u8)__msa_sldi_b(zero, (v16i8)vec1, 1);
1004 vec0 = __msa_binsli_b(vec0, vec1, 2);
1005 vec1 = __msa_binsli_b(vec2, vec3, 4);
1008 vec0 = (v16u8)__msa_ilvev_b((v16i8)vec1, (v16i8)vec0);
1020 v16u8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
1027 vec1 = (v16u8)__msa_slli_b((v16i8)src0, 2);
1029 vec1 = (v16u8)__msa_sldi_b(zero, (v16i8)vec1, 1);
1042 vec0 = __msa_binsli_b(vec0, vec1, 2);
1044 vec1 = __msa_binsli_b(vec2, vec3, 5);
1046 vec1 = __msa_binsli_b(vec1, vec4, 0);
1048 vec0 = (v16u8)__msa_ilvev_b((v16i8)vec1, (v16i8)vec0);
1049 vec1 = (v16u8)__msa_ilvev_b((v16i8)vec6, (v16i8)vec5);
1050 dst0 = (v16u8)__msa_pckev_h((v8i16)vec1, (v8i16)vec0);
1060 v16u8 vec0, vec1;
1068 vec1 = (v16u8)__msa_srai_b((v16i8)src1, 4);
1072 vec1 = __msa_binsli_b(vec1, src1, 3);
1073 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1086 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1109 vec1
1115 vec11 = vec1 * const_18;
1121 vec1 *= const_112;
1131 vec1 += const_32896;
1135 vec1 -= vec3;
1139 vec1 = (v8u16)__msa_srai_h((v8i16)vec1, 8);
1142 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1158 v8u16 vec0, vec1, vec2, vec3;
1166 vec1 = (v8u16)__msa_ilvl_b((v16i8)src0, (v16i8)src0);
1171 reg2 = (v4u32)__msa_ilvr_h(zero, (v8i16)vec1);
1172 reg3 = (v4u32)__msa_ilvl_h(zero, (v8i16)vec1);
1182 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1183 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1236 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
1245 vec1 = (v8u16)__msa_ilvl_b((v16i8)src0, (v16i8)src0);
1250 vec6 = (v8u16)__msa_fill_h(vec1[3]);
1251 vec7 = (v8u16)__msa_fill_h(vec1[7]);
1270 reg2 *= (v4u32)__msa_ilvr_h(zero, (v8i16)vec1);
1271 reg3 *= (v4u32)__msa_ilvl_h(zero, (v8i16)vec1);
1285 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1288 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1303 v16u8 src0, src1, dst0, vec0, vec1;
1316 vec1 = (v16u8)__msa_pckod_b((v16i8)src1, (v16i8)src0);
1318 reg1 = (v8i16)__msa_ilvev_b(zero, (v16i8)vec1);
1372 v8u16 vec0, vec1;
1383 vec1 = (v8u16)__msa_ilvl_b((v16i8)src0, (v16i8)src0);
1386 reg2 = (v4u32)__msa_ilvr_h(zero, (v8i16)vec1);
1387 reg3 = (v4u32)__msa_ilvl_h(zero, (v8i16)vec1);
1397 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1398 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1407 v16u8 src0, src1, vec0, vec1, dst0, dst1;
1416 vec1 = (v16u8)__msa_pckod_h((v8i16)src1, (v8i16)src0);
1418 reg0 = __msa_dpadd_u_h(reg0, vec1, const_0x26);
1421 vec1 = (v16u8)__msa_ilvod_b((v16i8)vec1, (v16i8)vec0);
1422 dst0 = (v16u8)__msa_ilvr_b((v16i8)vec1, (v16i8)vec0);
1423 dst1 = (v16u8)__msa_ilvl_b((v16i8)vec1, (v16i8)vec0);
1432 v16u8 src0, src1, dst0, dst1, vec0, vec1, vec2, vec3, vec4, vec5;
1446 vec1 = (v16u8)__msa_pckod_h((v8i16)src1, (v8i16)src0);
1447 vec3 = (v16u8)__msa_pckod_b((v16i8)vec1, (v16i8)vec1);
1451 reg0 = (v8u16)__msa_dpadd_u_h(reg0, vec1, const_0x23);
1452 reg1 = (v8u16)__msa_dpadd_u_h(reg1, vec1, const_0x2D);
1453 reg2 = (v8u16)__msa_dpadd_u_h(reg2, vec1, const_0x32);
1460 vec1 = (v16u8)__msa_pckev_b((v16i8)reg1, (v16i8)reg1);
1463 vec5 = (v16u8)__msa_ilvr_b((v16i8)vec3, (v16i8)vec1);
1476 v8u16 vec0, vec1, vec2, vec3;
1483 vec1 = (v8u16)__msa_andi_b(src1, 0x0F);
1487 vec1 |= (v8u16)__msa_slli_b((v16i8)vec1, 4);
1492 dst2 = (v16u8)__msa_ilvr_b((v16i8)vec3, (v16i8)vec1);
1493 dst3 = (v16u8)__msa_ilvl_b((v16i8)vec3, (v16i8)vec1);
1505 v8u16 vec0, vec1, vec2, vec3, vec4, vec5;
1514 vec1 = src1 & const_0x1F;
1525 reg0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1552 v8u16 src0, src1, vec0, vec1, vec2, vec3, vec4, vec5;
1564 vec1 = src0 & const_0x7E0;
1570 reg1 = (v8u16)__msa_srli_h((v8i16)vec1, 3);
1576 reg1 |= (v8u16)__msa_srli_h((v8i16)vec1, 9);
1598 v16u8 vec0, vec1, vec2;
1608 vec1 = (v16u8)__msa_sldi_b((v16i8)src2, (v16i8)src1, 8);
1612 dst2 = (v16u8)__msa_vshf_b(shuffler, (v16i8)alpha, (v16i8)vec1);
1623 v16u8 vec0, vec1, vec2;
1633 vec1 = (v16u8)__msa_sldi_b((v16i8)src2, (v16i8)src1, 8);
1637 dst2 = (v16u8)__msa_vshf_b(mask, (v16i8)alpha, (v16i8)vec1);
1647 v8u16 src0, src1, vec0, vec1, vec2, vec3, vec4, vec5;
1660 vec1 = src1 & const_0x1F;
1670 reg1 = (v8u16)__msa_slli_h((v8i16)vec1, 3);
1672 reg1 |= (v8u16)__msa_srai_h((v8i16)vec1, 2);
1704 v8u16 src0, src1, vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1719 vec1 = src0 & const_0x7E0;
1725 reg1 = (v8u16)__msa_srli_h((v8i16)vec1, 3);
1731 reg1 |= (v8u16)__msa_srli_h((v8i16)vec1, 9);
1737 vec1 = (v8u16)__msa_ilvl_h((v8i16)reg1, (v8i16)reg0);
1745 res1 = __msa_dotp_u_w(vec1, (v8u16)const_0x810019);
1757 vec1 = (v8u16)__msa_pckev_h((v8i16)res3, (v8i16)res2);
1758 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1768 v8u16 vec0, vec1, vec2, vec3;
1788 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1792 vec1 = __msa_dotp_u_h((v16u8)vec1, (v16u8)const_0x8119);
1794 vec1 = __msa_dpadd_u_h(vec1, (v16u8)vec3, (v16u8)const_0x42);
1796 vec1 += const_0x1080;
1798 vec1 = (v8u16)__msa_srai_h((v8i16)vec1, 8);
1799 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1809 v8u16 vec0, vec1, vec2, vec3;
1829 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1833 vec1 = __msa_dotp_u_h((v16u8)vec1, (v16u8)const_0x8142);
1835 vec1 = __msa_dpadd_u_h(vec1, (v16u8)vec3, (v16u8)const_0x19);
1837 vec1 += const_0x1080;
1839 vec1 = (v8u16)__msa_srai_h((v8i16)vec1, 8);
1840 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1857 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6;
1873 vec1 = src1 & const_0x1F;
1875 vec1 += src3 & const_0x1F;
1876 vec0 = (v8u16)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1938 vec1, vec2, vec3, vec4, vec5;
1955 vec1 = src1 & const_0x1F;
1957 vec1 += src3 & const_0x1F;
1958 vec0 = (v8u16)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
1967 vec1 = (v8u16)__msa_pckev_b((v16i8)vec3, (v16i8)vec2);
1978 vec1 = __msa_hadd_u_h((v16u8)vec1, (v16u8)vec1);
1985 reg1 = vec1 * const_0x4A;
1987 reg3 = vec1 * const_0x5E;
2019 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2053 vec1 = (v8u16)__msa_ilvl_b((v16i8)src4, (v16i8)src0);
2061 vec1 = (v8u16)__msa_hadd_u_h((v16u8)vec1, (v16u8)vec1);
2068 reg0 = (v8i16)__msa_pckev_d((v2i64)vec1, (v2i64)vec0);
2072 reg0 += (v8i16)__msa_pckod_d((v2i64)vec1, (v2i64)vec0);
2085 vec1 = (v8u16)__msa_pckev_h((v8i16)vec7, (v8i16)vec6);
2088 vec4 = vec1 * const_0x4A;
2091 vec1 *= const_0x5E;
2095 reg2 = __msa_subv_h((v8i16)vec2, (v8i16)vec1);
2124 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2158 vec1 = (v8u16)__msa_ilvl_b((v16i8)src4, (v16i8)src0);
2166 vec1 = (v8u16)__msa_hadd_u_h((v16u8)vec1, (v16u8)vec1);
2173 reg0 = (v8i16)__msa_pckev_d((v2i64)vec1, (v2i64)vec0);
2177 reg0 += (v8i16)__msa_pckod_d((v2i64)vec1, (v2i64)vec0);
2190 vec1 = (v8u16)__msa_pckev_h((v8i16)vec7, (v8i16)vec6);
2193 vec4 = vec1 * const_0x4A;
2196 vec1 *= const_0x5E;
2200 reg2 = __msa_subv_h((v8i16)vec2, (v8i16)vec1);
2226 v8i16 vec0, vec1, vec2;
2243 vec0, vec1, vec2);
2245 res1 = (v16u8)__msa_ilvev_b((v16i8)alpha, (v16i8)vec1);
2263 v8i16 vec0, vec1, vec2;
2279 vec0, vec1, vec2);
2281 vec1 = (vec1 >> 2) << 5;
2283 dst0 = (v16u8)(vec0 | vec1 | vec2);
2299 v8i16 vec0, vec1, vec2;
2318 vec0, vec1, vec2);
2320 res1 = (v16u8)__msa_ilvev_b((v16i8)alpha, (v16i8)vec1);
2384 v16u8 src0, src1, vec0, vec1, vec2;
2392 vec1 = (v16u8)__msa_ilvr_b((v16i8)src0, (v16i8)src1);
2396 dst0 = (v16u8)__msa_ilvr_b((v16i8)reg0, (v16i8)vec1);
2397 dst1 = (v16u8)__msa_ilvl_b((v16i8)reg0, (v16i8)vec1);
2496 v16u8 vec0, vec1, vec2, vec3;
2526 vec1 = __msa_aver_u_b(src5, src7);
2545 ARGBTOUV(vec0, vec1, vec2, vec3, const_0x6B14, const_0x7F, const_0x2B54,
2565 v16u8 dst0, dst1, vec0, vec1, vec2, vec3;
2577 READ_ARGB(s, t, vec0, vec1, vec2, vec3);
2578 ARGBTOUV(vec0, vec1, vec2, vec3, const_0x125E, const_0x7000, const_0x264A,
2632 v16u8 dst0, dst1, vec0, vec1, vec2, vec3;
2644 READ_ARGB(s, t, vec0, vec1, vec2, vec3);
2645 ARGBTOUV(vec0, vec1, vec2, vec3, const_0x125E, const_0x7000, const_0x264A,
2665 v8u16 vec0, vec1, vec2;
2690 vec1 = (v8u16)__msa_ilvr_b((v16i8)zero, (v16i8)src2);
2693 reg8 = (v4i32)__msa_ilvr_h((v8i16)zero, (v8i16)vec1);
2694 reg9 = (v4i32)__msa_ilvl_h((v8i16)zero, (v8i16)vec1);
2711 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
2713 vec0 = (v8u16)__msa_ilvev_b((v16i8)vec1, (v16i8)vec0);
2714 vec1 = (v8u16)__msa_ilvev_b((v16i8)alpha, (v16i8)vec2);
2715 dst0 = (v16u8)__msa_ilvr_h((v8i16)vec1, (v8i16)vec0);
2716 dst1 = (v16u8)__msa_ilvl_h((v8i16)vec1, (v8i16)vec0);
2728 v8i16 vec0, vec1;
2739 vec1 = (v8i16)__msa_ilvl_b((v16i8)src0, (v16i8)src0);
2742 reg2 = (v4i32)__msa_ilvr_h(zero, vec1);
2743 reg3 = (v4i32)__msa_ilvl_h(zero, vec1);
2753 vec1 = (v8i16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
2755 vec1 += vec_ygb;
2757 vec1 = __msa_srai_h(vec1, 6);
2759 vec1 = __msa_maxi_s_h(vec1, 0);
2761 vec1 = __msa_min_s_h(max, vec1);
2762 res0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);
2779 v16u8 src0, vec0, vec1, vec2, vec3, dst0, dst1, dst2, dst3;
2785 vec1 = (v16u8)__msa_ilvl_b((v16i8)src0, (v16i8)src0);
2790 dst2 = (v16u8)__msa_ilvr_b((v16i8)vec3, (v16i8)vec1);
2791 dst3 = (v16u8)__msa_ilvl_b((v16i8)vec3, (v16i8)vec1);
2804 v8i16 vec0, vec1, vec2;
2819 vec0, vec1, vec2);
2820 STOREARGB(vec0, vec1, vec2, alpha, rgb_buf);
2832 v8i16 vec0, vec1, vec2;
2847 vec0, vec1, vec2);
2848 STOREARGB(vec0, vec1, vec2, alpha, rgb_buf);
2866 v8u16 vec0, vec1, vec2, vec3, y_frac;
2898 vec1 = (v8u16)__msa_ilvl_b((v16i8)src2, (v16i8)src0);
2902 vec1 = (v8u16)__msa_dotp_u_h((v16u8)vec1, (v16u8)y_frac);
2906 vec1 = (v8u16)__msa_srari_h((v8i16)vec1, 8);
2909 dst0 = (v16u8)__msa_pckev_b((v16i8)vec1, (v16i8)vec0);