Home | History | Annotate | Download | only in source

Lines Matching refs:reg2

481   v16u8 reg0, reg1, reg2, reg3;
507 reg2 = (v16u8)__msa_ilvev_b((v16i8)vec4, (v16i8)vec3);
509 reg1 = (v16u8)__msa_sldi_b((v16i8)reg2, (v16i8)reg0, 11);
512 dst2 = (v16u8)__msa_vshf_b(shuffler2, (v16i8)reg3, (v16i8)reg2);
570 v8u16 reg0, reg1, reg2;
587 reg2 = (v8u16)__msa_srai_h(vec2, 4);
589 reg2 = (v8u16)__msa_slli_h((v8i16)reg2, 8);
591 reg0 |= reg2;
610 v8u16 reg0, reg1, reg2;
627 reg2 = (v8u16)__msa_srai_h(vec2, 3);
629 reg2 = (v8u16)__msa_slli_h((v8i16)reg2, 10);
631 reg0 |= reg2;
774 v8u16 reg0, reg1, reg2, reg3, reg4, reg5;
792 reg2 = (v8u16)__msa_ilvev_b(zero, (v16i8)vec2);
798 reg2 *= const_0x81;
802 reg0 += reg2;
826 v8u16 reg0, reg1, reg2, reg3, reg4, reg5, reg6, reg7, reg8, reg9;
860 reg2 = __msa_hadd_u_h(vec4, vec4);
888 reg2 += __msa_hadd_u_h(vec4, vec4);
894 reg2 = (v8u16)__msa_srai_h((v8i16)reg2, 2);
900 reg8 = reg2 * const_0x4A;
908 reg2 *= const_0x5E;
912 reg2 += reg0;
918 reg4 -= reg2;
1085 v16u8 src0, src1, src2, src3, reg0, reg1, reg2, reg3, dst0, dst1;
1103 reg2 = (v16u8)__msa_pckod_b((v16i8)src1, (v16i8)src0);
1106 src1 = (v16u8)__msa_pckev_b((v16i8)reg3, (v16i8)reg2);
1159 v4u32 reg0, reg1, reg2, reg3;
1171 reg2 = (v4u32)__msa_ilvr_h(zero, (v8i16)vec1);
1175 reg2 *= (v4u32)__msa_ilvr_h(zero, (v8i16)vec3);
1179 reg2 = (v4u32)__msa_srai_w((v4i32)reg2, 16);
1182 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1237 v4u32 reg0, reg1, reg2, reg3, reg4, reg5, reg6, reg7;
1262 reg2 = (v4u32)__msa_ilvr_h(zero, (v8i16)vec5);
1270 reg2 *= (v4u32)__msa_ilvr_h(zero, (v8i16)vec1);
1278 reg2 = (v4u32)__msa_srai_w((v4i32)reg2, 24);
1285 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1305 v8i16 reg0, reg1, reg2;
1319 reg2 = (v8i16)__msa_ilvod_b(zero, (v16i8)vec0);
1322 reg2 += vec_d0;
1325 reg2 = __msa_maxi_s_h((v8i16)reg2, 0);
1328 reg2 = __msa_min_s_h((v8i16)max, (v8i16)reg2);
1330 reg2 = __msa_srai_h(reg2, 3);
1332 reg2 = __msa_slli_h(reg2, 11);
1335 dst0 = (v16u8)(reg0 | reg2);
1373 v4u32 reg0, reg1, reg2, reg3, rgba_scale;
1386 reg2 = (v4u32)__msa_ilvr_h(zero, (v8i16)vec1);
1390 reg2 *= rgba_scale;
1394 reg2 = (v4u32)__msa_srai_w((v4i32)reg2, 24);
1397 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1433 v8u16 reg0, reg1, reg2;
1450 reg2 = (v8u16)__msa_dotp_u_h(vec0, const_0x6218);
1453 reg2 = (v8u16)__msa_dpadd_u_h(reg2, vec1, const_0x32);
1456 reg2 = (v8u16)__msa_srai_h((v8i16)reg2, 7);
1458 reg2 = (v8u16)__msa_min_u_h((v8u16)reg2, const_0xFF);
1461 vec2 = (v16u8)__msa_pckev_b((v16i8)reg2, (v16i8)reg2);
1506 v16u8 reg0, reg1, reg2, reg3, reg4, reg5, reg6;
1527 reg2 = (v16u8)__msa_pckev_b((v16i8)vec5, (v16i8)vec4);
1531 reg6 = (v16u8)__msa_slli_b((v16i8)reg2, 3);
1534 reg6 |= (v16u8)__msa_srai_b((v16i8)reg2, 2);
1538 reg2 = (v16u8)__msa_ilvr_b((v16i8)reg3, (v16i8)reg5);
1540 reg2, (v16i8)reg0);
1541 dst1 = (v16u8)__msa_ilvl_b((v16i8)reg2, (v16i8)reg0);
1553 v8u16 reg0, reg1, reg2, reg3, reg4, reg5;
1571 reg2 = (v8u16)__msa_srli_h((v8i16)vec2, 8);
1577 reg2 |= (v8u16)__msa_srli_h((v8i16)vec2, 13);
1581 res0 = (v16u8)__msa_ilvev_b((v16i8)reg2, (v16i8)reg0);
1648 v8u16 reg0, reg1, reg2, reg3, reg4, reg5;
1673 reg2 = (v8u16)__msa_slli_h((v8i16)vec2, 3);
1675 reg2 |= (v8u16)__msa_srai_h((v8i16)vec2, 2);
1683 reg2 *= const_0x81;
1687 reg0 += reg2;
1705 v8u16 reg0, reg1, reg2, reg3, reg4, reg5;
1726 reg2 = (v8u16)__msa_srli_h((v8i16)vec2, 8);
1732 reg2 |= (v8u16)__msa_srli_h((v8i16)vec2, 13);
1740 vec4 = (v8u16)__msa_ilvr_h(const_0x1080, (v8i16)reg2);
1741 vec5 = (v8u16)__msa_ilvl_h(const_0x1080, (v8i16)reg2);
1767 v16u8 src0, src1, src2, reg0, reg1, reg2, reg3, dst0;
1785 reg2 = (v16u8)__msa_vshf_b(mask2, (v16i8)src2, (v16i8)src1);
1788 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1790 vec3 = (v8u16)__msa_pckod_h((v8i16)reg3, (v8i16)reg2);
1808 v16u8 src0, src1, src2, reg0, reg1, reg2, reg3, dst0;
1826 reg2 = (v16u8)__msa_vshf_b(mask2, (v16i8)src2, (v16i8)src1);
1829 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
1831 vec3 = (v8u16)__msa_pckod_h((v8i16)reg3, (v8i16)reg2);
1856 v8u16 src0, src1, src2, src3, reg0, reg1, reg2, reg3;
1906 reg2 = vec2 * const_0x70;
1910 reg2 += const_0x8080;
1913 reg2 -= reg3;
1915 reg2 = (v8u16)__msa_srai_h((v8i16)reg2, 8);
1916 dst0 = (v16u8)__msa_pckev_b((v16i8)reg2, (v16i8)reg0);
1937 v8u16 src0, src1, src2, src3, reg0, reg1, reg2, reg3;
1986 reg2 = vec4 * const_0x70;
1990 reg2 += const_32896;
1993 reg2 -= reg3;
1995 reg2 = (v8u16)__msa_srai_h((v8i16)reg2, 8);
1996 dst0 = (v16u8)__msa_pckev_b((v16i8)reg2, (v16i8)reg0);
2020 v8i16 reg0, reg1, reg2, reg3;
2070 reg2 = (v8i16)__msa_pckev_d((v2i64)vec5, (v2i64)vec4);
2074 reg2 += (v8i16)__msa_pckod_d((v2i64)vec5, (v2i64)vec4);
2078 reg2 = __msa_srai_h((v8i16)reg2, 2);
2081 vec5 = (v8u16)__msa_pckev_h(reg3, reg2);
2083 vec7 = (v8u16)__msa_pckod_h(reg3, reg2);
2095 reg2 = __msa_subv_h((v8i16)vec2, (v8i16)vec1);
2098 reg2 += reg3;
2100 reg2 = __msa_srai_h(reg2, 8);
2101 dst0 = (v16u8)__msa_pckev_b((v16i8)reg2, (v16i8)reg0);
2125 v8i16 reg0, reg1, reg2, reg3;
2175 reg2 = (v8i16)__msa_pckev_d((v2i64)vec5, (v2i64)vec4);
2179 reg2 += (v8i16)__msa_pckod_d((v2i64)vec5, (v2i64)vec4);
2183 reg2 = __msa_srai_h(reg2, 2);
2186 vec5 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
2188 vec7 = (v8u16)__msa_pckod_h((v8i16)reg3, (v8i16)reg2);
2200 reg2 = __msa_subv_h((v8i16)vec2, (v8i16)vec1);
2203 reg2 += reg3;
2205 reg2 = __msa_srai_h(reg2, 8);
2206 dst0 = (v16u8)__msa_pckev_b((v16i8)reg2, (v16i8)reg0);
2666 v4i32 reg0, reg1, reg2, reg3, reg4, reg5, reg6, reg7, reg8, reg9;
2685 reg2 = reg0 + vec_bg;
2697 reg2 -= reg6 * vec_ug;
2701 reg2 -= reg8 * vec_vg;
2705 reg2 = __msa_srai_w(reg2, 6);
2709 CLIP_0TO255(reg0, reg1, reg2, reg3, reg4, reg5);
2711 vec1 = (v8u16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);
2729 v4i32 reg0, reg1, reg2, reg3;
2742 reg2 = (v4i32)__msa_ilvr_h(zero, vec1);
2746 reg2 *= vec_yg;
2750 reg2 = __msa_srai_w(reg2, 16);
2753 vec1 = (v8i16)__msa_pckev_h((v8i16)reg3, (v8i16)reg2);