Home | History | Annotate | Download | only in source

Lines Matching refs:vec6

825   v16u8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
850 vec6 = (v16u8)__msa_pckod_b((v16i8)src5, (v16i8)src4);
855 vec5 = (v16u8)__msa_pckev_b((v16i8)vec7, (v16i8)vec6);
878 vec6 = (v16u8)__msa_pckod_b((v16i8)src5, (v16i8)src4);
883 vec5 = (v16u8)__msa_pckev_b((v16i8)vec7, (v16i8)vec6);
986 v16u8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
997 vec6 = (v16u8)__msa_srai_b((v16i8)src1, 5);
1001 vec6 = (v16u8)__msa_sldi_b(zero, (v16i8)vec6, 1);
1007 vec5 = __msa_binsli_b(vec6, vec7, 4);
1020 v16u8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
1033 vec6 = (v16u8)__msa_slli_b((v16i8)src1, 2);
1035 vec6 = (v16u8)__msa_sldi_b(zero, (v16i8)vec6, 1);
1043 vec5 = __msa_binsli_b(vec5, vec6, 2);
1045 vec6 = __msa_binsli_b(vec7, vec8, 5);
1047 vec6 = __msa_binsli_b(vec6, vec9, 0);
1049 vec1 = (v16u8)__msa_ilvev_b((v16i8)vec6, (v16i8)vec5);
1086 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1118 vec6 = vec4 * const_112;
1128 vec6 += const_32896;
1136 vec6 -= vec8;
1140 vec6 = (v8u16)__msa_srai_h((v8i16)vec6, 8);
1143 dst1 = (v16u8)__msa_pckev_b((v16i8)vec7, (v16i8)vec6);
1236 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
1250 vec6 = (v8u16)__msa_fill_h(vec1[3]);
1253 vec5 = (v8u16)__msa_pckev_d((v2i64)vec7, (v2i64)vec6);
1254 vec6 = (v8u16)__msa_fill_h(vec2[3]);
1258 vec6 = (v8u16)__msa_pckev_d((v2i64)vec7, (v2i64)vec6);
1264 reg4 = (v4u32)__msa_ilvr_h(zero, (v8i16)vec6);
1265 reg5 = (v4u32)__msa_ilvl_h(zero, (v8i16)vec6);
1704 v8u16 src0, src1, vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1742 vec6 = (v8u16)__msa_ilvr_h(const_0x1080, (v8i16)reg5);
1750 res2 = __msa_dpadd_u_w(res2, vec6, (v8u16)const_0x010042);
1857 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6;
1898 vec6 = (v8u16)__msa_slli_h((v8i16)vec0, 1);
1899 vec6 |= (v8u16)__msa_srai_h((v8i16)vec0, 6);
1904 reg0 = vec6 * const_0x70;
1911 reg3 += vec6 * const_0x12;
2019 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2058 vec6 = (v8u16)__msa_ilvr_b((v16i8)src7, (v16i8)src3);
2066 vec6 = (v8u16)__msa_hadd_u_h((v16u8)vec6, (v16u8)vec6);
2071 reg3 = (v8i16)__msa_pckev_d((v2i64)vec7, (v2i64)vec6);
2075 reg3 += (v8i16)__msa_pckod_d((v2i64)vec7, (v2i64)vec6);
2082 vec6 = (v8u16)__msa_pckod_h(reg1, reg0);
2085 vec1 = (v8u16)__msa_pckev_h((v8i16)vec7, (v8i16)vec6);
2124 v8u16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2163 vec6 = (v8u16)__msa_ilvr_b((v16i8)src7, (v16i8)src3);
2171 vec6 = (v8u16)__msa_hadd_u_h((v16u8)vec6, (v16u8)vec6);
2176 reg3 = (v8i16)__msa_pckev_d((v2i64)vec7, (v2i64)vec6);
2180 reg3 += (v8i16)__msa_pckod_d((v2i64)vec7, (v2i64)vec6);
2187 vec6 = (v8u16)__msa_pckod_h((v8i16)reg1, (v8i16)reg0);
2190 vec1 = (v8u16)__msa_pckev_h((v8i16)vec7, (v8i16)vec6);