Home | History | Annotate | Download | only in cpu_ref

Lines Matching refs:q13

48         vld1.8 {q13}, [r1], r5
127 vmovl.u8 q13, d1 /* G */
157 vqmovun.s16 d1, q13
194 vmovl.u8 q13, d1
214 vqmovun.s16 d1, q13
250 vmovl.u8 q13, d1
464 vmov Q13, Q11 @ Copy Q11(Y: n+5, n+6, n+6, n+7) to Q13
468 @ Pixel(4-7) Q11, Q12, Q13
481 vmlal.s16 Q13, d13, d4[3] @ B : Q13 = Q13(Y-16) + (U-128) * 516
491 vrshrn.i32 d21, Q13, #8 @ d21 : B shifted right by 8 rounded'n narrowed to 16bit
558 vmov Q13, Q11 @ Copy Q11(Y: n+5, n+6, n+6, n+7) to Q13
562 @ Pixel(4-7) Q11, Q12, Q13
575 vmlal.s16 Q13, d13, d4[3] @ B : Q13 = Q13(Y-16) + (U-128) * 516
585 vrshrn.i32 d21, Q13, #8 @ d21 : B shifted right by 8 rounded'n narrowed to 16bit
652 vmovl.u8 q13, d28
698 vmovl.u8 q13, d28
815 vshll.u8 q13, d1, #8
836 vmla.i16 q13, q9, q6
841 vshrn.i16 d1, q13, #8
889 vmovl.u8 q13, d1
911 vmla.i16 q9, q13, q6
961 vmovl.u8 q13, d1
980 vmul.i16 q13, q13, q11
985 vshrn.i16 d1, q13, #8
1030 //vmovl.u8 q13, d1
1104 vmovl.u8 q13, d1
1125 vmul.i16 q13, q13, q6
1130 vshrn.i16 d1, q13, #8
1179 //vmovl.u8 q13, d1
1200 vmul.i16 q13, q9, q6
1205 vshrn.i16 d1, q13, #8
1255 vmovl.u8 q13, d1
1280 vmla.i16 q9, q13, q11
1334 vmovl.u8 q13, d1
1355 vmul.i16 q13, q13, q6
1359 vmla.i16 q13, q9, q15
1364 vshrn.i16 d1, q13, #8
1476 vmovl.u8 q13, d1
1496 vmul.i16 q9, q9, q13
1549 vmovl.u8 q13, d1
1569 vadd.i16 q9, q9, q13
1623 vmovl.u8 q13, d1
1643 vsub.i16 q9, q9, q13
1716 d26 / q13 = 4, y stride
1765 vmul.u32 q4, q4, q13 // q4 = x*4, y*ystride, z*zstride, 0
1772 vmul.u32 q5, q5, q13 // q5 = x*4, y*ystride, z*zstride, 0