Home | History | Annotate | Download | only in cpu_ref

Lines Matching refs:Q12

296         vmov        Q12, Q11                @ Copy Q11(Y: n+5, n+6, n+6, n+7) to Q12
301 @ Pixel(4-7) Q11, Q12, Q13
312 vmlal.s16 Q12, d11, d5[0] @ G : Q12 = Q12(Y-16) + (V-128) * (-208)
313 vmlal.s16 Q12, d13, d4[2] @ + (U-128) * (-100)
323 vrshrn.i32 d19, Q12, #8 @ d19 : G shifted right by 8 rounded'n narrowed to 16bit
387 vmov Q12, Q11 @ Copy Q11(Y: n+5, n+6, n+6, n+7) to Q12
392 @ Pixel(4-7) Q11, Q12, Q13
403 vmlal.s16 Q12, d11, d5[0] @ G : Q12 = Q12(Y-16) + (V-128) * (-208)
404 vmlal.s16 Q12, d13, d4[2] @ + (U-128) * (-100)
414 vrshrn.i32 d19, Q12, #8 @ d19 : G shifted right by 8 rounded'n narrowed to 16bit
481 vmov Q12, Q11 @ Copy Q11(Y: n+5, n+6, n+6, n+7) to Q12
486 @ Pixel(4-7) Q11, Q12, Q13
497 vmlal.s16 Q12, d11, d5[0] @ G : Q12 = Q12(Y-16) + (V-128) * (-208)
498 vmlal.s16 Q12, d13, d4[2] @ + (U-128) * (-100)
508 vrshrn.i32 d19, Q12, #8 @ d19 : G shifted right by 8 rounded'n narrowed to 16bit
575 vmovl.u8 q12, d27
621 vmovl.u8 q12, d27
738 vshll.u8 q12, d0, #8
759 vmla.i16 q12, q8, q6
764 vshrn.i16 d0, q12, #8
812 vmovl.u8 q12, d0
834 vmla.i16 q8, q12, q6
884 vmovl.u8 q12, d0
903 vmul.i16 q12, q12, q11
908 vshrn.i16 d0, q12, #8
953 //vmovl.u8 q12, d0
1027 vmovl.u8 q12, d0
1048 vmul.i16 q12, q12, q6
1053 vshrn.i16 d0, q12, #8
1102 //vmovl.u8 q12, d0
1123 vmul.i16 q12, q8, q6
1128 vshrn.i16 d0, q12, #8
1178 vmovl.u8 q12, d0
1203 vmla.i16 q8, q12, q11
1257 vmovl.u8 q12, d0
1278 vmul.i16 q12, q12, q6
1282 vmla.i16 q12, q8, q15
1287 vshrn.i16 d0, q12, #8
1399 vmovl.u8 q12, d0
1419 vmul.i16 q8, q8, q12
1472 vmovl.u8 q12, d0
1492 q12
1546 vmovl.u8 q12, d0
1566 vsub.i16 q8, q8, q12
1638 d24 / q12 = alpha mash