Home | History | Annotate | Download | only in arm

Lines Matching refs:d29

107     vext.8        d29, d4, d4, #5       @//extract a[5]                         (column3,row0)
110 vaddl.u8 q6, d29, d4 @// a0 + a5 (column3,row0)
120 vext.8 d29, d4, d4, #2 @//extract a[2] (column3,row0)
123 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 (column3,row0)
133 vext.8 d29, d4, d4, #3 @//extract a[3] (column3,row0)
136 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
146 vext.8 d29, d4, d4, #1 @//extract a[1] (column3,row0)
149 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
159 vext.8 d29, d4, d4, #4 @//extract a[4] (column3,row0)
162 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
310 vext.16 d29, d20, d21, #3 @//extract a[3] (set1)
324 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
350 vmlal.s16 q1, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set3)
358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
364 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
380 vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set4)
414 vext.16 d29, d20, d21, #3 @//extract a[3] (set1)
429 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
435 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
440 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
450 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
455 vmlal.s16 q3, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set3)
463 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
469 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
475 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
482 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
485 vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set4)
519 vext.16 d29, d20, d21, #3 @//extract a[3] (set1)
535 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
541 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
546 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
556 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
561 vmlal.s16 q4, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set3)
569 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
575 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
581 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
588 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
591 vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set4)
625 vext.16 d29, d20, d21, #3 @//extract a[3] (set1)
641 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
647 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
652 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
662 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
667 vmlal.s16 q6, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set3)
675 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
681 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
687 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
694 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
697 vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set4)
731 vext.16 d29, d20, d21, #3 @//extract a[3] (set1)
747 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
753 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
758 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
768 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
773 vmlal.s16 q7, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set3)
781 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
787 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
793 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
800 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
803 vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set4)
840 vext.16 d29, d20, d21, #3 @//extract a[3] (set1)
856 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set1)
862 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
867 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
877 vext.16 d29, d22, d23, #3 @//extract a[3] (set3)
882 vmlal.s16 q9, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set3)
890 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
896 vmlal.s16 q13, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set4)
902 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
909 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5)
912 vshrn.s32 d29, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set4)