Home | History | Annotate | Download | only in arm

Lines Matching full:row0

98     vld1.8        {d2, d3, d4}, [r0], r2 @// Load row0
101 @// Processing row0 and row1
103 vext.8 d31, d2, d3, #5 @//extract a[5] (column1,row0)
104 vext.8 d30, d3, d4, #5 @//extract a[5] (column2,row0)
106 vaddl.u8 q4, d31, d2 @// a0 + a5 (column1,row0)
107 vext.8 d29, d4, d4, #5 @//extract a[5] (column3,row0)
108 vaddl.u8 q5, d30, d3 @// a0 + a5 (column2,row0)
110 vaddl.u8 q6, d29, d4 @// a0 + a5 (column3,row0)
116 vext.8 d31, d2, d3, #2 @//extract a[2] (column1,row0)
118 vext.8 d30, d3, d4, #2 @//extract a[2] (column2,row0)
119 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0)
120 vext.8 d29, d4, d4, #2 @//extract a[2] (column3,row0)
121 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 (column2,row0)
123 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 (column3,row0)
129 vext.8 d31, d2, d3, #3 @//extract a[3] (column1,row0)
131 vext.8 d30, d3, d4, #3 @//extract a[3] (column2,row0)
132 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
133 vext.8 d29, d4, d4, #3 @//extract a[3] (column3,row0)
134 vmlal.u8 q5, d30, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
136 vmlal.u8 q6, d29, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
142 vext.8 d31, d2, d3, #1 @//extract a[1] (column1,row0)
144 vext.8 d30, d3, d4, #1 @//extract a[1] (column2,row0)
145 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
146 vext.8 d29, d4, d4, #1 @//extract a[1] (column3,row0)
147 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
149 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
155 vext.8 d31, d2, d3, #4 @//extract a[4] (column1,row0)
157 vext.8 d30, d3, d4, #4 @//extract a[4] (column2,row0)
158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
159 vext.8 d29, d4, d4, #4 @//extract a[4] (column3,row0)
160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
162 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
170 vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
171 vqrshrun.s16 d21, q5, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
172 vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0
294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0)
303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0)
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
309 vaddl.u8 q12, d4, d19 @// a0 + a5 (column3,row0)
311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0)
312 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
313 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
314 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
316 vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
329 vqrshrun.s16 d4, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
394 vaddl.u8 q10, d5, d2 @// a0 + a5 (column1,row0)
396 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 (column1,row0)
397 vmlal.u8 q10, d14, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
398 vmlsl.u8 q10, d8, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
399 vmlsl.u8 q10, d17, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
404 vaddl.u8 q11, d6, d3 @// a0 + a5 (column2,row0)
405 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 (column2,row0)
406 vmlal.u8 q11, d15, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
407 vmlsl.u8 q11, d9, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
408 vmlsl.u8 q11, d18, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
413 vaddl.u8 q12, d7, d4 @// a0 + a5 (column3,row0)
415 vmlal.u8 q12, d13, d1 @// a0 + a5 + 20a2 (column3,row0)
416 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
418 vmlsl.u8 q12, d19, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
421 vqrshrun.s16 d5, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
423 vqrshrun.s16 d6, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
434 vqrshrun.s16 d7, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
499 vaddl.u8 q10, d8, d5 @// a0 + a5 (column1,row0)
501 vmlal.u8 q10, d14, d1 @// a0 + a5 + 20a2 (column1,row0)
502 vmlal.u8 q10, d17, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
503 vmlsl.u8 q10, d11, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
504 vmlsl.u8 q10, d2, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
509 vaddl.u8 q11, d9, d6 @// a0 + a5 (column2,row0)
510 vmlal.u8 q11, d15, d1 @// a0 + a5 + 20a2 (column2,row0)
511 vmlal.u8 q11, d18, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
512 vmlsl.u8 q11, d12, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
513 vmlsl.u8 q11, d3, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
518 vaddl.u8 q12, d10, d7 @// a0 + a5 (column3,row0)
520 vmlal.u8 q12, d16, d1 @// a0 + a5 + 20a2 (column3,row0)
521 vmlal.u8 q12, d19, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
522 vmlsl.u8 q12, d13, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
523 vmlsl.u8 q12, d4, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
527 vqrshrun.s16 d8, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
529 vqrshrun.s16 d9, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
540 vqrshrun.s16 d10, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
605 vaddl.u8 q10, d11, d8 @// a0 + a5 (column1,row0)
607 vmlal.u8 q10, d17, d1 @// a0 + a5 + 20a2 (column1,row0)
608 vmlal.u8 q10, d2, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
609 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
610 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
615 vaddl.u8 q11, d12, d9 @// a0 + a5 (column2,row0)
616 vmlal.u8 q11, d18, d1 @// a0 + a5 + 20a2 (column2,row0)
617 vmlal.u8 q11, d3, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
618 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
619 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
624 vaddl.u8 q12, d13, d10 @// a0 + a5 (column3,row0)
626 vmlal.u8 q12, d19, d1 @// a0 + a5 + 20a2 (column3,row0)
627 vmlal.u8 q12, d4, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
628 vmlsl.u8 q12, d16, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
629 vmlsl.u8 q12, d7, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
633 vqrshrun.s16 d11, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
635 vqrshrun.s16 d12, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
646 vqrshrun.s16 d13, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
711 vaddl.u8 q10, d14, d11 @// a0 + a5 (column1,row0)
713 vmlal.u8 q10, d2, d1 @// a0 + a5 + 20a2 (column1,row0)
714 vmlal.u8 q10, d5, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
715 vmlsl.u8 q10, d17, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
716 vmlsl.u8 q10, d8, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
721 vaddl.u8 q11, d15, d12 @// a0 + a5 (column2,row0)
722 vmlal.u8 q11, d3, d1 @// a0 + a5 + 20a2 (column2,row0)
723 vmlal.u8 q11, d6, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
724 vmlsl.u8 q11, d18, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
725 vmlsl.u8 q11, d9, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
730 vaddl.u8 q12, d16, d13 @// a0 + a5 (column3,row0)
732 vmlal.u8 q12, d4, d1 @// a0 + a5 + 20a2 (column3,row0)
733 vmlal.u8 q12, d7, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
734 vmlsl.u8 q12, d19, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
735 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
739 vqrshrun.s16 d14, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
741 vqrshrun.s16 d15, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
752 vqrshrun.s16 d16, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
820 vaddl.u8 q10, d17, d14 @// a0 + a5 (column1,row0)
822 vmlal.u8 q10, d5, d1 @// a0 + a5 + 20a2 (column1,row0)
823 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
824 vmlsl.u8 q10, d2, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
825 vmlsl.u8 q10, d11, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
830 row0)
831 vmlal.u8 q11, d6, d1 @// a0 + a5 + 20a2 (column2,row0)
832 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
833 vmlsl.u8 q11, d3, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
834 vmlsl.u8 q11, d12, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
839 vaddl.u8 q12, d19, d16 @// a0 + a5 (column3,row0)
841 vmlal.u8 q12, d7, d1 @// a0 + a5 + 20a2 (column3,row0)
842 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row0)
843 vmlsl.u8 q12, d4, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
844 vmlsl.u8 q12, d13, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
848 vqrshrun.s16 d17, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
850 vqrshrun.s16 d18, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
861 vqrshrun.s16 d19, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)