Home | History | Annotate | Download | only in arm

Lines Matching refs:d28

109     vext.8        d28, d5, d6, #5       @//extract a[5]                         (column1,row1)
112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
319 vext.16 d28, d20, d21, #1 @//extract a[1] (set1)
325 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
348 vext.16 d28, d22, d23, #1 @//extract a[1] (set3)
351 vmlsl.s16 q1, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set3)
361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
365 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
373 vshrn.s32 d28, q1, #8 @// shift by 8 and later we will shift by 2 more with rounding (set3)
385 @//VSHRN.s32 D28,Q11,#8 ;// shift by 8 and later we will shift by 2 more with rounding (set5)
387 @//VQRSHRUN.s16 D28,Q14,#2 ;// half,half gird set5
389 @//VST1.8 {D26,D27,D28},[r2],r14 ;// store 1/2,1,2 grif values
402 vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding (set5)
410 vqrshrun.s16 d28, q14, #2 @// half,half gird set5
419 vst1.8 {d26, d27, d28}, [r2], r14 @// store 1/2,1,2 grif values
424 vext.16 d28, d20, d21, #1 @//extract a[1] (set1)
430 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
437 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
441 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
453 vext.16 d28, d22, d23, #1 @//extract a[1] (set3)
456 vmlsl.s16 q3, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set3)
466 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
470 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
478 vshrn.s32 d28, q3, #8 @// shift by 8 and later we will shift by 2 more with rounding (set3)
490 @//VSHRN.s32 D28,Q11,#8 ;// shift by 8 and later we will shift by 2 more with rounding (set5)
492 @//VQRSHRUN.s16 D28,Q14,#2 ;// half,half gird set5
494 @//VST1.8 {D26,D27,D28},[r2],r14 ;// store 1/2,1,2 grif values
507 vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding (set5)
515 vqrshrun.s16 d28, q14, #2 @// half,half gird set5
525 vst1.8 {d26, d27, d28}, [r2], r14 @// store 1/2,1,2 grif values
530 vext.16 d28, d20, d21, #1 @//extract a[1] (set1)
536 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
543 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
547 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
559 vext.16 d28, d22, d23, #1 @//extract a[1] (set3)
562 vmlsl.s16 q4, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set3)
572 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
576 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
584 vshrn.s32 d28
596 @//VSHRN.s32 D28,Q11,#8 ;// shift by 8 and later we will shift by 2 more with rounding (set5)
598 @//VQRSHRUN.s16 D28,Q14,#2 ;// half,half gird set5
600 @//VST1.8 {D26,D27,D28},[r2],r14 ;// store 1/2,1,2 grif values
613 vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding (set5)
621 vqrshrun.s16 d28, q14, #2 @// half,half gird set5
631 vst1.8 {d26, d27, d28}, [r2], r14 @// store 1/2,1,2 grif values
636 vext.16 d28, d20, d21, #1 @//extract a[1] (set1)
642 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
649 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
653 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
665 vext.16 d28, d22, d23, #1 @//extract a[1] (set3)
668 vmlsl.s16 q6, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set3)
678 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
682 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
690 vshrn.s32 d28, q6, #8 @// shift by 8 and later we will shift by 2 more with rounding (set3)
702 @//VSHRN.s32 D28,Q11,#8 ;// shift by 8 and later we will shift by 2 more with rounding (set5)
704 @//VQRSHRUN.s16 D28,Q14,#2 ;// half,half gird set5
706 @//VST1.8 {D26,D27,D28},[r2],r14 ;// store 1/2,1,2 grif values
719 vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding (set5)
727 vqrshrun.s16 d28, q14, #2 @// half,half gird set5
737 vst1.8 {d26, d27, d28}, [r2], r14 @// store 1/2,1,2 grif values
742 vext.16 d28, d20, d21, #1 @//extract a[1] (set1)
748 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
755 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
759 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
771 vext.16 d28, d22, d23, #1 @//extract a[1] (set3)
774 vmlsl.s16 q7, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set3)
784 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
788 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
796 vshrn.s32 d28, q7, #8 @// shift by 8 and later we will shift by 2 more with rounding (set3)
808 @//VSHRN.s32 D28,Q11,#8 ;// shift by 8 and later we will shift by 2 more with rounding (set5)
810 @//VQRSHRUN.s16 D28,Q14,#2 ;// half,half gird set5
812 @//VST1.8 {D26,D27,D28},[r2],r14 ;// store 1/2,1,2 grif values
828 vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding (set5)
836 vqrshrun.s16 d28, q14, #2 @// half,half gird set5
846 vst1.8 {d26, d27, d28}, [r2], r14 @// store 1/2,1,2 grif values
851 vext.16 d28, d20, d21, #1 @//extract a[1] (set1)
857 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set1)
864 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
868 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2)
880 vext.16 d28, d22, d23, #1 @//extract a[1] (set3)
883 vmlsl.s16 q9, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set3)
893 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
897 vmlsl.s16 q13, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set4)
905 vshrn.s32 d28, q9, #8 @// shift by 8 and later we will shift by 2 more with rounding (set3)
917 vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding (set5)
919 vqrshrun.s16 d28, q14, #2 @// half,half gird set5
921 vst1.8 {d26, d27, d28}, [r2], r14 @// store 1/2,1,2 grif values
940 vshrn.s32 d28, q11, #8 @// shift by 8 and later we will shift by 2 more with rounding (set5)
942 vqrshrun.s16 d28, q14, #2 @// half,half gird set5
944 vst1.8 {d26, d27, d28}, [r2], r14 @// store 1/2,1,2 grif values