Lines Matching refs:Q4
101 vaddl.u8 q4, d6, d0 @
102 vaddl.u8 q5, d7, d1 @Q4,Q5 = q0 + p1
106 vmlal.u8 q4, d2, d31 @
107 vmlal.u8 q5, d3, d31 @Q5,Q4 = (X2(q1U) + q0U + p1U)
118 vrshrn.u16 d8, q4, #2 @
119 vrshrn.u16 d9, q5, #2 @Q4 = (X2(q1U) + q0U + p1U + 2) >> 2
125 vbit q4, q0, q9 @
184 vdup.8 q11, r2 @Q4 = alpha
188 vabd.u8 q4, q1, q2 @|p0-q0|
193 vclt.u8 q4, q4, q11 @|p0-q0| < alpha ?
200 vand.u8 q4, q4, q5 @|p0-q0| < alpha && |q1-q0| < beta
206 vand.u8 q4, q4, q6 @|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta
210 vbit q1, q7, q4
211 vbit q2, q9, q4
288 vsubl.u8 q4, d0, d4 @Q5,Q4 = (q0 - p0)
292 vshl.i16 q4, q4, #2 @Q4 = (q0 - p0)<<2
299 vadd.i16 q4, q4, q10 @
300 vadd.i16 q5, q5, q3 @Q5,Q4 = [ (q0 - p0)<<2 ] + (p1 - q1)
303 vqrshrn.s16 d8, q4, #3 @
304 vqrshrn.s16 d9, q5, #3 @Q4 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3
308 vabs.s8 q3, q4 @Q4 = ABS (i_macro)
314 vcge.s8 q4, q4, #0 @Q4 = (i_macro >= 0)
320 vbif q8, q2, q4 @Q8 = (i_macro >= 0 ) ? (p0+delta) : (p0-delta)
321 vbif q0, q9, q4 @Q0 = (i_macro >= 0 ) ? (q0-delta) : (q0+delta)
390 vdup.8 q11, r2 @Q4 = alpha
391 vabd.u8 q4, q1, q2 @|p0-q0|
395 vclt.u8 q4, q4, q11 @|p0-q0| < alpha ?
401 vand.u8 q4, q4, q5 @|p0-q0| < alpha && |q1-q0| < beta
406 vand.u8 q4, q4, q6 @|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta
424 vand.u8 q4, q4, q5 @|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta && u4_bs != 0
427 @ Q4 (|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta && u4_bs != 0),
451 vbit q1, q12, q4
452 vbit q2, q11, q4
713 vaddl.u8 q4, d6, d0 @
714 vaddl.u8 q5, d7, d1 @Q4,Q5 = q0 + p1
718 vmlal.u8 q4, d2, d31 @
719 vmlal.u8 q5, d3, d31 @Q5,Q4 = (X2(q1U) + q0U + p1U)
731 vrshrn.u16 d8, q4, #2 @
732 vrshrn.u16 d9, q5, #2 @Q4 = (X2(q1U) + q0U + p1U + 2) >> 2
738 vbit q4, q0, q9 @
812 vabd.u8 q4, q1, q2 @|p0-q0|
817 vclt.u8 q4, q4, q11 @|p0-q0| < alpha ?
824 vand.u8 q4, q4, q5 @|p0-q0| < alpha && |q1-q0| < beta
830 vand.u8 q4, q4, q6 @|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta
834 vbit q1, q7, q4
835 vbit q2, q9, q4
929 vsubl.u8 q4, d0, d4 @Q5,Q4 = (q0 - p0)
933 vshl.i16 q4, q4, #2 @Q4 = (q0 - p0)<<2
941 vadd.i16 q4, q4, q10 @
942 vadd.i16 q5, q5, q3 @Q5,Q4 = [ (q0 - p0)<<2 ] + (p1 - q1)
945 vqrshrn.s16 d8, q4, #3 @
946 vqrshrn.s16 d9, q5, #3 @Q4 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3
950 vabs.s8 q3, q4 @Q4 = ABS (i_macro)
956 vcge.s8 q4, q4, #0 @Q4 = (i_macro >= 0)
962 vbif q8, q2, q4 @Q8 = (i_macro >= 0 ) ? (p0+delta) : (p0-delta)
963 vbif q0, q9, q4 @Q0 = (i_macro >= 0 ) ? (q0-delta) : (q0+delta)
1045 vabd.u8 q4, q1, q2 @|p0-q0|
1049 vclt.u8 q4, q4, q11 @|p0-q0| < alpha ?
1055 vand.u8 q4, q4, q5 @|p0-q0| < alpha && |q1-q0| < beta
1061 vand.u8 q4, q4, q6 @|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta
1078 vand.u8 q4, q4, q5 @|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta && u4_bs != 0
1081 @ Q4 (|p0-q0| < alpha && |q1-q0| < beta && |p1-p0| < beta && u4_bs != 0),
1105 vbit q1, q12, q4
1106 vbit q2, q11, q4