HomeSort by relevance Sort by last modified time
    Searched refs:Q11 (Results 1 - 25 of 51) sorted by null

1 2 3

  /frameworks/av/media/libstagefright/codecs/amrwbenc/src/asm/ARMV7/
scale_sig_neon.s 53 VSHLL.S16 Q11, D1, #16
57 VSHL.S32 Q11, Q11, Q14
61 VADDHN.S32 D17, Q11, Q15
75 VSHLL.S16 Q11, D3, #16
79 VSHL.S32 Q11, Q11, Q14
83 VADDHN.S32 D19, Q11, Q15
90 VSHLL.S16 Q11, D7, #16
94 VSHL.S32 Q11, Q11, Q1
    [all...]
Filt_6k_7k_neon.s 69 VSHR.S16 Q11, Q1, #2
72 VST1.S16 {Q10, Q11}, [r6]!
76 VSHR.S16 Q11, Q7, #2
81 VST1.S16 {Q10, Q11}, [r6]!
104 VMULL.S16 Q11,D9,D0[0]
109 VMLAL.S16 Q11,D11,D2[0]
114 VMLAL.S16 Q11,D13,D4[0]
119 VMLAL.S16 Q11,D15,D6[0]
126 VMLAL.S16 Q11,D9,D0[1]
131 VMLAL.S16 Q11,D11,D2[1
    [all...]
Norm_Corr_neon.s 121 VMULL.S16 Q11, D0, D8 @L_tmp += x[] * excf[]
123 VMLAL.S16 Q11, D1, D9
125 VMLAL.S16 Q11, D2, D10
127 VMLAL.S16 Q11, D3, D11
129 VMLAL.S16 Q11, D4, D12
131 VMLAL.S16 Q11, D5, D13
133 VMLAL.S16 Q11, D6, D14
135 VMLAL.S16 Q11, D7, D15
142 VMLAL.S16 Q11, D0, D8
144 VMLAL.S16 Q11, D1, D
    [all...]
Syn_filt_32_neon.s 82 VMULL.S16 Q11, D4, D3
83 VMLAL.S16 Q11, D5, D2
87 VMLAL.S16 Q11, D6, D1
89 VMLAL.S16 Q11, D7, D0
98 VDUP.S32 Q11, D29[0] @result2
103 VSHL.S32 Q11, Q11, #1 @result2 <<= 1
106 VSUB.S32 Q12, Q12, Q11
Dot_p_neon.s 44 VLD1.S16 {Q10, Q11}, [r1]! @load 16 Word16 y[]
  /external/libhevc/decoder/arm/
ihevcd_fmt_conv_420sp_to_rgba8888.s 196 VMULL.S16 Q11,D7,D0[0] @//(V-128)*C1 FOR R
210 VQSHRN.S32 D11,Q11,#13 @//D11 = (V-128)*C1>>13 4 16-BIT VALUES
223 VADDW.U8 Q11,Q5,D31 @//Q11 - HAS Y + R
238 VQMOVUN.S16 D22,Q11
243 VZIP.16 Q10,Q11
246 VZIP.32 Q8,Q11
264 VADDW.U8 Q11,Q5,D29 @//Q11 - HAS Y + R
289 VQMOVUN.S16 D22,Q11
    [all...]
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
Radix4FFT_v7.s 65 VQDMULH.S32 Q11, Q3, Q15 @ MULHIGH(sinx, t1)
69 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
74 VSHR.S32 Q11, Q1, #2 @ t1 = r1 >> 2@
77 VSUB.S32 Q1, Q11, Q3 @ r1 = t1 - r3@
79 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@
86 VQDMULH.S32 Q11, Q5, Q15 @ MULHIGH(sinx, t1)
90 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
97 VQDMULH.S32 Q11, Q7, Q15 @ MULHIGH(sinx, t1)
101 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
115 VSUB.S32 Q11, Q3, Q7 @ xptr[1] = r3 - r7
    [all...]
PrePostMDCT_v7.s 52 VQDMULH.S32 Q11, Q1, Q8 @ MULHIGH(sina, ti1)
56 VADD.S32 Q0, Q10, Q11 @ *buf0++ = MULHIGH(cosa, tr1) + MULHIGH(sina, ti1)@
63 VQDMULH.S32 Q11, Q3, Q5 @ MULHIGH(sinb, ti2)
67 VADD.S32 Q0, Q10, Q11 @ MULHIGH(cosa, tr2) + MULHIGH(sina, ti2)@
113 VQDMULH.S32 Q11, Q1, Q5 @ MULHIGH(sina, ti1)
117 VADD.S32 Q0, Q10, Q11 @ *buf0++ = MULHIGH(cosa, tr1) + MULHIGH(sina, ti1)@
121 VQDMULH.S32 Q11, Q3, Q9 @ MULHIGH(sinb, ti2)
125 VADD.S32 Q4, Q10, Q11 @ *buf1-- = MULHIGH(cosa, tr2) + MULHIGH(sina, ti2)@
  /external/libhevc/common/arm/
ihevc_sao_edge_offset_class1.s 162 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row)
168 VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
170 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
175 VADD.I8 Q11,Q11,Q4 @II edge_idx = vaddq_s8(edge_idx, sign_down)
231 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
232 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
301 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row)
308 VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)
    [all...]
ihevc_sao_edge_offset_class1_chroma.s 167 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_top_row)
173 VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
175 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
181 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down)
244 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
245 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
319 VCGT.U8 Q11,Q9,Q15 @II vcgtq_u8(pu1_cur_row, pu1_next_row)
326 VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)
    [all...]
ihevc_sao_edge_offset_class3.s 325 VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(vget_high_u8(pu1_cur_row)))
333 VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1], offset)
335 VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1], const_min_clip)
336 VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
346 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1])
449 VMOVL.U8 Q11,D17 @III pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(vget_high_u8(pu1_cur_row)))
453 VADDW.S8 Q11,Q11,D11 @III pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1], offset
    [all...]
ihevc_sao_edge_offset_class2.s 314 VMOVL.U8 Q11,D13 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vmovl_u8(vget_high_u8(pu1_cur_row)))
319 VADDW.S8 Q11,Q11,D11 @I pi2_tmp_cur_row.val[1] = vaddw_s8(pi2_tmp_cur_row.val[1], offset)
322 VMAX.S16 Q11,Q11,Q1 @I pi2_tmp_cur_row.val[1] = vmaxq_s16(pi2_tmp_cur_row.val[1], const_min_clip)
325 VMIN.U16 Q11,Q11,Q2 @I pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
327 VMOVN.I16 D21,Q11 @I vmovn_s16(pi2_tmp_cur_row.val[1])
349 VEXT.8 Q11,Q8,Q14,#1 @II pu1_next_row_tmp = vextq_u8(pu1_next_row, pu1_next_row_tmp, 1)
360 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp
    [all...]
ihevc_sao_edge_offset_class0.s 192 VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
198 VADD.I8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
207 VSUB.I8 Q11,Q0,Q15 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
214 VADD.I8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
307 VSUB.I8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
310 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
317 VNEG.S8 Q10,Q11 @sign_left = vnegq_s8(sign_right)
318 VEXT.8 Q10,Q10,Q11,#15 @sign_left = vextq_s8(sign_left, sign_left, 15)
ihevc_sao_edge_offset_class0_chroma.s 197 VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
202 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
213 VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
219 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
358 VSUB.U8 Q11,Q9,Q8 @sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
365 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
373 VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
380 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
ihevc_sao_edge_offset_class3_chroma.s 396 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
397 VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
400 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down)
402 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down)
477 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
495 VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
517 VCGT.U8 Q11,Q8,Q9 @III vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
527 VSUB.U8 Q11,Q10,Q11 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)
    [all...]
ihevc_sao_edge_offset_class2_chroma.s 404 VCLT.U8 Q11,Q6,Q9 @I vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
405 VSUB.U8 Q11,Q11,Q10 @I sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
408 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down)
411 VNEG.S8 Q7,Q11 @I sign_up = vnegq_s8(sign_down)
417 VAND Q11,Q9,Q4 @I edge_idx = vandq_s8(edge_idx, au1_mask)
476 VCGT.U8 Q11,Q6,Q14 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
488 VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
529 VCLT.U8 Q11,Q8,Q9 @III vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
531 VSUB.U8 Q11,Q11,Q10 @III sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt)
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_DeblockingLuma_unsafe_s.s 72 qDp1q1 QN Q11.S16
101 qSp2q1 QN Q11.U16
106 qSq2p1 QN Q11.U16
111 qTemp1 QN Q11.U16 ;!!;qSp2q1
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.s 108 qDp1q1 QN Q11.S16
137 qSp2q1 QN Q11.U16
142 qSq2p1 QN Q11.U16
147 qTemp1 QN Q11.U16 ;!!;qSp2q1
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.s 154 qDp1q1 QN Q11.S16
183 qSp2q1 QN Q11.U16
188 qSq2p1 QN Q11.U16
193 qTemp1 QN Q11.U16 ;!!;qSp2q1
armVCM4P10_DeblockingChroma_unsafe_s.s 77 qDp1q1 QN Q11.S16
omxVCM4P10_PredictIntra_16x16_s.s 87 qH QN Q11.S32
89 qA QN Q11.S16
102 qHV QN Q11.S64
103 qHV0 QN Q11.S32
armVCM4P10_Interpolate_Chroma_s.s 90 qRow1a QN Q11.S16
98 qOutRow2 QN Q11.U16
  /external/libjpeg-turbo/
jdcoefct.c 425 JLONG Q00,Q01,Q02,Q10,Q11,Q20, num;
489 Q11 = quanttbl->quantval[Q11_POS];
575 pred = (int) (((Q11<<7) + num) / (Q11<<8));
579 pred = (int) (((Q11<<7) - num) / (Q11<<8));
  /external/pdfium/third_party/libjpeg/
fpdfapi_jdcoefct.c 477 INT32 Q00,Q01,Q02,Q10,Q11,Q20, num;
538 Q11 = quanttbl->quantval[Q11_POS];
623 pred = (int) (((Q11<<7) + num) / (Q11<<8));
627 pred = (int) (((Q11<<7) - num) / (Q11<<8));
  /external/swiftshader/third_party/LLVM/lib/Target/ARM/MCTargetDesc/
ARMBaseInfo.h 166 case R11: case S11: case D11: case Q11: return 11;

Completed in 911 milliseconds

1 2 3