HomeSort by relevance Sort by last modified time
    Searched refs:Q12 (Results 1 - 25 of 48) sorted by null

1 2

  /frameworks/av/media/libstagefright/codecs/amrwbenc/src/asm/ARMV7/
scale_sig_neon.s 54 VSHLL.S16 Q12, D2, #16
58 VSHL.S32 Q12, Q12, Q14
62 VADDHN.S32 D18, Q12, Q15
87 VSHLL.S16 Q12, D4, #16
91 VSHL.S32 Q12, Q12, Q14
95 VADDHN.S32 D16, Q12, Q15
103 VSHLL.S16 Q12, D10, #16
107 VSHL.S32 Q12, Q12, Q1
    [all...]
Filt_6k_7k_neon.s 70 VSHR.S16 Q12, Q2, #2
79 VST1.S16 {Q12, Q13}, [r6]!
105 VMULL.S16 Q12,D10,D1[0]
110 VMLAL.S16 Q12,D12,D3[0]
115 VMLAL.S16 Q12,D14,D5[0]
120 VMLAL.S16 Q12,D16,D7[0]
127 VMLAL.S16 Q12,D10,D1[1]
132 VMLAL.S16 Q12,D12,D3[1]
137 VMLAL.S16 Q12,D14,D5[1]
142 VMLAL.S16 Q12,D16,D7[1
    [all...]
Syn_filt_32_neon.s 19 @ Word16 a[], /* (i) Q12 : a[m+1] prediction coefficients */
104 VDUP.S32 Q12, r14
105 VADD.S32 Q12, Q12, Q10 @L_tmp = L_tmp - (result1 >>= 11) - (result2 <<= 1)
106 VSUB.S32 Q12, Q12, Q11
108 VSHL.S32 Q12, Q12, #3 @L_tmp <<= 3
111 VSHRN.S32 D20, Q12, #16 @sig_hi[i] = L_tmp >> 16@
113 VSHR.S32 Q12, Q12, #4 @L_tmp >>=
    [all...]
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
PrePostMDCT_v7.s 53 VQDMULH.S32 Q12, Q0, Q8 @ MULHIGH(cosa, ti1)
57 VSUB.S32 Q1, Q12, Q13 @ *buf0++ = MULHIGH(cosa, ti1) - MULHIGH(sina, tr1)@
64 VQDMULH.S32 Q12, Q2, Q5 @ MULHIGH(cosb, ti2)
68 VSUB.S32 Q1, Q12, Q13 @ MULHIGH(cosa, ti2) - MULHIGH(sina, tr2)@
114 VQDMULH.S32 Q12, Q0, Q5 @ MULHIGH(cosa, ti1)
118 VSUB.S32 Q5, Q13, Q12 @ *buf1-- = MULHIGH(sina, tr1) - MULHIGH(cosa, ti1)@
122 VQDMULH.S32 Q12, Q2, Q9 @ MULHIGH(cosb, ti2)
126 VSUB.S32 Q1, Q13, Q12 @ *buf0++ = MULHIGH(sina, tr2) - MULHIGH(cosa, ti2)@
Radix4FFT_v7.s 66 VQDMULH.S32 Q12, Q3, Q14 @ MULHIGH(cosx, t1)
70 VSUB.S32 Q3, Q12, Q13 @ MULHIGH(cosx, t1) - MULHIGH(sinx, t0)
87 VQDMULH.S32 Q12, Q5, Q14 @ MULHIGH(cosx, t1)
91 VSUB.S32 Q9, Q12, Q13 @ MULHIGH(cosx, t1) - MULHIGH(sinx, t0)
98 VQDMULH.S32 Q12, Q7, Q14 @ MULHIGH(cosx, t1)
102 VSUB.S32 Q7, Q12, Q13 @ MULHIGH(cosx, t1) - MULHIGH(sinx, t0)
  /external/libhevc/common/arm/
ihevc_sao_edge_offset_class0_chroma.s 180 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
204 VSUB.U8 Q10,Q12,Q13 @II sign_left = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
208 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp)
213 VSUB.U8 Q11,Q12,Q13 @II sign_right = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
215 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
219 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
229 VAND Q12,Q12,Q4 @II edge_idx = vandq_s8(edge_idx, au1_mask)
344 VCLT.U8 Q12,Q15,Q14 @II vcltq_u8(pu1_cur_row, pu1_cur_row_tmp
    [all...]
ihevc_sao_edge_offset_class2_chroma.s 484 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
488 VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
504 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
510 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
625 VCLT.U8 Q12,Q6,Q9 @vcltq_u8(pu1_cur_row, pu1_next_row_tmp
    [all...]
ihevc_sao_edge_offset_class3.s 385 VCGT.U8 Q12,Q6,Q9 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
393 VSUB.U8 Q12,Q13,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
403 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
406 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
499 VCGT.U8 Q12,Q6,Q9 @vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
505 VSUB.U8 Q12,Q13,Q12 @sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
511 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down)
    [all...]
ihevc_sao_edge_offset_class3_chroma.s 487 VCLT.U8 Q12,Q6,Q14 @II vcltq_u8(pu1_cur_row, pu1_next_row_tmp)
495 VSUB.U8 Q12,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
507 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
510 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
    [all...]
ihevc_sao_edge_offset_class2.s 294 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up)
299 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down)
360 VCGT.U8 Q12,Q6,Q11 @II vcgtq_u8(pu1_cur_row, pu1_next_row_tmp)
368 VSUB.U8 Q12,Q11,Q12 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
379 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down)
383 VNEG.S8 Q7,Q12 @II sign_up = vnegq_s8(sign_down)
    [all...]
ihevc_sao_edge_offset_class0.s 309 VADD.I8 Q12,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
310 VADD.I8 Q12,Q12,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
315 VAND Q12,Q12,Q4 @edge_idx = vandq_s8(edge_idx, au1_mask)
ihevc_sao_edge_offset_class1.s 166 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
168 VSUB.U8 Q4,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
304 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row)
308 VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
ihevc_sao_edge_offset_class1_chroma.s 171 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_top_row)
173 VSUB.U8 Q14,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
322 VCLT.U8 Q12,Q9,Q15 @II vcltq_u8(pu1_cur_row, pu1_next_row)
326 VSUB.U8 Q10,Q12,Q11 @II sign_down = vreinterpretq_s8_u8(vsubq_u8(cmp_lt, cmp_gt))
  /external/libhevc/decoder/arm/
ihevcd_fmt_conv_420sp_to_rgba8888.s 224 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G
237 VQMOVUN.S16 D21,Q12
265 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y + G
288 VQMOVUN.S16 D21,Q12
355 VADDW.U8 Q12,Q6,D31 @//Q12 - HAS Y + G
368 VQMOVUN.S16 D21,Q12
396 VADDW.U8 Q12,Q6,D29 @//Q12 - HAS Y +
    [all...]
  /external/libavc/common/arm/
ih264_iquant_itrans_recon_dc_a9.s 261 vld1.32 d24, [r1], r3 @ Q12 = 0x070605....0x070605....
263 vld1.32 d25, [r1], r3 @ Q12 = 0x070605....0x070605....
265 vld1.32 d26, [r1], r3 @ Q12 = 0x070605....0x070605....
267 vld1.32 d27, [r1], r3 @ Q12 = 0x070605....0x070605....
269 vld1.32 d28, [r1], r3 @ Q12 = 0x070605....0x070605....
271 vld1.32 d29, [r1], r3 @ Q12 = 0x070605....0x070605....
273 vld1.32 d30, [r1], r3 @ Q12 = 0x070605....0x070605....
275 vld1.32 d31, [r1], r3 @ Q12 = 0x070605....0x070605....
ih264_deblk_luma_a9.s 111 vabd.u8 q12, q1, q0 @Q12 = ABS(q1 - q0)
123 vcge.u8 q12, q12, q8 @Q12=( ABS(q1 - q0) >= Beta )
128 vorr q9, q9, q12 @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta )
130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0)
134 vshl.i16 q12, q12, #2 @Q12 = (q0 - p0)<<
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 145 vaddl.u8 q12, d2, d17 @ temp2 = src[0_0] + src[5_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1)
168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1)
204 vaddl.u8 q12, d5, d2 @ temp2 = src[0_0] + src[5_0
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_DeblockingLuma_unsafe_s.s 90 qQ_0n QN Q12.S16
102 qSp0q0p1 QN Q12.U16
107 qSp0q0q1 QN Q12.U16
112 qTemp2 QN Q12.U16 ;!!;qSp0q0p1
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.s 126 qQ_0n QN Q12.S16
138 qSp0q0p1 QN Q12.U16
143 qSp0q0q1 QN Q12.U16
148 qTemp2 QN Q12.U16 ;!!;qSp0q0p1
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.s 172 qQ_0n QN Q12.S16
184 qSp0q0p1 QN Q12.U16
189 qSp0q0q1 QN Q12.U16
194 qTemp2 QN Q12.U16 ;!!;qSp0q0p1
armVCM4P10_DeblockingChroma_unsafe_s.s 84 qQ_0n QN Q12.S16
armVCM4P10_Interpolate_Chroma_s.s 91 qRow1b QN Q12.S16
99 qOutRow3 QN Q12.U16
omxVCM4P10_PredictIntra_16x16_s.s 88 qV QN Q12.S32
104 qHV1 QN Q12.S64
154 qMultiplier1 QN Q12.S16
  /device/moto/shamu/camera/QCamera/HAL/core/inc/
QCameraHWI.h 55 #ifdef Q12
56 #undef Q12
59 #define Q12 4096
    [all...]
  /device/moto/shamu/camera/QCamera/HAL2/core/inc/
QCameraHWI.h 48 #ifdef Q12
49 #undef Q12
52 #define Q12 4096

Completed in 934 milliseconds

1 2