/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 75 // q11 = dst blue1 84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 89 vand q11, q11, q14 // extract dst blue1 95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1 106 vshr.u16 q11, q11, #8 // shift down blue [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 169 vaddl.u8 q11, d2, d8 176 vmls.u16 q9, q11, q15 177 vaddl.u8 q11, d12, d17 180 vmla.u16 q11, q12, q14 181 vmls.u16 q11, q13, q15 186 vst1.32 {q11}, [r9] 187 vext.16 q11, q9, q10, #5 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d3 [all...] |
ih264_inter_pred_luma_bilinear_a9q.s | 141 vaddl.u8 q11, d1, d5 151 vqrshrun.s16 d29, q11, #1 156 vaddl.u8 q11, d11, d15 164 vqrshrun.s16 d31, q11, #1 170 vaddl.u8 q11, d1, d5 176 vqrshrun.s16 d29, q11, #1 184 vaddl.u8 q11, d11, d15 190 vqrshrun.s16 d31, q11, #1 200 vaddl.u8 q11, d1, d5 204 vqrshrun.s16 d29, q11, # [all...] |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0] 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 180 vqmovun.s16 d22, q11 [all...] |
ih264_inter_pred_filters_luma_vert_a9q.s | 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 141 vmla.u16 q8, q6, q11 148 vmla.u16 q7, q6, q11 155 vmla.u16 q9, q6, q11 162 vmla.u16 q8, q6, q11 170 vmla.u16 q7, q6, q11 176 vmla.u16 q9, q6, q11 [all...] |
ih264_iquant_itrans_recon_a9.s | 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 212 vrshr.s16 q11, q11, #6 215 vaddw.u8 q11, q11, d31 218 vqmovun.s16 d1, q11 318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..1 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 30 VSUBL.U8 q11,d5,d9 34 VSHR.S16 q11,q11,#2 38 VRHADD.S16 q10,q11,q10 75 VADDL.U8 q11,d6,d9 78 VSHR.U16 q11,q11,#1 79 VHADD.U16 q11,q12,q11 86 VQRSHRN.U16 d29,q11,# [all...] |
armVCM4P10_DeblockingChroma_unsafe_s.S | 31 VSUBL.U8 q11,d5,d9 34 VSHR.S16 q11,q11,#2 37 VRHADD.S16 q10,q11,q10
|
omxVCM4P10_PredictIntra_16x16_s.S | 211 VMULL.S16 q11,d8,d20 213 VMLAL.S16 q11,d9,d21 217 VPADDL.S32 q11,q11 218 VSHL.I64 q12,q11,#2 219 VADD.I64 q11,q11,q12 220 VRSHR.S64 q11,q11,#6 221 VSHL.I64 q12,q11,# [all...] |
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 326 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2 [all...] |
ihevc_itrans_recon_32x32.s | 229 vmull.s16 q11,d10,d0[0] 230 vmlal.s16 q11,d11,d1[2] 265 vmlal.s16 q11,d12,d3[0] 266 vmlal.s16 q11,d13,d4[2] 299 vmlal.s16 q11,d10,d6[0] 300 vmlal.s16 q11,d11,d7[2] 339 vmlsl.s16 q11,d12,d7[0] 340 vmlsl.s16 q11,d13,d5[2] 375 vmlsl.s16 q11,d10,d0[0] 376 vmlsl.s16 q11,d11,d2[2 [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 177 vmovn.s16 d6, q11 184 vshr.s16 q11, q11, #5 190 vqmovn.s16 d8, q11 220 vmull.u8 q11, d16, d7 @mul (row 1) 221 vmlal.u8 q11, d17, d6 @mul (row 1) 228 vrshrn.i16 d22, q11, #5 @round shft (row 1) 264 vmull.u8 q11, d16, d7 @mul (row 5) 265 vmlal.u8 q11, d17, d6 @mul (row 5 [all...] |
ihevc_inter_pred_chroma_horz.s | 207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 254 vqrshrun.s16 d22,q11,#6 265 vst1.16 {q11},[r1],r6 @store the result pu1_dst 292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 297 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 301 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1) [all...] |
ihevc_itrans_recon_16x16.s | 371 vsub.s32 q11,q6,q12 390 vqrshrn.s32 d19,q11,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 434 vmull.s16 q11,d10,d0[0] 435 vmlsl.s16 q11,d11,d3[2] 460 vmlsl.s16 q11,d4,d1[0] 461 vmlal.s16 q11,d5,d2[2] 515 vmlal.s16 q11,d10,d0[0] 516 vmlsl.s16 q11,d11,d1[2] 517 vmlsl.s16 q11,d4,d3[0] 518 vmlal.s16 q11,d5,d0[2 [all...] |
ihevc_inter_pred_luma_copy_w16out.s | 112 vmovl.u8 q11,d22 @vmovl_u8(vld1_u8(pu1_src_tmp) 114 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 155 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp) 160 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6) 190 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp) 209 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6) 229 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp) 236 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6)
|
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0) 303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0) 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) 376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5) 377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5) 378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5 [all...] |
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 90 vmull.u8 q11, d1, d1 95 vaddl.u16 q11, d22, d23 99 vadd.u32 q10, q10, q11 100 vadd.u32 q11, q12, q13 101 vadd.u32 q10, q10, q11
|
impeg2_idct.s | 181 vaddw.u8 q11, q15, d7 185 vqmovun.s16 d7, q11 463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
idct_dequant_full_2x_neon.c | 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 92 q11 = vqsubq_s16(q2, q3); 104 q5 = vqaddq_s16(q11, q2); 105 q6 = vqsubq_s16(q11, q2); 119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1); 125 q11 = vshrq_n_s16(q11, 1); 128 q11 = vqaddq_s16(q2tmp3.val[1], q11); 130 q8 = vqsubq_s16(q8, q11); [all...] |
/external/llvm/test/MC/ARM/ |
directive-fpu-instrs.s | 10 vmov q4, q11 @ v4si
|
neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|
/external/boringssl/linux-arm/crypto/aes/ |
bsaes-armv7.S | 95 veor q11, q1, q9 99 vtbl.8 d2, {q11}, d16 100 vtbl.8 d3, {q11}, d17 113 veor q11, q7, q9 116 vtbl.8 d14, {q11}, d16 117 vtbl.8 d15, {q11}, d17 121 vshr.u64 q11, q4, #1 123 veor q11, q11, q5 125 vand q11, q11, q [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Resize.S | 62 vmovl.u8 q11, d22 90 vmovl.u8 q11, d22 249 vdup.u32 q11, d24[0] 250 vst1.s16 {q11,q12}, [r12] 263 vld1.s16 {q11,q12}, [r8] 264 vst1.s16 {q11,q12}, [r9] 461 vshll.s16 q11, d18, #2 464 vmlsl.s16 q11, d20, d10 473 vaddw.s16 q1, q11, d18 483 vaddw.s16 q2, q11, d1 [all...] |
/external/boringssl/linux-arm/crypto/modes/ |
ghashv8-armx32.S | 13 vmov.i8 q11,#0xe1 14 vshl.i64 q11,q11,#57 @ 0xc2.0 16 vshr.u64 q10,q11,#63 18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 40 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 47 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 64 vmov.i8 q11,#0xe1 66 vshl.u64 q11,q11,#5 [all...] |
/external/valgrind/none/tests/arm/ |
neon128.c | 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed) [all...] |