/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 75 // q11 = dst blue1 84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 89 vand q11, q11, q14 // extract dst blue1 95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1 106 vshr.u16 q11, q11, #8 // shift down blue [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 169 vaddl.u8 q11, d2, d8 176 vmls.u16 q9, q11, q15 177 vaddl.u8 q11, d12, d17 180 vmla.u16 q11, q12, q14 181 vmls.u16 q11, q13, q15 186 vst1.32 {q11}, [r9] 187 vext.16 q11, q9, q10, #5 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d3 [all...] |
ih264_inter_pred_luma_bilinear_a9q.s | 141 vaddl.u8 q11, d1, d5 151 vqrshrun.s16 d29, q11, #1 156 vaddl.u8 q11, d11, d15 164 vqrshrun.s16 d31, q11, #1 170 vaddl.u8 q11, d1, d5 176 vqrshrun.s16 d29, q11, #1 184 vaddl.u8 q11, d11, d15 190 vqrshrun.s16 d31, q11, #1 200 vaddl.u8 q11, d1, d5 204 vqrshrun.s16 d29, q11, # [all...] |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0] 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 180 vqmovun.s16 d22, q11 [all...] |
ih264_inter_pred_filters_luma_vert_a9q.s | 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 141 vmla.u16 q8, q6, q11 148 vmla.u16 q7, q6, q11 155 vmla.u16 q9, q6, q11 162 vmla.u16 q8, q6, q11 170 vmla.u16 q7, q6, q11 176 vmla.u16 q9, q6, q11 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 30 VSUBL.U8 q11,d5,d9 34 VSHR.S16 q11,q11,#2 38 VRHADD.S16 q10,q11,q10 75 VADDL.U8 q11,d6,d9 78 VSHR.U16 q11,q11,#1 79 VHADD.U16 q11,q12,q11 86 VQRSHRN.U16 d29,q11,# [all...] |
armVCM4P10_DeblockingChroma_unsafe_s.S | 31 VSUBL.U8 q11,d5,d9 34 VSHR.S16 q11,q11,#2 37 VRHADD.S16 q10,q11,q10
|
omxVCM4P10_PredictIntra_16x16_s.S | 211 VMULL.S16 q11,d8,d20 213 VMLAL.S16 q11,d9,d21 217 VPADDL.S32 q11,q11 218 VSHL.I64 q12,q11,#2 219 VADD.I64 q11,q11,q12 220 VRSHR.S64 q11,q11,#6 221 VSHL.I64 q12,q11,# [all...] |
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 326 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2 [all...] |
ihevc_itrans_recon_32x32.s | 229 vmull.s16 q11,d10,d0[0] 230 vmlal.s16 q11,d11,d1[2] 265 vmlal.s16 q11,d12,d3[0] 266 vmlal.s16 q11,d13,d4[2] 299 vmlal.s16 q11,d10,d6[0] 300 vmlal.s16 q11,d11,d7[2] 339 vmlsl.s16 q11,d12,d7[0] 340 vmlsl.s16 q11,d13,d5[2] 375 vmlsl.s16 q11,d10,d0[0] 376 vmlsl.s16 q11,d11,d2[2 [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 177 vmovn.s16 d6, q11 184 vshr.s16 q11, q11, #5 190 vqmovn.s16 d8, q11 220 vmull.u8 q11, d16, d7 @mul (row 1) 221 vmlal.u8 q11, d17, d6 @mul (row 1) 228 vrshrn.i16 d22, q11, #5 @round shft (row 1) 264 vmull.u8 q11, d16, d7 @mul (row 5) 265 vmlal.u8 q11, d17, d6 @mul (row 5 [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0) 303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0) 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) 376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5) 377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5) 378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5 [all...] |
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 90 vmull.u8 q11, d1, d1 95 vaddl.u16 q11, d22, d23 99 vadd.u32 q10, q10, q11 100 vadd.u32 q11, q12, q13 101 vadd.u32 q10, q10, q11
|
impeg2_idct.s | 181 vaddw.u8 q11, q15, d7 185 vqmovun.s16 d7, q11 463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
idct_dequant_full_2x_neon.c | 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 92 q11 = vqsubq_s16(q2, q3); 104 q5 = vqaddq_s16(q11, q2); 105 q6 = vqsubq_s16(q11, q2); 119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1); 125 q11 = vshrq_n_s16(q11, 1); 128 q11 = vqaddq_s16(q2tmp3.val[1], q11); 130 q8 = vqsubq_s16(q8, q11); [all...] |
/external/valgrind/none/tests/arm/ |
v8crypto_a.stdout.exp | [all...] |
v8crypto_t.stdout.exp | [all...] |
neon128.c | 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed) [all...] |
/external/llvm/test/MC/ARM/ |
directive-fpu-instrs.s | 10 vmov q4, q11 @ v4si
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
bsaes-armv7.S | 104 veor q11, q1, q9 108 vtbl.8 d2, {q11}, d16 109 vtbl.8 d3, {q11}, d17 122 veor q11, q7, q9 125 vtbl.8 d14, {q11}, d16 126 vtbl.8 d15, {q11}, d17 130 vshr.u64 q11, q4, #1 132 veor q11, q11, q5 134 vand q11, q11, q [all...] |
ghashv8-armx32.S | 15 vmov.i8 q11,#0xe1 16 vshl.i64 q11,q11,#57 @ 0xc2.0 18 vshr.u64 q10,q11,#63 20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 49 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 68 vmov.i8 q11,#0xe1 70 vshl.u64 q11,q11,#5 [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
bsaes-armv7.S | 103 veor q11, q1, q9 107 vtbl.8 d2, {q11}, d16 108 vtbl.8 d3, {q11}, d17 121 veor q11, q7, q9 124 vtbl.8 d14, {q11}, d16 125 vtbl.8 d15, {q11}, d17 129 vshr.u64 q11, q4, #1 131 veor q11, q11, q5 133 vand q11, q11, q [all...] |
ghashv8-armx32.S | 14 vmov.i8 q11,#0xe1 15 vshl.i64 q11,q11,#57 @ 0xc2.0 17 vshr.u64 q10,q11,#63 19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 48 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 65 vmov.i8 q11,#0xe1 67 vshl.u64 q11,q11,#5 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Resize.S | 62 vmovl.u8 q11, d22 90 vmovl.u8 q11, d22 249 vdup.u32 q11, d24[0] 250 vst1.s16 {q11,q12}, [r12] 263 vld1.s16 {q11,q12}, [r8] 264 vst1.s16 {q11,q12}, [r9] 461 vshll.s16 q11, d18, #2 464 vmlsl.s16 q11, d20, d10 473 vaddw.s16 q1, q11, d18 483 vaddw.s16 q2, q11, d1 [all...] |
/bionic/libc/arch-arm/kryo/bionic/ |
memcpy.S | 74 vld1.32 {q10, q11}, [r1]! 79 vst1.32 {q10, q11}, [r0]! 86 vld1.32 {q10, q11}, [r1]! 91 vst1.32 {q10, q11}, [r0]!
|