/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 72 // q10 = dst blue0 78 vshr.u16 q8, q10, #11 // shift dst red0 to low 5 bits 80 vshl.u16 q9, q10, #5 // shift dst green0 to top 6 bits 81 vand q10, q10, q14 // extract dst blue0 87 vmul.u16 q10, q10, q3 // multiply dst blue0 by src alpha 94 vadd.u16 q10, q10, q2 // add src blue to dst blue0 100 vshr.u16 q10, q10, #8 // shift down blue [all...] |
/external/boringssl/linux-arm/crypto/modes/ |
ghashv8-armx32.S | 16 vshr.u64 q10,q11,#63 18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 19 vshr.u64 q10,q3,#63 21 vand q10,q10,q8 23 vext.8 q10,q10,q10,#8 25 vorr q3,q3,q10 @ H<<<=1 37 veor q10,q0,q [all...] |
ghash-armv4.S | 398 vmull.p8 q10, d20, d6 @ J = A3*B 408 veor q10, q10, q0 @ N = I + J 420 vext.8 q10, q10, q10, #13 422 veor q10, q10, q11 424 veor q0, q0, q10 436 vmull.p8 q10, d20, d6 @ J = A3* [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0) 296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0) 297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 316 vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0) 333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2) 334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2) 335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2) 336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2 [all...] |
/external/boringssl/linux-arm/crypto/aes/ |
aesv8-armx32.S | 52 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 59 veor q10,q10,q1 62 veor q3,q3,q10 71 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 77 veor q10,q10,q1 80 veor q3,q3,q10 86 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 92 veor q10,q10,q [all...] |
bsaes-armv7.S | 94 veor q10, q0, q9 @ xor with round0 key 96 vtbl.8 d0, {q10}, d16 97 vtbl.8 d1, {q10}, d17 110 veor q10, q6, q9 114 vtbl.8 d12, {q10}, d16 115 vtbl.8 d13, {q10}, d17 120 vshr.u64 q10, q6, #1 122 veor q10, q10, q7 124 vand q10, q10, q [all...] |
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 89 vmull.u8 q10, d0, d0 94 vaddl.u16 q10, d20, d21 99 vadd.u32 q10, q10, q11 101 vadd.u32 q10, q10, q11
|
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 167 vaddl.u8 q10, d4, d6 170 vmla.u16 q9, q10, q14 172 vaddl.u8 q10, d1, d11 174 vmla.u16 q10, q12, q14 178 vmls.u16 q10, q13, q15 183 vst1.32 {q10}, [r9]! 184 vext.16 q12, q9, q10, #2 185 vext.16 q13, q9, q10, #3 187 vext.16 q11, q9, q10, #5 189 vext.16 q12, q9, q10, # [all...] |
ih264_inter_pred_luma_bilinear_a9q.s | 139 vaddl.u8 q10, d0, d4 150 vqrshrun.s16 d28, q10, #1 152 vaddl.u8 q10, d10, d14 162 vqrshrun.s16 d30, q10, #1 166 vaddl.u8 q10, d0, d4 174 vqrshrun.s16 d28, q10, #1 180 vaddl.u8 q10, d10, d14 187 vqrshrun.s16 d30, q10, #1 198 vaddl.u8 q10, d0, d4 202 vqrshrun.s16 d28, q10, # [all...] |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0] 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0] 154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5 156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0] 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2 [all...] |
ih264_inter_pred_filters_luma_vert_a9q.s | 132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8] 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5 150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5) 156 vaddl.u8 q10, d6, d0 163 vmls.u16 q9, q10, q12 169 vaddl.u8 q10, d8, d2 178 vmls.u16 q7, q10, q12 185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8] 221 vaddl.u8 q10, d4, d [all...] |
/external/llvm/test/MC/ARM/ |
neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all...] |
neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all...] |
neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27 [all...] |
neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 62 vmls.i8 q9, q8, q10 63 vmls.i16 q9, q8, q10 [all...] |
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
neon-mul-accum-encoding.s | 11 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 12 vmla.i8 q9, q8, q10 13 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 14 vmla.i16 q9, q8, q10 15 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 16 vmla.i32 q9, q8, q10 17 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 18 vmla.f32 q9, q8, q10 43 @ CHECK: vmls.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf3] 44 vmls.i8 q9, q8, q10 [all...] |
neon-mul-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 16 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 17 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 18 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 19 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 48 vmls.i8 q9, q8, q10 49 vmls.i16 q9, q8, q10 [all...] |
neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 18 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 19 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 20 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 21 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 50 vmls.i8 q9, q8, q10 51 vmls.i16 q9, q8, q10 [all...] |
neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all...] |
neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingChroma_unsafe_s.S | 33 VSUBL.U8 q10,d8,d4 37 VRHADD.S16 q10,q11,q10 39 VQMOVN.S16 d20,q10
|
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct) 315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7 [all...] |
ihevc_itrans_recon_32x32.s | 225 vmull.s16 q10,d10,d0[0] 226 vmlal.s16 q10,d11,d0[2] 263 vmlal.s16 q10,d12,d1[0] 264 vmlal.s16 q10,d13,d1[2] 295 vmlal.s16 q10,d10,d2[0] 296 vmlal.s16 q10,d11,d2[2] 337 vmlal.s16 q10,d12,d3[0] 338 vmlal.s16 q10,d13,d3[2] 371 vmlal.s16 q10,d10,d0[0] 372 vmlal.s16 q10,d11,d4[2 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
idct_dequant_full_2x_neon.c | 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 91 q10 = vqaddq_s16(q2, q3); 103 q4 = vqaddq_s16(q10, q3); 106 q7 = vqsubq_s16(q10, q3); 118 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1); 124 q10 = vshrq_n_s16(q10, 1); 127 q10 = vqaddq_s16(q2tmp2.val[1], q10); 131 q9 = vqaddq_s16(q9, q10); [all...] |
/external/valgrind/none/tests/arm/ |
neon128.c | 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); 374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); 393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); 403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24) [all...] |