/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 75 // q11 = dst blue1 84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 89 vand q11, q11, q14 // extract dst blue1 95 vmul.u16 q11, q11, q3 // multiply dst blue1 by src alpha 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1 106 vshr.u16 q11, q11, #8 // shift down blue [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 169 vaddl.u8 q11, d2, d8 176 vmls.u16 q9, q11, q15 177 vaddl.u8 q11, d12, d17 180 vmla.u16 q11, q12, q14 181 vmls.u16 q11, q13, q15 186 vst1.32 {q11}, [r9] 187 vext.16 q11, q9, q10, #5 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d3 [all...] |
ih264_inter_pred_luma_bilinear_a9q.s | 141 vaddl.u8 q11, d1, d5 151 vqrshrun.s16 d29, q11, #1 156 vaddl.u8 q11, d11, d15 164 vqrshrun.s16 d31, q11, #1 170 vaddl.u8 q11, d1, d5 176 vqrshrun.s16 d29, q11, #1 184 vaddl.u8 q11, d11, d15 190 vqrshrun.s16 d31, q11, #1 200 vaddl.u8 q11, d1, d5 204 vqrshrun.s16 d29, q11, # [all...] |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0] 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 180 vqmovun.s16 d22, q11 [all...] |
ih264_inter_pred_filters_luma_vert_a9q.s | 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 141 vmla.u16 q8, q6, q11 148 vmla.u16 q7, q6, q11 155 vmla.u16 q9, q6, q11 162 vmla.u16 q8, q6, q11 170 vmla.u16 q7, q6, q11 176 vmla.u16 q9, q6, q11 [all...] |
ih264_iquant_itrans_recon_a9.s | 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 212 vrshr.s16 q11, q11, #6 215 vaddw.u8 q11, q11, d31 218 vqmovun.s16 d1, q11 318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..1 [all...] |
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 214 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2 [all...] |
ihevc_itrans_recon_32x32.s | 235 vmull.s16 q11,d10,d0[0] 236 vmlal.s16 q11,d11,d1[2] 271 vmlal.s16 q11,d12,d3[0] 272 vmlal.s16 q11,d13,d4[2] 305 vmlal.s16 q11,d10,d6[0] 306 vmlal.s16 q11,d11,d7[2] 345 vmlsl.s16 q11,d12,d7[0] 346 vmlsl.s16 q11,d13,d5[2] 381 vmlsl.s16 q11,d10,d0[0] 382 vmlsl.s16 q11,d11,d2[2 [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0) 303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0) 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) 376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5) 377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5) 378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5 [all...] |
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 90 vmull.u8 q11, d1, d1 95 vaddl.u16 q11, d22, d23 99 vadd.u32 q10, q10, q11 100 vadd.u32 q11, q12, q13 101 vadd.u32 q10, q10, q11
|
impeg2_idct.s | 181 vaddw.u8 q11, q15, d7 185 vqmovun.s16 d7, q11 463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 497 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 498 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 507 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 525 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
idct_dequant_full_2x_neon.c | 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 92 q11 = vqsubq_s16(q2, q3); 104 q5 = vqaddq_s16(q11, q2); 105 q6 = vqsubq_s16(q11, q2); 119 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1); 125 q11 = vshrq_n_s16(q11, 1); 128 q11 = vqaddq_s16(q2tmp3.val[1], q11); 130 q8 = vqsubq_s16(q8, q11); [all...] |
/external/valgrind/none/tests/arm/ |
v8crypto_a.stdout.exp | [all...] |
v8crypto_t.stdout.exp | [all...] |
neon128.c | 376 TESTINSN_imm("vmvn.i32 q11", q11, 0x7FF); 408 TESTINSN_un("vmov q10, q11", q10, q11, i16, 7); 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed) [all...] |
/external/llvm/test/MC/ARM/ |
directive-fpu-instrs.s | 10 vmov q4, q11 @ v4si
|
neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
bsaes-armv7.S | 104 veor q11, q1, q9 108 vtbl.8 d2, {q11}, d16 109 vtbl.8 d3, {q11}, d17 122 veor q11, q7, q9 125 vtbl.8 d14, {q11}, d16 126 vtbl.8 d15, {q11}, d17 130 vshr.u64 q11, q4, #1 132 veor q11, q11, q5 134 vand q11, q11, q [all...] |
ghashv8-armx32.S | 15 vmov.i8 q11,#0xe1 16 vshl.i64 q11,q11,#57 @ 0xc2.0 18 vshr.u64 q10,q11,#63 20 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 42 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 49 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 68 vmov.i8 q11,#0xe1 70 vshl.u64 q11,q11,#5 [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
bsaes-armv7.S | 103 veor q11, q1, q9 107 vtbl.8 d2, {q11}, d16 108 vtbl.8 d3, {q11}, d17 121 veor q11, q7, q9 124 vtbl.8 d14, {q11}, d16 125 vtbl.8 d15, {q11}, d17 129 vshr.u64 q11, q4, #1 131 veor q11, q11, q5 133 vand q11, q11, q [all...] |
ghashv8-armx32.S | 14 vmov.i8 q11,#0xe1 15 vshl.i64 q11,q11,#57 @ 0xc2.0 17 vshr.u64 q10,q11,#63 19 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 41 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 48 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 65 vmov.i8 q11,#0xe1 67 vshl.u64 q11,q11,#5 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Resize.S | 62 vmovl.u8 q11, d22 90 vmovl.u8 q11, d22 249 vdup.u32 q11, d24[0] 250 vst1.s16 {q11,q12}, [r12] 263 vld1.s16 {q11,q12}, [r8] 264 vst1.s16 {q11,q12}, [r9] 461 vshll.s16 q11, d18, #2 464 vmlsl.s16 q11, d20, d10 473 vaddw.s16 q1, q11, d18 483 vaddw.s16 q2, q11, d1 [all...] |
/bionic/libc/arch-arm/kryo/bionic/ |
memcpy.S | 62 vld1.32 {q10, q11}, [r1]! 67 vst1.32 {q10, q11}, [r0]! 74 vld1.32 {q10, q11}, [r1]! 79 vst1.32 {q10, q11}, [r0]!
|
/external/libxaac/decoder/armv7/ |
ixheaacd_imdct_using_fft.s | 250 VADD.I32 q10, q11, q2 251 VSUB.I32 q1, q11, q2 255 VADD.S32 q11, q7, q15 273 VADD.S32 q3, q4, q11 276 VSUB.S32 q10, q4, q11 283 VSUB.S32 q11, q8, q7 327 VPUSH {q11} 355 VADD.S32 q11, q9, q14 420 VTRN.32 q15, q11 426 VSHL.S32 q11, q11, # [all...] |
ixheaacd_sbr_imdct_using_fft.s | 254 VADD.I32 q10, q11, q2 255 VSUB.I32 q1, q11, q2 259 VADD.S32 q11, q7, q15 277 VADD.S32 q3, q4, q11 280 VSUB.S32 q10, q4, q11 287 VSUB.S32 q11, q8, q7 331 VPUSH {q11} 359 VADD.S32 q11, q9, q14 425 VTRN.32 q15, q11 431 VSHL.S32 q11, q11, # [all...] |