/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 169 vaddl.u8 q11, d2, d8 176 vmls.u16 q9, q11, q15 177 vaddl.u8 q11, d12, d17 180 vmla.u16 q11, q12, q14 181 vmls.u16 q11, q13, q15 186 vst1.32 {q11}, [r9] 187 vext.16 q11, q9, q10, #5 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d3 [all...] |
ih264_inter_pred_luma_bilinear_a9q.s | 141 vaddl.u8 q11, d1, d5 151 vqrshrun.s16 d29, q11, #1 156 vaddl.u8 q11, d11, d15 164 vqrshrun.s16 d31, q11, #1 170 vaddl.u8 q11, d1, d5 176 vqrshrun.s16 d29, q11, #1 184 vaddl.u8 q11, d11, d15 190 vqrshrun.s16 d31, q11, #1 200 vaddl.u8 q11, d1, d5 204 vqrshrun.s16 d29, q11, # [all...] |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 146 vaddl.u8 q11, d5, d14 @ temp = src[1_0] + src[4_0] 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20 155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0] 157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20 163 vext.16 q11, q12, q13, #2 @//extract a[2] (column1) 168 vext.16 q11, q12, q13, #1 @//extract a[1] (column1) 174 vext.16 q11, q12, q13, #4 @//extract a[4] (column1) 180 vqmovun.s16 d22, q11 [all...] |
ih264_inter_pred_filters_luma_vert_a9q.s | 110 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 141 vmla.u16 q8, q6, q11 148 vmla.u16 q7, q6, q11 155 vmla.u16 q9, q6, q11 162 vmla.u16 q8, q6, q11 170 vmla.u16 q7, q6, q11 176 vmla.u16 q9, q6, q11 [all...] |
ih264_iquant_itrans_recon_a9.s | 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 206 vsub.s16 q11, q7, q8 @x0-x3 and x1-x2 combined 212 vrshr.s16 q11, q11, #6 215 vaddw.u8 q11, q11, d31 218 vqmovun.s16 d1, q11 318 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..1 [all...] |
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 214 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1) 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 276 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct) 326 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 332 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2 [all...] |
ihevc_itrans_recon_32x32.s | 235 vmull.s16 q11,d10,d0[0] 236 vmlal.s16 q11,d11,d1[2] 271 vmlal.s16 q11,d12,d3[0] 272 vmlal.s16 q11,d13,d4[2] 305 vmlal.s16 q11,d10,d6[0] 306 vmlal.s16 q11,d11,d7[2] 345 vmlsl.s16 q11,d12,d7[0] 346 vmlsl.s16 q11,d13,d5[2] 381 vmlsl.s16 q11,d10,d0[0] 382 vmlsl.s16 q11,d11,d2[2 [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 302 vaddl.u8 q11, d3, d18 @// a0 + a5 (column2,row0) 303 vmlal.u8 q11, d9, d1 @// a0 + a5 + 20a2 (column2,row0) 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 305 vmlsl.u8 q11, d6, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) 306 vmlsl.u8 q11, d15, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0) 318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5) 376 vmlal.s16 q11, d30, d0[1] @// a0 + a5 + 20a2 (set5) 377 vmlal.s16 q11, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set5) 378 vmlsl.s16 q11, d31, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set5 [all...] |
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
directive-fpu-instrs.s | 10 vmov q4, q11 @ v4si
|
neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 90 vmull.u8 q11, d1, d1 95 vaddl.u16 q11, d22, d23 99 vadd.u32 q10, q10, q11 100 vadd.u32 q11, q12, q13 101 vadd.u32 q10, q10, q11
|
impeg2_idct.s | 182 vaddw.u8 q11, q15, d7 186 vqmovun.s16 d7, q11 469 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1) 503 vadd.s32 q5, q10, q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 504 vsub.s32 q10, q10, q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 513 vsub.s32 q11, q10, q9 @// a2 = c1 - d1(part of r2,r5) 519 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2) 520 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5) 531 vqrshrn.s32 d14, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT [all...] |
/external/llvm/test/MC/ARM/ |
directive-fpu-instrs.s | 10 vmov q4, q11 @ v4si
|
neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|
/external/boringssl/ios-arm/crypto/fipsmodule/ |
ghashv8-armx32.S | 28 vmov.i8 q11,#0xe1 29 vshl.i64 q11,q11,#57 @ 0xc2.0 31 vshr.u64 q10,q11,#63 33 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 55 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 62 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 81 vmov.i8 q11,#0xe1 83 vshl.u64 q11,q11,#5 [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
ghashv8-armx32.S | 27 vmov.i8 q11,#0xe1 28 vshl.i64 q11,q11,#57 @ 0xc2.0 30 vshr.u64 q10,q11,#63 32 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 54 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 61 .byte 0x26,0x0e,0xa0,0xf2 @ pmull q0,q0,q11 78 vmov.i8 q11,#0xe1 80 vshl.u64 q11,q11,#5 [all...] |
/bionic/libc/arch-arm/kryo/bionic/ |
memcpy.S | 68 vld1.32 {q10, q11}, [r1]! 73 vst1.32 {q10, q11}, [r0]! 80 vld1.32 {q10, q11}, [r1]! 85 vst1.32 {q10, q11}, [r0]!
|
/external/libxaac/decoder/armv7/ |
ixheaacd_imdct_using_fft.s | 250 VADD.I32 q10, q11, q2 251 VSUB.I32 q1, q11, q2 255 VADD.S32 q11, q7, q15 273 VADD.S32 q3, q4, q11 276 VSUB.S32 q10, q4, q11 283 VSUB.S32 q11, q8, q7 327 VPUSH {q11} 355 VADD.S32 q11, q9, q14 420 VTRN.32 q15, q11 426 VSHL.S32 q11, q11, # [all...] |
ixheaacd_sbr_imdct_using_fft.s | 254 VADD.I32 q10, q11, q2 255 VSUB.I32 q1, q11, q2 259 VADD.S32 q11, q7, q15 277 VADD.S32 q3, q4, q11 280 VSUB.S32 q10, q4, q11 287 VSUB.S32 q11, q8, q7 331 VPUSH {q11} 359 VADD.S32 q11, q9, q14 425 VTRN.32 q15, q11 431 VSHL.S32 q11, q11, # [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_horiz_filter_type1_neon.asm | 131 vdup.16 q11, r7 137 vhadd.s16 q4, q4, q11 158 vhadd.s16 q5, q5, q11 224 vdup.16 q11, r7 227 vhadd.s16 q4, q4, q11 248 vhadd.s16 q10, q10, q11 263 vdup.16 q11, r7 271 vmlsl.u8 q11, d1, d24 272 vmlsl.u8 q11, d3, d25 274 vmlal.u8 q11, d5, d2 [all...] |
vpx_convolve8_avg_horiz_filter_type2_neon.asm | 132 vdup.16 q11, r7 138 vhadd.s16 q4, q4, q11 159 vhadd.s16 q5, q5, q11 225 vdup.16 q11, r7 228 vhadd.s16 q4, q4, q11 249 vhadd.s16 q10, q10, q11 264 vdup.16 q11, r7 272 vmlsl.u8 q11, d1, d24 273 vmlal.u8 q11, d3, d25 275 vmlsl.u8 q11, d5, d2 [all...] |
vpx_convolve8_horiz_filter_type1_neon.asm | 131 vdup.16 q11, r7 137 vhadd.s16 q4, q4, q11 155 vhadd.s16 q5, q5, q11 220 vdup.16 q11, r7 223 vhadd.s16 q4, q4, q11 243 vhadd.s16 q10, q10, q11 256 vdup.16 q11, r7 262 vmlsl.u8 q11, d1, d24 264 vmlsl.u8 q11, d3, d25 266 vmlal.u8 q11, d5, d2 [all...] |
vpx_convolve8_horiz_filter_type2_neon.asm | 131 vdup.16 q11, r7 137 vhadd.s16 q4, q4, q11 155 vhadd.s16 q5, q5, q11 220 vdup.16 q11, r7 223 vhadd.s16 q4, q4, q11 243 vhadd.s16 q10, q10, q11 256 vdup.16 q11, r7 262 vmlsl.u8 q11, d1, d24 264 vmlal.u8 q11, d3, d25 266 vmlsl.u8 q11, d5, d2 [all...] |
/external/capstone/suite/MC/ARM/ |
neont2-mul-accum-encoding.s.cs | 20 0xdb,0xef,0x47,0x63 = vqdmlal.s16 q11, d11, d7[0] 21 0xdb,0xef,0x4f,0x63 = vqdmlal.s16 q11, d11, d7[1] 22 0xdb,0xef,0x67,0x63 = vqdmlal.s16 q11, d11, d7[2] 23 0xdb,0xef,0x6f,0x63 = vqdmlal.s16 q11, d11, d7[3] 39 0xd9,0xff,0xe9,0x66 = vmlsl.u16 q11, d25, d1[3]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
idct_blk_neon.c | 71 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 142 q11 = vqsubq_s16(q2, q3); 154 q5 = vqaddq_s16(q11, q2); 155 q6 = vqsubq_s16(q11, q2); 169 q11 = vqdmulhq_n_s16(q2tmp3.val[1], cospi8sqrt2minus1); 175 q11 = vshrq_n_s16(q11, 1); 178 q11 = vqaddq_s16(q2tmp3.val[1], q11); 180 q8 = vqsubq_s16(q8, q11); [all...] |